algebra lineal

156
´ Algebra Lineal Jorge Luis Arocha

Upload: eloy-moreno-garcia

Post on 24-Jun-2015

388 views

Category:

Documents


5 download

TRANSCRIPT

Page 1: Algebra Lineal

Algebra Lineal

Jorge Luis Arocha

Page 2: Algebra Lineal

II

Page 3: Algebra Lineal

Capıtulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos inversos (4).Distributividad (5). El algebra “abstracta”(5).

1.2 Numeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (8). Campos (8). Reales(8). Complejos (9).

1.3 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Morfismos de grupos (10). Morfismos de anillos (11). Isomorfismos (12). Composi­cion de morfismos (13).

1.4 Campos de restos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14El anillo de los enteros modulo n (14). Dominios de integridad (14). El campo de losenteros modulo p (15).

1.5 Campos primos. Caracterıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16Subcampos (16). Campos primos (16). Caracterıstica (18).

1.6 Aritmetica de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18Multiplos y exponentes enteros (18). Asociatividad general (18). Distributividad gene­ral (19). Formula multinomial (19). La expansion de ΠΣαij (20).

*1.7 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21Suma y producto de polinomios (21). Division de polinomios (22). Factores y raices(22). Ideales de polinomios (23). Unicidad de la factorizacion en irreducibles. (25).Desarrollo de Taylor (26).

*1.8 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27Forma polar. Igualdad de Moivre (27). Continuidad (28). Lımite de sucesiones com­plejas (30). Teorema de Gauss (30).

*1.9 Factorizacion de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . . . . . 32Caso Complejo (32). Caso real (32).

*1.10 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33Campos de fracciones (34). Funciones racionales (35).

Capıtulo 2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.1 El plano cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

2.2 Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38El espacio de n­adas Kn (39). El espacio de polinomios K [x] (40). El espacio desucesiones KN (40). El espacio de series K [[x]] (40). El espacio de funciones KN(40). El espacio de N­adas KN (41). El espacio de N­adas con soporte finito KN(41). Subcampos (42). El espacio deN­adas de vectores EN (42). El espacio de NM­matrices KNM (42). El espacio de tensores (43).

2.3 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

Page 4: Algebra Lineal

IV Contenido

Union e interseccion de subespacios (44). Combinaciones lineales (45). Cerradura li­neal (46).

2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47Conjuntos generadores (47). Conjuntos linealmente independientes (48). Bases (49).Dimension (51). Bases canonicas (52).

2.5 Clasificacion de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53Isomorfismos lineales (54). Coordinatizacion (55). Clasificacion (55). Como pensar enespacios vectoriales (56).

2.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57Subespacios de Rn (57). Suma de conjuntos y subespacios (58). La igualdad modular(58). Suma directa (60). Isomorfismo canonico entre la suma y la suma directa. (60).Subespacios complementarios (61). Espacios vectoriales versus conjuntos (62).

2.7 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63Subespacios afines (63). El espacio cociente (64). El isomorfismo con los complemen­tarios (65).

*2.8 El caso de dimension infinita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66El Lema de Zorn (66). Existencia de bases (67). Cardinales (67). Equicardinalidad delas bases (68).

Capıtulo 3 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

3.1 Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69Imagenes de subespacios (69). Homotecias (70). Inmersiones (71). Proyecciones (71).

3.2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72El espacio vectorial de las transformaciones lineales (72). Composicion de transfor­maciones lineales (73). El algebra de operadores lineales (74). El grupo general lineal(74).

3.3 Extensiones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75Extensiones y restricciones (75). El isomorfismo entre FN y Mor (E,F) (76). Un cri­terio de isomorfismo (77).

3.4 Coordinatizacion de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 77El producto escalar canonico (79). El producto de matrices (79). Productos de matri­ces y vectores (80). La transformacion lineal de una matriz (80). La matriz de unatransformacion lineal (81). Composicion de TLs y producto de matrices (81). Matricesinversas (82).

3.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83Cambios de base en un espacio vectorial (83). Cambios de base en el espacio de trans­formaciones lineales (84). Cambios de base en el espacio de operadores lineales (85).

3.6 El nucleo y la imagen de una transformacion lineal . . . . . . . . . . . . . . . . . . . . . 86Definiciones (86). Descomposicion de transformaciones lineales (86). Transformacio­nes lineales con nucleo trivial (87). Un criterio de isomorfismo (87). Descomposicioncanonica de transformaciones lineales (88).

Capıtulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

4.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91El grupo simetrico (91). Ciclos (92). El grupo alternante (93). El signo de una permu­tacion (94).

Page 5: Algebra Lineal

VContenido

4.2 Propiedades basicas de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94Definicion de los determinantes (95). Determinantes de matrices pequenas (95). Ma­trices con filas nulas (96). El determinante de la identidad (96). El determinante dela transpuesta (97). Permutaciones de columnas y renglones (97). El determinante delproducto (98). Matrices de permutaciones (99).

4.3 Expansion de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100Cambios de ındices (100). Complementos algebraicos (102). La expansion de un de­terminante por sus renglones (102). La expansion de Laplace en forma grafica (103).Multinearidad de los determinantes (104). La inversa de una matriz (105). El determi­nante de un operador lineal (107).

4.4 La expansion generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107Matrices diagonales y triangulares por bloques (109). La expansion generalizada deLaplace en forma grafica (109).

4.5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111Espacios de columnas y renglones (111). Matrices no singulares (111). Lema de au­mento de matrices no singulares (112). Bases de una matriz (112). Teorema del rango(113). Caracterizacion de las bases de una matriz (114).

4.6 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114Regla de Cramer (115). Existencia de soluciones (116). Eliminacion de ecuacionesdependientes (117). El nucleo y la imagen de una matriz (117). Bases del subespacioafın de soluciones (118).

4.7 Metodo de eliminacion de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119Transformaciones elementales (120). Calculo de determinantes (120). Bases, rango,nucleos y sistemas de ecuaciones lineales (121). Solucion de ecuaciones matriciales,matriz inversa (122).

Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

Guıa de estudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

Page 6: Algebra Lineal

VI

El algebra es la oferta hecha por el Diablo a los matematicos.El Diablo dice:

“Yo te dare a ti esta poderosa maquinariaque respondera cualquier pregunta que tu quieras.

Todo lo que se necesita que tu hagas es entregarme tu alma:dame la geometrıa y tendras esta maravillosa maquina”

... el dano a nuestra alma esta ahı,porque cuando usted pasa a hacer calculos algebraicos,

esencialmente usted deja de pensar ...

Sir Michael Atiyah

Page 7: Algebra Lineal

l objeto del algebra lineal es el estudio de los espacios vectoriales. Estos espacios sonestructuras algebraicas cuyos objetos son de dos tipos los vectores y los escalares.Las operaciones definidas en los espacios vectoriales son la suma y resta de vectores,

la suma resta multiplicacion y division de escalares y la multiplicacion de escalares porvectores. La mayorıa de los temas estudiados en este libro no dependen del conjunto deescalares y el lector puede casi siempre considerar que los escalares son los reales R y queel espacio vectorial es el espacio “geometrico” comun Rn.

Sin embargo, como esta teorıa no depende (al menos en gran parte) del conjunto deescalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matematicas ylas ciencias naturales) es conveniente elevar un paso el nivel de abstraccion y pensar que elconjunto de escalares es un campo arbitrario K .

El primer objetivo de este capıtulo es dar al lector un conocimiento basico de lo que esun campo. Esto se pretende lograr por tres medios: dando la definicion formal, estudiandoalgunas propiedades (como la caracterıstica) de los mismos, viendo que las reglas usuales demanipulacion de formulas en un campo no se diferencian esencialmente de las formulas enlos reales y sobre todo, dando los ejemplos fundamentales de campos.

Posteriormente, estudiaremos las principales propiedades de los polinomios con coefi­cientes en un campo. En particular, los teoremas de descomposicion en factores de polino­mios complejos y reales seran fundamentales para, en un capıtulo posterior, desarrollar ladescomposicion de Jordan de operadores lineales.

1.1 Operaciones binarias

SeaA un conjunto. Una operacion binaria es una funcion del producto cartesianoA×Aen A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A se le hacecorresponder un tercer elemento de A. Demos algunos ejemplos sencillos:

1) a+ b suma 5) ab exponenciacion2) a− b resta 6) loga b logaritmo3) ab producto 7) mcd (a, b) max comun divisor4) a

bdivision 8) mcm (a, b) mın comun multiplo

Page 8: Algebra Lineal

2 Capıtulo 1. Campos

Lo primero que observamos de los ejemplos anteriores es que no hemos definido en cualconjunto esta definida la operacion. Esto no es correcto formalmente, ası por ejemplo ladivision es una operacion que no esta definida en el conjunto de los numeros enteros. Sinembargo el lector podra facilmente encontrar los conjuntos en los cuales estos ejemplos sonoperaciones binarias.

Ejercicio 1 ¿En cuales conjuntos las operaciones 1­8 estan correctamente definidas? [125]Ejercicio 2 ¿Que es una operacion unaria? De ejemplos. [125]Ejercicio 3 Dados tres numeros reales a, b, c definamos A (a, b, c) como el area del trian­gulo con lados a, b y c. ¿Es esta una operacion ternaria en R? [125]

Lo segundo que debemos de observar, es la variedad de notaciones usadas para represen­tar las operaciones binarias. Sobre todo, son complicadas las notaciones de la operaciones4­6. Lo que tienen en comun, es que no nos alcanza una lınea de sımbolos para escribirlas.Necesitamos subir y/o bajar ademas de movernos de derecha a izquierda. O sea, necesitamosdos dimensiones para escribirlas.

Quiza sea mas ilustrativo, poner un ejemplo mas complejoπ/4R0

¡a sin x+ b sin x

2

¢dx

de notacion dos dimensional. La integral en el recuadro a laderecha esta bien definida para cualesquiera valores reales a, by por lo tanto es una operacion binaria definida en R.

Mas sencillos son los ejemplos de notaciones lineales 1­3,7­8. En realidad, para las no­taciones lineales solo hay tres posibilidades:

(a, b) notacion prefija o funcionala b notacion operacional(a, b) notacion sufija

Las operaciones 1­3 estan en notacion operacional y las operaciones 7­8 estan en nota­cion prejija. La notacion sufija es util sobre todo en la programacion de compiladores paralenguajes de computadoras (tales como pascal o C++) ya que frecuentemente lo mas faciles decirle a una computadora “toma el numero a” , “toma el numero b” ,“sumalos” y nohacerlo de otra manera.

Ejercicio 4 La notacion sufija para a (b+ c) /2 es bc + a × 2÷ . ¿Cual sera la notacionsufija para la expresion (a+ b) (x+ y)? [125]

Cualquier intento, de tratar de unificar las notaciones usadas en la comunicacion entrehumanos, solo llevarıa a confusiones mucho peores. Sin embargo, tenemos la libertad de es­coger una notacion unificada para las operaciones binarias abstractas que definamos. De unavez, postularemos que siempre usaremos la notacion operacional para definir operacionesbinarias abstractas.

Page 9: Algebra Lineal

3Seccion 1.1 Operaciones binarias

Recalquemos que una operacion “abstracta” no significa nada mas que es una operacionque puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2. Despues,tempranamente en el estudio de las matematicas, la expresion a+b significa que a un numeroa (no se sabe cual) le sumamos un numero b (tampoco se sabe cual). Ahora, la expresion a+b significara que a un objeto a (numero, polinomio, matriz , quien sabe que) le “sumamos”(no se sabe lo que quiere decir “suma”) un objeto b (del que tampoco se sabe mucho).

Conmutatividad

¿Es 3 + 2 igual a 2 + 3? Si. ¿Es 32 igual a 23? No. Una operacion binaria∀a, b ∈ Aa b = b a

denotada por y definida en el conjunto A se dice que es conmutativa sise cumple la propiedad en el recuadro a la izquierda. Ser o no conmutativa

es la propiedad mas sencilla que diferencia las operaciones binarias.

Ejercicio 5 ¿Cuales de las operaciones 1­9 son conmutativas? [125]

Asociatividad

¿Que quiere decir 2+3+5? ¿Acaso debemos sumar 2+3 y al resultado sumarle 5? ¿Nosera que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ninguna diferenciaentre los dos procedimientos. Este hecho se expresa como (2+ 3) + 5 = 2+ (3+ 5) .

Una operacion binaria denotada por y definida en el con­∀a, b, c ∈ Aa (b c) = (a b) c

junto A se dice que es asociativa si se cumple la propiedad enel recuadro de la derecha.

Los estudiantes preuniversitarios se encuentran por primeravez con la dificultad de una operacion no asociativa en el caso de la operacion de exponen­ciacion. A esta temprana edad es muy necesario insistir que la expresion 22

3

es ambigua

porque 2(23) = 256 6= 64 =

¡22¢3

.

Ejercicio 6 ¿Cuales de las operaciones 1­9 son asociativas? [125]

La asociatividad de una operacion es una propiedad crucial. Sin esta propiedad, el manejoalgebraico de una operacion se complica bastante.

Es mas, gracias a ella podemos introducir la notacion de la operacion “re­11Pn=1

anpetida”. Si tenemos 11 elementos a1, a2, . . . , a11 entonces, para denotar la sumaa1+a2+ · · ·+a11 podemos usar la notacion (mucho mas comoda) que se muestraen el recuadro a la derecha. Esta notacion no requiere de la conmutatividad de laoperacion “suma” gracias a que los ındices tienen un orden y sabemos cual elemento debe irprimero y cual despues.

Si tenemos que la operacion es no solamente asociativa sino tambien conmutativa enton­ces podemos ser mas generosos con esta notacion.

Page 10: Algebra Lineal

4 Capıtulo 1. Campos

Supongamos que aρ, a`, aκ, a9 y a∇ son elementos de un conjunto con una sumaPn∈N

an asociativa y conmutativa. Entonces la suma de estos (¡no importa el orden!) lapodemos denotar por la expresion en el recuadro a la izquierda, donde N es el

conjunto de ındices ρ,κ, `,∇, 9.Si la operacion binaria definida no se llama “suma” sino “producto”, entonces es usual,

en lugar de usar la letra griegaP

(sigma mayuscula), usar la letra griegaQ

(pi mayuscula).Podemos, en este caso, usar la primera o segunda notacion dependendiendo de si nuestroproducto es conmutativo o no.

Elementos neutros

La suma de numeros naturales tiene un elemento especial y unico: el cero. Su propie­dad definitoria es que cualquier numero sumado con cero da el mismo numero. La mismapropiedad la tiene el uno con respecto al producto de numeros naturales.

Para una operacion binaria denotada por y definida en el con­ ∀a ∈ Aa e = e a = ajunto A se dice que e ∈ A es un elemento neutro si este cumple la

propiedad en el recuadro.Una operacion binaria no puede tener mas de un elemento neutro. Efectivamente, sean e

y e0 elementos neutros. Por ser e neutro, tenemos e e0 = e0. Por ser e neutro, y tenemose e0 = e. De estas dos igualdades obtenemos e = e0.

Ejercicio 7 ¿Cuales de las operaciones 1­9 tienen neutro? [125]

Los elementos neutros juegan un papel importante en las notaciones para operaciones

Qi∈Nai •

Qi∈M

ai =Q

i∈N∪Mai

repetidas. Supongamos que tenemos un producto asociativo y conmutativo. Sean ademas Ny M dos conjuntos finitos de ındices disjuntos. Naturalmen­te, de la definicion se sigue la propiedad del recuadro a laizquierda.

Pero ¿que pasa si alguno de los conjuntos de ındices (digamosM) es vacıo? Si queremosque esta propiedad se conserve entonces observamos queY

i∈Nai •

Yi∈∅

ai =Yi∈N∪∅

ai =Yi∈N

ai

por lo que necesariamenteQ

i∈∅ ai tiene que ser el elemento neutro de nuestra operacion (sino hay neutro entonces estamos en problemas).

Es por esto, como el lector seguramente ya sabe, que la suma vacıa de numeros es iguala cero y el producto vacıo de numeros es igual a uno.

Elementos inversos

Para cada numero entero a hay un unico numero −a tal que sumado con a da cero. Ge­

a b = b a = e

neralizemos esta propiedad a operaciones binarias arbitrarias. Sea una operacion binaria enel conjuntoA con elemento neutro. Se dice que a ∈ A tiene elementoinverso b si se cumple la propiedad en el recuadro a la izquierda.

Page 11: Algebra Lineal

5Seccion 1.1 Operaciones binarias

Para cualquier operacion binaria asociativa el elemento inverso de otro es unico. Efecti­vamente si b y c son inversos de a entonces b = be = b(a c) = (b a)c = ec = co sea que b y c tienen que ser el mismo.

Ejercicio 8 Describa los inversos en las operaciones 1­9. [126]

Distributividad

Frecuentemente nos encontramos con conjuntos en los cuales hay mas de una operacionbinaria definida. El ejemplo mas sencillo son los naturales en los que sabemos sumar y sabe­mos multiplicar. Estas dos operaciones estan relacionadas con la propiedad de que podemossacar factor comun o sea ax+ ay = a (x+ y).

Sean y ¦ dos operaciones binarias definidas en el ∀a, b, c ∈ Aa ¦ (b c) = (a ¦ b) ¦ (a ¦ c)(b c) ¦ a = (b ¦ a) (c ¦ a)

conjunto A. Se dice que la operacion ¦ es distributivarespecto a la operacion si se cumple la propiedad en elrecuadro.

Que ¦ sea distributiva respecto a no es lo mismo que sea distributiva respecto a¦. Por ejemplo, en los naturales el producto es distributivo con respecto a la suma:a (b+ c) = (ab) + (ac) y sin embargo, la suma de naturales no es distributiva

respecto al producto: a+ (bc) 6= (a+ b) (a+ c).

Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivasuna con respecto a la otra. [126]

El algebra “abstracta”

Filosoficamente, el concepto de “abstraccion” es la propiedad, que tiene el pensamientohumano, de que podemos fijarnos solamente en ciertas propiedades “esenciales” de un objetoo fenomeno, y olvidarnos de las restantes.

La abstraccion es imprescindible para el lenguaje. El concepto “silla” nos permite reco­nocer una silla, independientemente si esta es de madera, de hierro, plastica, grande, comoda,con tres, cuatro o cinco patas etc. Casi cada palabra del espanol (y de cualquier idioma) re­presenta un concepto abstracto, sea esta verbo, sustantivo o adjetivo.

La ciencia lleva este nivel de abtraccion a un nivel aun mayor. Parte de este conoci­miento cientıfico, pasa al conocimiento publico. Baste recordar conceptos como: velocidad,volumen, higiene, ADN, penicilina, electron, metal, colesterol, triangulo, etc. Algunos de losmencionados, son muy antiguos, otros surgieron hace muy poco. Sin embargo, la mayorıade estos conocimientos queda solamente en manos de los especialistas en la materia.

Con las matematicas pasa igual. No hace falta saber que la suma de naturales es unaoperacion binaria conmutativa para saber que 2 + 3 = 3 + 2. Sin embargo, el concepto de

Page 12: Algebra Lineal

6 Capıtulo 1. Campos

“operacion” y que estas operaciones pueden cumplir o no ciertas propiedades es relativa­mente “nuevo”.

En la primera mitad del siglo XX, progresivamente, la comunidad matematica se fue dan­do cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstrac­tas. Tanto fue el entusiasmo, que muchos, en un principio, le llamaron a esta forma de pensar“Algebra moderna”. Otros aun mas entusiastas, mas frıvolos y con muchas ganas de vendersus libros le llamaron “Matematica moderna”. En la actualidad este lenguaje es parte in­trınseca e indivisible del pensamiento en matematicas y cualquier calificacion de “moderna”suena muy tonta.

Otros, por otro lado, prefierieron referirse a esta forma de pensar como “Algebra abstrac­ta”. Esto, en mi opinion, aunque mas moderado, tampoco tiene ningun sentido. Toda algebraes abstracta, de hecho, todas las matematicas son abstractas. Estoy convencido de que, eltiempo se encargara de acabar con todos estos calificativos.

1.2 Numeros

En esta seccion repasaremos los principales tipos de numeros que el lector ya conoce:naturales, enteros, racionales, reales y complejos. Esto nos dara la posibilidad de introducirlas definiciones mas basicas del algebra: grupos, anillos y campos.

Naturales

Hay una frase famosa que dice “Dios hizo los naturalesab = a+ ...+ a| z

b veces

= b+ ...+ b| z a veces

y el hombre todo lo demas”. El conjunto de los numerosnaturalesN = 0, 1, 2, ... es el conjunto de los cardinalesde los conjuntos finitos. En N hay dos operaciones bina­

rias bien definidas: la suma y el producto. De hecho el producto es una operacion derivadade la suma y la suma solo se puede definir en terminos de conjuntos. Por ejemplo, a+b es elcardinal de la union de dos conjuntos finitos y disjuntos uno de cardinal a y otro de cardinalb.

Como la union de conjuntos es asociativa tambien lo es la suma de naturales. De ladefinicion se obtiene que el producto de naturales tambien es asociativo. Tanto la suma comoel producto son conmutativos. La suma tiene elemento neutro 0 y el producto tiene elementoneutro 1. El producto es distributivo respecto a la suma.

Enteros

Ningun elemento de N salvo el cero tiene inverso para

−b+ a = c⇔ a = b+ c

−b+ (−a) = − (a+ b)

la suma. Para lograr la existencia de inversos inventamos losnumeros negativos Z− = −1,−2,−3, ... y en el conjuntoZ = N ∪ Z− de los numeros enteros definimos la suma comola operacion conmutativa definida por las propiedades en elrecuadro a la derecha.

Page 13: Algebra Lineal

7Seccion 1.2 Numeros

Ejercicio 10 Demuestre la asociatividad de la suma de numeros enteros basandose sola­mente en la asociatividad de los naturales.

Grupos

Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada elementotiene inverso. O sea los enteros dan el primer ejemplo de grupo.

A un conjunto no vacıo con una operacion binaria seG1) la operacion es asociativaG2) tiene elemento neutroG3) todo elemento tiene inverso

le llama grupo si se cumplen los tres axiomas G1­G3.Un grupo se le llama abeliano si ademas de los axio­mas G1­G3 se cumple que la operacion es conmutativa.Ası, (Z,+) es un grupo abeliano. Ejemplos de grupos noabelianos los veremos mas adelante.

A los grupos cuya operacion es conmutativa se les llama abelianos en ho­nor al matematico noruego Niels Henrik Abel (1802­1829). Abel fue el queresolvio el problema algebraico mas importante de su epoca. Demostro, queno existen formulas en radicales para resolver las ecuaciones polinomiales degrado 5 o mayor (a diferencia de las ecuaciones de grado ≤ 4 para las cualessi hay formulas generales). Al momento de encontrar esta demostracion, elproblema ya duraba varios siglos sin resolverse. Abel murio a los 26 anos acausa de una neumonıa.

Anillos

La operacion de producto de naturales se extiende facilmente al a (−b) = − (ab)(−a)b = − (ab)

(−a) (−b) = ab

conjunto de los enteros mediante las reglas en el recuadro. Nuevamenteel producto es asociativo,conmutativo y distributivo con respecto a lasuma. O sea los enteros tambien dan el primer ejemplo de anillo.

Un conjunto A no vacıo con dos operaciones bi­A1) (A,+) es un grupo abelianoA2) • es asociativaA3) • es distributiva con respecto a +A4) • tiene elemento neutro

narias + y • se le llama anillo si se cumplen losaxiomas en el recuadro a la izquierda. Si el anilloes tal que la operacion • es conmutativa entoncesse dice que tenemos un anillo conmutativo. Porejemplo (Z,+, •) es un anillo conmutativo.

En un anillo al neutro para la suma se le llama cero y se denota por 0. Al neutro para elproducto se le llama uno y se denota por 1. Al inverso de un elemento con respecto a la sumade un elemento se le llama su opuesto. Al inverso con respecto al producto de un elementose le llama inverso multiplicativo o simplemente inverso a secas.

Observemos que si a es un elemento de un anillo entonces a • 0+ a = a • (0+ 1) = ay debido a la unicidad del 0 obtenemos que a • 0 = 0. De la misma manera vemos que0 • a = 0. Si 1 = 0 entonces, a = 1 • a = 0 • a = 0 por lo que el anillo consta de unsolo elemento. Para descartar esta trivialidad supondremos siempre que 1 6= 0. De aquı se

Page 14: Algebra Lineal

8 Capıtulo 1. Campos

desprende que 0 no puede tener inverso ya que 0 = a • 0 = 1 es una contradiccion.En cualquier anillo −a denota al opuesto de a y a−1 (si existe) denota al inverso de a.

Como 1 × 1 = 1 tenemos 1−1 = 1. Tambien (−1)−1 = −1 ya que si a = −1 entonces0 = a (a+ 1) = aa+ a por lo que aa = −a o sea, (−1) (−1) = 1. Luego, en todo anillo1 y −1 tienen inversos. En Z ningun elemento salvo 1 y −1 tiene inverso.

Normalmente en la definicion de anillo no se pide el axioma A4. En este caso, a los anillos quetienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de anillo nounitario es el conjunto de todos los enteros pares. Con el objetivo de simplificar, para nosotrostodos los anillos son unitarios.

Racionales

Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio­

a

b=c

d⇔ a • d = c • b

nes y con ellas el conjunto de numeros racionales Q. Una fraccion es un par ordenado denumeros enteros denotado por a/b donde b 6= 0. Dos fraccio­nes son iguales cuando se cumple la igualdad en el recuadro.Los numeros racionales Q son las fracciones con la relacion de

igualdad ası definida. Los enteros son parte de los racionales por cuanto podemos identificarcada numero entero a ∈ Z con la fraccion a/1.

Campos

La suma y el producto de numeros racionales se definen pora

b+c

d=a • d+ c • b

b • da

b• cd=a • cb • d

las igualdades en el recuadro. Nuevamente los racionales con lasuma forman un grupo abeliano y otra vez el producto es aso­ciativo, conmutativo, tiene elemento neutro y es distributivo conrespecto a la suma. La diferencia es que ahora todo elemento di­ferente de cero tiene inverso multiplicativo. O sea los racionalesnos dan el primer ejemplo de campo.

Un conjunto K no vacıo con dos operaciones bi­C1) (K,+) es un grupo abelianoC2) (K\0, •) es un grupo abelianoC3) • es distributiva con respecto a +

narias + y • se le llama campo si se cumplen lostres axiomas C1­C3. En otras palabras un campoes un anillo conmutativo en la cual todo elementodiferente de cero tiene inverso multiplicativo.

Ejercicio 11 Si es una operacion binaria en A entonces, en A2 esta definida naturalmentela operacion por coordenadas (x, y) (x0, y0) = (x x0, y y0). Demuestre que si (A, ) esun grupo entonces

¡A2,

¢es un grupo.

Ejercicio 12 De la misma manera que el ejercicio anterior se definen las operaciones enA2

si (A,+, •) es un anillo. Demuestre que¡A2,+, •

¢es tambien un anillo.

Ejercicio 13 Sea (K,+, •) un campo. Como K es un anillo conmutativo entonces, por elejercicio anterior,

¡K2,+, •

¢tambien es un anillo. ¿Sera K2 un campo?

Page 15: Algebra Lineal

9Seccion 1.2 Numeros

Reales

Dicen que cuando Pitagoras (Samos 569­475 A.C.) descubrio que

1

1

√2

√2 6= p

q

la longitud de la hipotenusa de un triangulo rectangulo con cate­tos de longitud uno no es un numero racionalquedo horrorizado. A nosotros nos parece estouna exageracion. Sin embargo, si nos ponemosen el lugar de Pitagoras comprenderemos queen aquel momento era inconcebible que existannumeros que no sean cociente de dos enteros.La pintura a la izquierda es un detalle del fres­co de Rafael “La escuela de Atenas” en la cualsupuestamente, se muestra a Pitagoras.

Sigamos a Pitagoras y probemos que efectivamente√2 no es un racional. Para esto

denotemos por kak2 el numero de veces que el natural a se divide entre 2. Tenemos√2 =

p

q⇒ °°2q2°°

2=°°p2°°

2⇒ 1 + 2 kqk2 = 2 kpk2 lo que es una contradiccion ya que un

numero impar no puede ser igual a uno par.

Ejercicio 14 Sea n un numero natural. Pruebe que√n es un natural o no es racional. [126]

Ejercicio 15 Basandose en el anterior de otra prueba de que√2 no es racional. [126]

Esto motiva la construcion de los numeros reales R. La construcion de los reales esun proceso complicado y se han descubierto muchas formas de formalizar esta construcionsiendo la mas popular la de las cortaduras de Dedekind. Para nuestros propositos basta unadefinicion menos formal y mas intuitiva: un numero real es simplemente un lımite de ra­cionales. Las propiedades de la suma y producto de racionales se traspasan facilmente a losreales usando las propiedades del lımite de sucesiones. De esta manera obtenemos nuestrocampo principal (R,+, •) . El campo de los reales se destaca porque es ordenado (siemprepodemos decidir si un numero real es mayor, menor o igual a cero) y porque es cerrado (ellımite de reales si existe es un real). Por otro lado, no es un factor a despreciar el hecho deque el espacio en que vivimos es (o al menos nos parece que es) R3.

Ejercicio 16 Pruebe que la longitud de un segmento de recta es un numero real. [126]

Complejos

Para lograr que todos los polinomios tengan raices inven­(a+ bi) + (a0 + b0i) =

(a+ a0) + (b+ b0) i

tamos el imaginario i =√−1 y definimos que un numero

complejo es algo de la forma a + bi donde a, b ∈ R. Lasuma y el producto de complejos se definen por las formulasen los recuadros a la derecha y abajo a la izquierda.

Page 16: Algebra Lineal

10 Capıtulo 1. Campos

Las propiedades de la suma y el producto se desprenden(a+ bi) × (a0 + b0i) =

(aa0 − bb0) + (ab0 + a0b) i

inmediatamente de sus definiciones y es facil comprobarque (C,+, •) es un campo. La principal propiedad que haceque para muchas cosas el campoC sea el mas simple es que

el (a diferencia deR) es algebraicamente cerrado, o sea que todo polinomio de gradon > 0con coeficientes en complejos tiene n raices complejas.

1.3 Morfismos

En esta seccion estudiaremos las funciones entre conjuntos con operaciones binarias.

Morfismos de grupos

Sean y • operaciones binarias definidas en los conjuntos A y B respectivamente. Unafuncion f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de A secumple que f (a1 a2) = f (a1) • f (a2).

Todo morfismo conserva las propiedades fundamentales de las operacionesbinarias. Mas precisamente, si f : A → B es un morfismo entonces,

1. • es una operacion binaria dentro de la imagen de f.2. Si es conmutativa entonces • es conmutativa en la imagen de f.3. Si es asociativa entonces • es asociativa en la imagen de f.4. Si e es neutro de entonces f (e) es neutro de • en la imagen de f.5. Si a0 es inverso de a en A entonces f (a0) es inverso de f (a) en B.

Prueba. Sean b1, b2 y b3 elementos cualesquiera en la imagen de f. Existen a1, a2 y a3 enA tales que f (ai) = bi para i ∈ 1, 2, 3. Como f es un morfismo, obtenemos la igualdad

b1 • b2 = f (a1) • f (a2) = f (a1 a2) (*)que prueba la primera afirmacion. Si es conmutativa entonces, usando (*) obtenemos

b1 • b2 = f (a1 a2) = f (a2 a1) = b2 • b1por lo que • es tambien conmutativa. Si es asociativa entonces, usando (*) obtenemos

(b1 • b2) • b3 = f (a1 a2) • f (a3) = f ((a1 a2) a3) == f (a1 (a2 a3)) = f (a1) • f (a2 a3) = b1 • (b2 • b3)

y por lo tanto • es asociativa en la imagen de f. Si e es neutro de la operacion entonces,b1 • f (e) = f (a1) • f (e) = f (a1 e) = f (a1) = b1f (e) • b1 = f (e) • f (a1) = f (e a1) = f (a1) = b1

por lo que f (e) es el neutro de • en la imagen de f. Sea a0 el inverso de a en A entonces,f (a) • f (a0) = f (a a0) = f (e)f (a0) • f (a) = f (a0 a) = f (e)

de lo que concluimos que f (a0) es el inverso de f (a).

Page 17: Algebra Lineal

11Seccion 1.3 Morfismos

Ejercicio 17 Justifique todas las igualdades utilizadas en la prueba de 1.1.

¿Y porque siempre dentro de la imagen de f y no en todo B? La respuesta es que lo unicoque sabemos de B esta dado por el morfismo. Aquellos elementos de B que no tienen pre­imagen no los podemos enlazar con los de A y por lo tanto no podemos decir nada de ellos.De aquı en lo adelante a la imagen de cualquier funcion f (y en particular de un morfismo)la denotaremos por Im f.

Si (A, ) es un grupo entonces (Im f, •) es un grupo.

Prueba. Por 1.1.1 • es una operacion binaria en Im f. Por 1.1.3 esta operacion es asociativa.Por 1.1.4 esta operacion tiene elemento neutro. Por 1.1.5 cada elemento b = f (a) ∈ Im ftiene su inverso f (a0) donde a0 es el inverso de a enA. Esto completa la prueba de todos losaxiomas de grupo.

Recordemos que si f : A→ B es una funcion entonces al conjuntoA se le llama dominiode f y al conjuntoB codominio de f. Si el dominio y el codominio de un morfismo son gruposentonces se dice que este es un morfismo de grupos.

Ejercicio 18 Construya un morfismo inyectivo de (R,+) en (R, •). ¿Cual es su imagen?

Morfismos de anillos

¿Y que pasa con la distributividad? ¿Tambien se conserva? El primer problema que te­nemos que resolver es que en la distributividad estan involucradas dos operaciones. Sean(A,+, •) y (B,+, •) dos conjuntos cada uno con dos operaciones binarias. Observese queestas son cuatro operaciones distintas pero hemos usado estas notaciones porque el trabajarcon cuatro sımbolos diferentes ya es demasiada confusion.

Una funcion f : A→ B se le llama morfismo si para cualesquiera a1 y a2 elementos deA se cumple que f (a1 + a2) = f (a1)+ f (a2) y f (a1 • a2) = f (a1) • f (a2). Recalquemosque el “y” quiere decir que se tienen que cumplir las dos propiedades. O sea, si hay dosoperaciones entonces, se requiere que la funcion sea morfismo para cada una de ellas.

Si • es distributiva con + en A entonces,• es distributiva con + en la imagen de f.

Prueba. Sean x, y, z ∈ A tales que f (x) = a, f (y) = b y f (z) = c. Tenemosa • (b+ c) = f (x) • (f (y) + f (z)) = f (x) • f (y+ z) = f (x • (y+ z)) =

= f (x • y+ x • z) = f (x • y) + f (x • z) = f (x) • f (y) + f (x) • f (z) = a • b+ a • cy esto prueba la tesis.

Page 18: Algebra Lineal

12 Capıtulo 1. Campos

Si el dominio y el codominio de un morfismo son anillos entonces se dice que este es unmorfismo de anillos. Si el dominio y el codominio de un morfismo son campos entonces sedice que este es un morfismo de campos.

Ejercicio 19 Demuestre que si (A,+, •) es un anillo y f : A→ B es un morfismo entonces,(Im f,+, •) es un anillo. Demuestre que lo mismo ocurre para los campos.

Ejercicio 20 Pruebe que si f : A→ B es un morfismo de anillos y A es un campo entoncesf es inyectivo. En particular todo morfismo de campos es inyectivo. [126]

Isomorfismos

A los morfismos biyectivos se les llama isomorfismos. Esto se aplica tanto para con­juntos con una como tambien con dos operaciones binarias. Ası que tenemos isomorfismosde grupos, de anillos y de campos. Para cada isomorfismo f existe una funcion inversa f−1.¿Cuando sera f−1 un morfismo? La respuesta es que siempre.

La inversa de un isomorfismo es un isomorfismo.

Prueba. Sea f : (A, )→ (B, •) un isomorfismo. Sean b1, b2 cualesquiera elementos de B.Denotemos a1 = f−1 (b1) y a2 = f−1 (b2). Tenemosf−1 (b1 • b2) = f−1 (f (a1) • f (a2)) = f−1 (f (a1 a2)) = a1 a2 = f−1 (b1) f−1 (b2)

que es lo que se requerıa demostrar. Si el isomorfismo involucra dos operaciones binariasentonces el mismo argumento anterior, aplicado a las dos operaciones, nos da la prueba dela tesis.

Ahora podemos aplicar 1.1 en los dos sentidos. Si f : (A, )→ (B, •) es un isomorfismoentonces de que • es conmutativa implica que es conmutativa y en conclusion es conmu­tativa si y solo si • es conmutativa. Lo mismo ocurre con la asociatividad, con la existenciade neutros e inversos y para el caso de dos operaciones con la distributividad. O sea que tiene exactamente las mismas propiedades de •.

Pero no solo son operaciones parecidas sino que son en cierto sentido la misma. Paraconvencernos de esto supongamos que conocemos la operacion y conocemos el isomorfis­mo f pero no sabemos nada de la operacion •. ¿Podremos calcular b1 • b2? La respuesta essi, lo podemos calcular por la identidad b1 • b2 = f

¡f−1 (b1) f−1 (b2)

¢. Recıprocamen­

te, se define de forma unica por la operacion • y el isomorfismo f mediante la identidada1 • a2 = f−1 (f (a1) f (a2)). En conclusion ambas operaciones se definen una a otra.

Para que el lector comprenda mejor eso de que y u v

u u v

v v u

• 1 −1

1 1 −1

−1 −1 1

• son la misma operacion veamos un ejemplo. Sea A elconjunto de letras u, v y B el conjunto de los numeros1,−1. Definamos las operaciones y • mediante lastablas del recuadro a la derecha.

Page 19: Algebra Lineal

13Seccion 1.3 Morfismos

El lector debe observar que la segunda tabla es la tabla usual de multiplicacion de enteros.Ademas, para obtener la segunda tabla de la primera lo unico que necesitamos es cambiar por • , u por 1 y v por −1. Esto lo que quiere decir, es que la funcion u 7→ 1 , v 7→ −1 esun isomorfismo de (A, ) en (B, •). El lector puede ver que ambas tablas son en esencia lamisma, solamente que las notaciones para los elementos y la operacion estan cambiadas.

Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entonces sedice que ellos son isomorfos. Etimologicamente, la palabra “isomorfo” significa que “tie­nen la misma forma”. En forma intuitiva, que ellos sean isomorfos quiere decir que los dosson iguales con la salvedad de que podemos cambiar las notaciones de los elementos y lasoperaciones.

Ciertos tipos de morfismos tienen nombres especiales. A los morfismos sobreyectivos seles llama epimorfismos, a los injectivos se les llama monomorfismos. A los morfismos deun conjunto en si mismo se les llama endomorfismos y a los endomorfismos biyectivos seles llama automorfismos.

Composicion de morfismos

Sean A, B y C tres conjuntos y f : A → B , g : B → C dos funciones. A la funciong f : A→ C definida por (g f) (a) = g (f (a)) se le llama la composicion de f con g. Apartir de ahora el sımbolo solo lo utilizaremos para denotar la composicion de funciones.Observese el orden en que escribimos las funciones ya que la composicion de funciones noes conmutativa.

La composicion de funciones es asociativa.

Prueba. Sean f : A → B , g : B → C y h : C → D tres funciones. Por definicion decomposicion para cualquier a ∈ A tenemos(h (g f)) (a) = h ((g f) (a)) = h (g (f (a))) = (h g) (f (a)) = ((h g) f) (a)

que es lo que se querıa probar

Ahora, supongamos que en A, B y C hay definidas operaciones binarias. Entonces f, g yg f pueden ser morfismos o no. Sin embargo, si f y g lo son entonces f g tambien lo es.

Las composiciones de morfismos son morfismos.

Prueba. Denotemos las operaciones en A,B y C con el mismo sımbolo •. Como f y gson morfismos tenemos (g f) (a • b) = g (f (a • b)) = g (f (a) • f (b)) = g (f (a)) •g (f (b)) = (g f) (a) • (g f) (b) que es lo que se necesitaba probar.

Ejercicio 21 Pruebe que el conjunto de todos los automorfismos de un conjunto con una odos operaciones binarias es un grupo con respecto a la composicion de funciones.

Page 20: Algebra Lineal

14 Capıtulo 1. Campos

1.4 Campos de restos

Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muyconocidos por el lector. Es imprescindible, para dar una intuicion saludable de lo que es uncampo, introducir otros que no sean tan usuales. En esta seccion presentaremos ciertos cam­pos que tienen un numero finito de elementos. Para construirlos, usaremos las propiedadesde los morfismos de la seccion anterior.

El anillo de los enteros modulo n

Sea n un numero natural mayor que 1. Para un entero a laa¢ b = (a+ b)modna¡ b = (ab)modn

notacion amodn significa el resto de la division de a entre n.Osea, el menor natural k tal que existe un entero t para los cualesa = k + tn. Por definicion amodn ∈ Zn = 0, 1, ..., n − 1

por lo que en Zn hay naturalmente definidas dos operaciones binarias como se muestra en elrecuadro.

Ejercicio 22 Construya las tablas de sumar y multiplicar en Z2, Z3 y Z4.

(Zn,¢,¡) es un anillo conmutativo.

Prueba. Probemos que la funcion f : (Z,+, •) → (Zn,¢,¡) dada por f (a) = amodnes un morfismo de anillos. Para cualesquiera a, b ∈ Z por definicion de f existen enteroso, p, q tales que a = f (a) + on, b = f (b) + pn y a+ b = f (a+ b) + qn.

Tenemos que f (a)+f (b) = a+b−(o+ p)n = f (a+ b)+(q− o− p)n y por lo tantof (a+ b) es el resto de la division de f (a)+ f (b) entre n. O sea, f (a+ b) = f (a)¢ f (b).Por otro lado tambien existe otro entero r tal que ab = f (ab) + rn y de aquı f (a) f (b) =(a− on) (b− pn) = ab+(nop− bo− ap)n = f (ab)+ (r+ nop− bo− ap)n. Lue­go, f (ab) es el resto de la division de f (a) f (b) entre n o sea, f (ab) = f (a)¡ f (b).

Como f es sobreyectiva, (Z,+, •) es un anillo conmutativo y los morfismos preservanlas propiedades de las operaciones binarias, concluimos que (Zn,¢,¡) es tambien un anilloconmutativo.

Hemos denotado la suma y el producto en Zn con los sımbolos extranos ¢ y¡. El objetivo de esto fue el asegurarnos que en la demostracion del resultadoanterior el lector no se confundiera con la suma y el producto habitual de nume­

ros enteros. De ahora en lo adelante no haremos mas esto. La suma en Zn se denotara con elsımbolo + y el producto, con la ausencia de sımbolo alguno, o a lo mas, con un punto. Parapoder hacer esto es necesario que el lector comprenda (muchas veces solo del contexto) enque sentido estamos utilizando estas notaciones. Ası por ejemplo, 2+ 3 = 5 si la suma es lahabitual de enteros o es la de Z11 pero 2+ 3 = 1 si la suma es la de Z4.

Page 21: Algebra Lineal

15Seccion 1.4 Campos de restos

Dominios de integridad

Despues de saber que (Zn,+, ·) es un anillo conmutativo, lo natural es preguntarnos sieste es un campo, ya que lo unico que le falta a un anillo conmutativo para ser campo, es laexistencia de inversos para el producto. Veamos por ejemplo el caso de Z6. Aquı tenemos2 ·3 = 0. Que raro, el producto de dos numeros diferentes de cero es igual a cero. ¿Es posibleeso en un campo? Veremos que no.

Un anillo conmutativo se le llama dominio de integridad si el producto de dos elementoses diferente de cero entonces ellos son los dos diferentes de cero. Sabemos que Z, Q, R y Cson dominios de integridad. Tambien ya vimos que Z6 no es dominio de integridad.

Todo campo es un dominio de integridad.

Prueba. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad por elinverso multiplicativo de p obtenemos 0 = p−10 = p−1pq = q. Luego, q = 0.

Luego, Z6 no es un campo. Este ejemplo se generaliza facilmente. Sea n = pq unadescomposicion en factores no triviales (ambos diferentes a 1) de n. Sabemos que p y qestan en Zn y que pq = n = 0modn. Luego, si n es un numero compuesto (no primo)entonces, Zn no es un dominio de integridad y por lo tanto no es un campo.

El campo de los enteros modulo p

Y ¿que pasa cuando p es primo?

Zp es un dominio de integridad.

Prueba. Sean x, y ∈ 1, . . . , p− 1 . Si xy = 0 en Zp entonces xy = 0modp. Luego, en Ztenemos que xy = kp. Como p es primo entonces, p divide a x o y pero esto no puede serya que ambos son menores que p.

Este resultado no es suficiente para probar que Zp es un campo ya que hay dominios deintegridad que no son campos (por ejemplo Z). Nos hace falta el siguiente resultado.

Todo dominio de integridad finito es un campo.

Prueba. Sea A un dominio de integridad finito. Para ver que A es un campo solo hay quedemostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrario no nulo deA. Denotemos por fa la funcion A 3 x 7→ ax ∈ A. Esta funcion es inyectiva ya que

(ax = ay)⇒ (a (x− y) = 0)⇒ (x− y = 0)⇒ x = y

Como fa es una funcion inyectiva de un conjunto finito en si mismo es tambien sobreyectiva.Luego tiene que existir b tal que fa (b) = ab = 1. Esto demuestra que a tiene inverso.

Page 22: Algebra Lineal

16 Capıtulo 1. Campos

Como Zp es un dominio de integridad finito de este ultimo resultado concluimos inme­diatamente que Zp es un campo si y solo si p es un numero primo.

Los campos Zp son los primeros ejemplos de campos que tienen un nume­ro finito de elementos. A los campos finitos se les lama campos de Galoisen honor al matematico frances Evariste Galois (1811­1832). Al resolver elproblema de encontrar cuales ecuaciones polinomiales son solubles en radi­cales y cuales no, Galois de facto invento la Teorıa de Grupos. El murio alos 20 anos en un duelo provocado por asuntos amorosos y/o polıticos. Elapellido Galois se pronuncia en espanol como “galua”

Ejercicio 23 ¿Cual es el numero mınimo de elementos que puede tener un campo? [126]Ejercicio 24 Halle los inversos de los elementos no nulos de Z5. [127]Ejercicio 25 Demuestre que (Zp\0, •) es isomorfo al grupo aditivo (Zp−1,+). [127]

Ejercicio 26 Demuestre que Z211 con las operaciones (a, b) + (a0, b0) = (a+ a0, b+ b0) y(a, b) (a0, b0) = (aa0 + 7bb0, ab0 + a0b) es un campo de 121 elementos.

1.5 Campos primos. Caracterıstica

En esta seccion estudiaremos los campos mas pequenos posibles. Veremos que todo cam­po contiene a Q o contiene a Zp para cierto numero primo p.

Subcampos

Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K que escampo para las mismas operaciones. Si L es un subcampo de K entonces ∀a, b ∈ L setienen que cumplir las siguientes propiedades

1. a+ b ∈ L, −a ∈ L, (L es un subgrupo aditivo)2. ab ∈ L, a−1 ∈ L, (L\0 es un subgrupo multiplicativo)

Recıprocamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones de suma,opuesto, producto e inverso estan correctamente definidas dentro de L y el tiene que contenera 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K, con mas razon secumplen dentro de L. Esto indica que para comprobar si L es un subcampo basta comprobarlas propiedades 1 y 2. El ejemplo mas sencillo de esto es Q, que es subcampo R, que a suvez es subcampo de C.

El concepto de subcampo incluye las operaciones. Si por un lado podemos consi­derar a Zp = 0, 1, ..., p − 1 como subconjunto de Q, por el otro, Zp NO es unsubcampo de Q (ya que por ejemplo 2 (p− 1) = p− 2 en Zp lo que no es ciertoen Q). De la misma manera, ningun Zp es subcampo de Zq para p 6= q.

Page 23: Algebra Lineal

17Seccion 1.5 Campos primos. Caracterıstica

Campos primos

Todo campo tiene como subcampo a el mismo. Los subcampos que no son todo el campose les llama subcampos propios. A los campos que no tienen ningun subcampo propio seles llama campos primos (por analogıa con los numeros primos que son los naturales queno tienen divisores propios). En cierto sentido los campos primos son los mas sencillos ypodemos decir cuales todos ellos.

Teorema de Clasificacion de Campos Primos

Un campo primo o es Q o es Zp para cierto numero primo p.Un campo no puede contener dos subcampos primos diferentes.

Prueba. Sea un K campo. Para un numero natural n denotemos por n =

n vecesz | 1+ ...+ 1 donde

1 es el neutro multiplicativo de K. Observese que 0 = 0. Obviamente, n es un elemento delcampo. Denotemos por P = n ∈ K | n ∈ N . Hay dos posibilidades excluyentes

1. La aplicacion n 7→ n es una biyeccion de en N en P.2. Existen dos naturales distintos n ym tales que n =m.

En el primer caso K contiene a los naturales. Como K es un campo tambien tiene quecontener a los opuestos de los naturales, o sea a los enteros. Por la misma razon, K tieneque contener a los inversos de los enteros con lo que se prueba que los racionales son unsubcampo de K. Esto tambien prueba que Q es un campo primo.

En el segundo caso, sea p el natural mas pequeno para el cual existe n < p tal quen = p.Tenemos n = p⇒ p−n = p− n = 0. Si n > 0 entonces, p−n < p y ademas p− n = 0lo que contradice la minimalidad de p. Luego, n = 0 y por lo tanto p = 0.

Sea ahora x > p. Como sabemos dividir los enteros con resto entonces, existen naturalesa, k tales que x = a+ kp y a < p. De aquı

x = a+ kp = a+ kp = a+

kp vecesz | 1+ · · ·+ 1| z

p veces

+ · · ·+ 1+ · · ·+ 1| z p veces

= a+

k vecesz | 0+ · · ·+ 0 = a

lo que muestra que P es el anillo Zp de los restos modulo p. Si p no es primo entonces, enZp ⊂ K hay dos elementos a, b no cero tales que ab = 0. Como en un campo esto no esposible entonces, deducimos que p es primo. Luego, Zp es un subcampo deK. Esto tambienprueba que Zp es un campo primo.

Hemos probado la primera afirmacion del teorema o sea, todo campo contiene a Q ocontiene a cierto Zp. Para ver la validez de la segunda, observemos que el conjunto P nosolo esta contenido en K sino que tambien esta contenido en cualquier subcampo de K.En el primer caso, deducimos que Q esta contenido en cualquier subcampo de K y comoQ * Zp entonces, Q es el unico subcampo primo de K. En el segundo, deducimos queZp esta contenido en cualquier subcampo de K y como Zp * Q entonces, Zp es el unicosubcampo primo de K.

Page 24: Algebra Lineal

18 Capıtulo 1. Campos

Caracterıstica

Por el teorema anterior cualquier campo o contiene a Q o contiene a Zp. Se dice que uncampo es de caracterıstica 0 si este contiene aQ. Se dice que un campo es de caracterısticap si este contiene a Zp. La caracterıstica de un campo es un numero primo o es cero. Lapropiedad fundamental de la caracterıstica de un campo es la siguiente:

Si K es un campo de caracterıstica tentonces, ta = 0 para cualquier a ∈ K.

Prueba. Si t = 0 la afirmacion es trivial. Si t es primo entonces, por la prueba del Teoremade caracterizacion de campos primos, tenemos t1 = 0. Luego, ta = t1a = 0a = 0.

Ejercicio 27 ¿Contradice o no 1.12 que todo campo es un dominio de integridad? [128]Ejercicio 28 ¿Es cierto o no que en todo campo (a = −a)⇒ (a = 0)? [128]

1.6 Aritmetica de campos

Los campos se comportan en la mayorıa de las cosas importantes como los numerosreales. Por mas que tratemos construir un campo raro pero muy raro (lo que es posible) nolograremos que se dejen de cumplir todas las propiedades de la aritmetica las cuales nosson familiares desde temprana edad. Pasemos a describir en toda su generalidad algunasconsecuencias simples y otras un poco mas complicadas de los axiomas de campo lo que nosconvencera de lo afirmado.

Multiplos y exponentes enteros

En todo campo para cualquier numero entero n y cualquier elemento del campo a seusan las siguientes notaciones

na =

⎧⎪⎨⎪⎩n vecesz |

a+ a+ ...+ a si n > 00 si n = 0

(−n) (−a) si n < 0

an =

⎧⎪⎨⎪⎩n vecesz | aa...a si n > 01 si n = 01

a−nsi n < 0

y se cumplen las propriedades usuales: (n+m)a = na+ma y an+m = anam .

Asociatividad general

Recordemos nuevamente el uso del sımbolo de sumatoria Σ. Si A es un conjuntonXi=1

aifinito de elementos del campo entonces podemos escribir la expresion en el re­cuadro a la izquierda para expresar que queremos sumar todos los elementos delconjunto A = a1, ..., an.

Page 25: Algebra Lineal

19Seccion 1.6 Aritmetica de campos

La asociatividad de la operacion de suma nos dice que esta expresion tiene sentido unicoya que no es necesario explicitar las sumas hay que realizar primero y cuales despues.

En realidad incluso esta notacion es redundante, mas consisa es esta otra nota­ Xa∈A

acion en el recuadro a la derecha que podemos usar gracias a la conmutatividad dela suma. O sea no importa si en la suma a1 esta delante de a2 o al revez. Solo esnecesario especificar cual es el conjunto A de elementos que se estan sumando.

Como tenemos que el producto de elementos de un campo es tambiennYi=1

ai =Ya∈A

aasociativo y conmutativo podemos usar las expresiones equivalentes dela izquierda para denotar el producto de todos los elementos del conjuntoA = a1, ..., an .

Distributividad general

Mucho mas difıcil es dar una forma general de la ley distributiva. Usando las leyes deÃXa∈A

a

!ÃXb∈B

b

!=Xa∈A

Xb∈B

ab

los campos obtenemos (a+ b) (c+ d) = a (c+ d)+b (c+ d) = ac+ad+bc+bd y el lector podra con­vencerse facilmente haciendo el calculo para conjuntospequenos A y B que en general se cumple la formulade la derecha.

Mas general, para muchos factores tenemosÃXa∈A

a

!ÃXb∈B

b

!· · ·ÃXc∈C

c

!=Xa∈A

Xb∈B

...Xc∈C

ab · · · c

A esta igualdad la llamaremos forma general de la ley distributiva y tendremos muchasocaciones en que la usaremos.

Formula multinomial

Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos seaniguales obtenemos la siguiente formula:ÃX

a∈Aa

!n=Xa1∈A

...Xan∈A

a1 · · ·an (*)

Esta formula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, el pro­ducto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad tiene(gracias a la asociatividad y conmutatividad del producto) una manera mucho mas sencillade expresarse como a4b3c3. Para arreglar este defecto, demosle nombres a los elementos deA y pongamos A = x1, ..., xm. Ahora si n1, ..., nm son naturales entonces, un monomioxn11 · · · xnmm aparece como sumando a la derecha en la formula (*) si y solo si

Pni = n (ya

que los sumandos en (*)son productos den elementos deA). Supongamos quePni = n. Si

todos los ni son uno o cero entonces en (*) hay n! sumandos iguales al monomio xn11 · · · xnmm(ya que podemos ordenarlos de ese numero de maneras). Si digamos n7 es mayor que 1 en­

Page 26: Algebra Lineal

20 Capıtulo 1. Campos

tonces tenemos que dividir por n7! ya que al permutar x7...x7 no obtenemos nuevos suman­dos en (*). Lo mismo sucede con los otros ni. Como por definicion 0! = 1! = 1, finalmenteobtenemos la siguiente expresion conocida como formula multinomial.Ã

mXi=1

xi

!n=X n!

n1!...nm!xn11 · · · xnmm

donde la suma a la derecha de la igualdad recorre todas las soluciones en numeros naturalesde la ecuacion

Pni = n. En el caso particular m = 2, haciendo los cambios de variables

n = n1 y k = n1 − n2 obtenemos

(x+ y)n =X

n1+n2=n

n!

n1!n2!xn1yn2 =

nXk=0

n!

k! (n− k) !xkyn−k

que es la famosa formula del binomio de Newton.Si bien las formulas que hemos demostrado parecen ser complicadaslos argumentos que llevan a ellas son muy sencillos. Es importanteque el estudiante que desee estudiar el algebra lineal a profundidadse familiarize bien con estos argumentos ya que las formas multili­neales y en particular los determinantes son muy parecidos a la partederecha de la igualdad (*).

Sir Isaac Newton (Inglaterra 1643­1727). Probablemente el cien­tıfico mas renombrado de todos los tiempos. Fundador de la mecani­ca, la optica y el calculo diferencial. Sus tres leyes de la mecanicafundaron la base de la ingenierıa que llevo a la revolucion industrial.

La expansion de ΠΣαij

Ahora deduciremos otra consecuencia de la forma general de la ley distri­ Yi∈N

Xj∈N

αijbutiva que usaremos mucho mas adelante. Supongamos queN es un conjuntofinito de ındices y que para cada pareja de ındices (i, j) tenemos un elementodel campo K que denotaremos por αij. Nuestro objetivo es usar la ley distri­butiva para expresar el elemento del campo del recuadro a la derecha como una suma deproductos.

Para esto lo mas comodo es pensar que el conjunto N es 1, . . . , n y expresar la formageneral de la ley distributiva en nuestro caso de la siguiente maneraÃX

j1∈Nα1j1

!· · ·ÃXjn∈N

αnjn

!=Xj1∈N

...Xjn∈N

α1j1 · · ·α1jn =XY

i∈Nαiji

donde la suma mas a la derecha en esta igualdad recorre todos los elementos (j1, . . . , jn)del producto cartesiano N × · · · × N de n copias de N o sea, Nn. Otra manera de pensara (j1, . . . , jn) es que tenemos una funcion f : N = 1, . . . , n 3 i 7→ ji = f (i) ∈ N y ennuestra suma tenemos que recorrer todas estas posibles funciones o sea, el conjunto NN de

Page 27: Algebra Lineal

21Seccion 1.7 Polinomios sobre campos

todas las funciones deN enN. Luego, en estas notaciones finalmente obtenemosYi∈N

Xj∈N

αij =Xf∈NN

Yi∈N

αif(i)

que es una formula que ya no depende de cual es el conjuntoN.

Debemos recalcar una vez mas que todo lo dicho en esta seccion es valido para cual­quier campo, sea este R, C, Q, Zp o cualquier otro campo que aun no conoscamos. Esta esla ventaja intrınseca de la abstraccion. No tenemos que demostrar el teorema de Pitagoraspara triangulos de acero, madera, etc. Estas propiedades no tienen nada que ver con que elcuadrado de la hipotenusa sea igual a la suma de los cuadrados de los catetos. De la mismamanera el binomio de Newton no tiene nada que ver con que si los numeros son reales ocomplejos u otros. Solo basta que nuestros numeros formen un campo.

Un lector atento, podrıa observar que en las pruebas de todas las formulas en ningun momento usa­mos la existencia de inversos en el campo. Luego, estas son validas en cualquier anillo conmutativo.A diferencia de las matematicas elementales en matematicas superiores, por aritmetica se entiende

el estudio de las propiedades de divisibilidad en anillos. En este sentido, la aritmetica de campos es trivial yaque todo elemento se divide entre cualquier otro no nulo.

1.7 Polinomios sobre campos

Hay muchas maneras de ver los polinomios. La manera mas sencilla de ver­nXi=0

aixi

los es que un polinomio de grado n en la literal x es una expresion formal deltipo en el recuadro a la derecha donde los coeficientes a0, ..., an son elementosde cierto campoK y an 6= 0. Al coeficiente an se le llama coeficiente principaldel polinomio.

Suma y producto de polinomios

Aunque el lector seguramente conoce las definiciones de suma y producto de polino­mios, nos parece apropiado recordar el porque de las mismas. Si interpretamos a x como unelemento del campo K entonces,

Paix

i tambien es un elemento del campo K. Esto quieredecir que un polinomio define una funcion K 3 x 7→P

aixi ∈ K y en esta interpretacion x

no es una literal sino una variable. Siendo esta interpretacion de los polinomios fundamental,necesitamos que la suma y producto de polinomios concuerde con la definicion de suma yproducto de funciones (f+ g) (x) = f (x) + g (x), (fg) (x) = f (x)g (x). Por esto, tenemos

nXi=0

aixi +

nXi=0

bixi =

nXi=0

¡aix

i + bixi¢=

nXi=0

(ai + bi) xi

donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por distri­butividad. O sea, interpretamos al polinomio como la imagen por la funcion de evaluacionde la variable x que toma sus valores en el campo. Para el producto, usando la forma general

Page 28: Algebra Lineal

22 Capıtulo 1. Campos

de la ley distributiva tenemosÃnXi=0

aixi

!ÃmXj=0

bjxj

!=

nXi=0

mXj=0

aibjxi+j =

n+mXk=0

⎛⎝ mın(n,k)Xi=max(0,k−m)

aibk−i

⎞⎠xkdonde la segunda igualdad se obtiene haciendo el cambio de variable k = i+ j y usando aso­ciatividad, conmutatividad y distributividad. Se puede saber sumar y multiplicar polinomiossin saberse estas formulas. Lo importante es saber aplicar sistematicamente asociatividad,conmutatividad y distributividad para obtener el resultado deseado. El conjunto de todos lospolinomios sobre un campo arbitrario K forma un anillo conmutativo (para ser campo solole falta la existencia de inversos multiplicativos). A este anillo se lo denota por K [x].

Division de polinomios

Division con Resto de Polinomios

Sean p y q dos polinomios. Existen polinomios c y r tales que1. p = cq+ r

2. El grado de r es estrictamente menor que el grado de q.

Prueba. Sea p =Paix

i un polinomio de grado n y q =Pbix

i un polinomio de gradom. Si n < m entonces poniendo c = 0 y r = p terminamos.

Supongamos m ≤ n. Entonces, sacando cuentas nos podemos convencer

r1 =n−1Pi=0

aixi − c1

m−1Pi=0

bixi

c1 =xn−man

bm

de que p = c1q + r1 donde c1 y r1 son los polinomios en los recuadros.El grado de r1 es menor que el grado dep. Si el grado de r1 es menor que el grado

de q entonces ya terminamos, si no entonces, haciendo losmismos calculos podemos escribir r1 = c2q + r2 y vamosdisminuyendo el grado de ri hasta que este sea menor que el grado de q.

Luego, hay un i tal que p = (c1 + ...+ ci)q+ ri y el grado de ri es estrictamente menorque el grado de q. Al polinomio c = c1 + ... + ci se le llama cociente de p entre q; alpolinomio r = ri se le llama resto de p entre q.

Factores y raices

Sean p y q dos polinomios. Si existe un polinomio c tal que p = cq entonces se dice queq divide a p, o que q es un divisor de p, o que p es un multiplo de q. Obviamente, cualquierpolinomio de grado cero divide a cualquier otro polinomio (en un campo hay inversos).Diremos que q es un factor de p si q divide a p y el grado de q es al menos uno.

Sea p (x) =Pn

i=0 aixi un polinomio en K [x] . Sea b un elemento arbitrario del cam­

po. ObviamentePn

i=0 aibi es tambien un elemento del campo ya que la suma, la multi­

plicacion y las potencias estan bien definidas en un campo arbitrario. Es natural denotarp (b) =

Pn

i=0 aibi. Esto nos da una funcion K 3 b 7→ p (b) ∈ K llamada la funcion de

Page 29: Algebra Lineal

23Seccion 1.7 Polinomios sobre campos

evaluacion del polinomio p. Los ceros de esta funcion son las raices del polinomio p, o season los elementos del campo b tales que p (b) = 0. Al conjunto de todas las raices de p lollamaremos nucleo de p y lo denotaremos por Kerp (en ingles “nucleo” es “kernel”). Lasraices y los factores de un polinomio estan enlazados por el siguiente resultado:

Para que b sea una raız de p es necesarioy suficiente que (x− b) sea un factor de p.

Prueba. Dividamos con resto p entre (x− b). Sean c y r tales que p (x) = c (x) (x− b)+r.Como (x− b) es de grado uno r tiene que ser de grado cero. Evaluando en b obtenemosp (b) = c (b) (b− b) + r = r. Luego, si b es raız entonces, r = 0 y recıprocamente.

Sea b una raız del polinomio p. Si n ≥ 1 es el mayor natural tal que (x− b)n es factorde p entonces a n se le llama multiplicidad de la raız b. Es muy incomodo trabajar con elconcepto de multiplicidad. Por ejemplo, tomemos la afirmacion: “Si b1 y b2 son dos raicesdel polinomio p entonces (x− b1) (x− b2) es un factor de p”. Esta afirmacion es cierta nosolo para cuando b1 6= b2 sino tambien cuando son iguales pero la raız tiene multiplicidadmayor que 2.

Es mucho mas comodo pensar que si una raız tiene multiplicidad n entonceshay n “diferentes” raices todas del mismo “valor”. Este abuso del lenguajesera comun en este libro y a partir de ahora no tendremos necesidad de usar

continuamente el concepto de multiplicidad. Le dejamos al lector interesado la desagradabletarea, de ajustar los hechos expuestos a un lenguaje mas riguroso.

Ahora el nucleo de un polinomio no es exactamente un conjunto sino una “coleccion” deelementos del campo en la cual puede haber elementos repetidos. Ası por ejemplo tenemosKer

¡x3 − 6x2 + 9x− 4

¢= 1, 1, 4. Ajustada nuestra terminologıa, podemos establecer una

importante consecuencia del resultado anterior.

Un polinomio de grado n tiene a lo mas n raices.

Prueba. Si el polinomio p tiene como raices a b1, . . . , bn+1 entonces p tiene, por 1.15,como factor a

Qn+1i=1 (x− bi) que es un polinomio de grado n + 1. Esto contradice que p

tiene grado n.

Ideales de polinomios

Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propiedades:

1. Si p, q ∈ I entonces p+ q ∈ I,2. Si p ∈ I entonces para cualquier polinomio r ∈ K [x] tenemos que rp ∈ I.

En otras palabras, la suma es una operacion binaria dentro del ideal y cualquier multiplode un elemento del ideal tambien esta en el ideal. Los ideales mas sencillos son los que

Page 30: Algebra Lineal

24 Capıtulo 1. Campos

se forman tomando todos los multiplos de un polinomio fijo p. Si qp y q0p son dos talesmultiplos entonces qp + q0p = (q+ q0)p tambien es un multiplo de p. Esto demuestrala propiedad 1. La propiedad 2 se cumple obviamente. Estos ideales se les llama idealesprincipales. Lo asombroso es que todo ideal es ası.

Todo ideal de polinomios es principal.

Prueba. Sea I un ideal. Sea ahoram un polinomio no nulo de grado mınimo tal quem ∈ Iy denotemos por el conjunto de todos los multiplo dem o sea, Im = αm | α ∈ K [x]. Porla propiedad 1 se tiene que Im ⊆ I. Probemos que Im = I. Efectivamente, si g ∈ I entoncesdividiendo g entrem obtenemos polinomios α, r tales que g = αm+ r donde el grado de res menor que el grado dem o r es nulo. Tenemos r = g − αm y por las propiedades 1 y 2esto significa que r ∈ I. De la minimalidad del grado dem obtenemos r = 0. y por lo tantog ∈ Im. Esto prueba que Im = I o sea, que I es principal.

Teorema de Bezout

Sean p y q dos polinomios sin factores comunes.Existen polinomios α y β tales que αp+βq = 1.

Prueba. Denotemos por Ipq = αp+ βq | α,β ∈ K [x]. Probemos que Ipq es un ideal.Veamos primero que la suma de elementos de Ipq esta en Ipq. Efectivamente,

(αp+ βq) + (α0p+ β0q) = (α+ α0)p+ (β+ β0)q = α00p+ β00q

donde α00 = (α+ α0) y β00 = (β+ β0). Ahora, comprobemos que los multiplos de loselementos de Ipq estan en Ipq. Tenemos, γ (αp+ βq) = γαp + γβq = α0p + β0q dondeα0 = γα y β0 = γβ y con esto concluimos que Ipq es un ideal.

Como todo ideal de polinomios es principal, existe m tal que Ipq = αm | α ∈ K [x].Como p, q ∈ Ipq, existen polinomios α y β tales que p = αm y q = βm. Como p y q notienen factores comunes, esto significa que m es de grado cero y por lo tanto Ipq = K [x].En particular, 1 ∈ Ipq.

Ejercicio 29 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin factorescomunes. Entonces, existen dos enteros α y β tales que αp+ βq = 1. [128]

Etienne Bezout (Francia, 1730­1783). Famoso en su epoca sobre todo por losseis volumenes de su libro de texto “Cours complet de mathematiques a l’usagede marine et de l’artillerie” que por muchos anos fueron los libros que estudia­ban los que aspiraban a ingresar a la “Ecole Polytechnique”. Su investigacionmatematica la dedico al estudio de los determinantes y de las soluciones deecuaciones polinomiales.

Page 31: Algebra Lineal

25Seccion 1.7 Polinomios sobre campos

Unicidad de la factorizacion en irreducibles.

Al descomponer un polinomio en factores causan muchos problemas de escritura los di­visores que no son factores o sea, los polinomios de grado cero. Por esto es convenienteintroducir la siguiente definicion. Un polinomio se le llama monico si su coeficiente prin­cipal es 1. La ventaja de trabajar con polinomios monicos es que cualquier polinomio pse descompone como αp0 donde α es su coeficiente principal y p0 es monico. Luego, paradescomponer p en factores, solamente nos tenemos que fijar en los factores monicos de p0.Diremos que un factor q es factor propio del polinomio monico p, si q es monico y p 6= q.

Un polinomio se le llama irreducible si este es monico, tiene grado mayor que 1 y notiene factores propios. En otras palabras, cuando no se puede descomponer no trivialmente enproducto de dos factores. Cualquier polinomio p se puede descomponer como αp1p2 . . . pndonde α es su coeficiente principal y p1 · · ·pn son polinomios irreducibles. La prueba deesto es obvia. Si un polinomio no es irreducible puedo descomponerlo en producto de dosfactores. Si estos factores no son irreducibles puedo descomponer en factores cada uno deellos y ası sucesivamente llegamos a factores irreducibles.

Lo que no es inmediato es que esta descomposicion es “unica”. Bueno, casi. Si reordena­mos los factores, gracias a la conmutatividad del producto, obtenemos otra descomposicion.El sentido preciso de unicidad en este caso es que, reordenar es lo unico que podemos hacerpara obtener otra descomposicion. Para obtener la demostracion de esto primero necesitamosun sencillo lema de divisibilidad de polinomios.

Sean p y q dos polinomios y r un factor de pq. Si r y qno tienen factores comunes entonces r es factor de p.

Prueba. Como r y q no tienen factores comunes entonces, por el Teorema de Bezout, existenα y β tales que αr+βq = 1 y de aquı p = αrp+βpq. Como ambos sumandos a la derechase dividen entre r entonces, p tambien se divide entre r.

Teorema de Factorizacion de Polinomios

Cualquier polinomio p se descompone como αp1p2 . . . pn donde αes su coeficiente principal y p1 · · ·pn son polinomios irreducibles.Esta descomposicion es unica salvo el orden de los factores.

Prueba. Solamente debemos probar la unicidad. Ademas, sacando como factor el coeficien­te principal podemos suponer que p es monico. Si p es de grado 1 entonces no hay nada queprobar ya que entonces p es irreducible y la unica descomposicion de p es el mismo.

Completemos la demostracion por induccion en el grado del polinomio. Para esto supon­gamos que el teorema es cierto para cualquier polinomio de grado estrictamente menor quek y probemos el teorema para los polinomios de grado k.

Page 32: Algebra Lineal

26 Capıtulo 1. Campos

Supongamos que el polinomio monico p de grado k tiene dos descomposiciones en irre­ducibles p1 . . . pn = p01 . . . p

0m . Si hubiera un pi igual a un p0j entonces para p/pi = p/p0j

tenemos dos descomposiciones que por hipotesis de induccion son iguales salvo orden.Luego, podemos suponer que p01 es diferente de todos los pi. Como pn y p01 son irredu­

cibles y distintos entonces no tienen factores comunes. Por 1.18 el polinomio p01 es un factorde p1 . . . pn−1. Repitiendo este argumento llegamos a que p01 es factor de p1p2. Y hacien­do una vez mas el mismo argumento, llegamos a que p01 es factor de p1. Como ambos sonirreducibles, esto significa que p01 = p1 lo que es una contradiccion.

Desarrollo de Taylor

Brook Taylor (Inglaterra 1685­1731). Entre las contribuciones de estematematico, se destacan: La invencion de la rama de las matematicasque hoy en dıa se conoce como Calculo en Diferencias, la invencion dela integracion por partes, y la formula llamada por su nombre. En 1772Lagrange proclamo esta formula como “el principio basico del calculodiferencial”. A esta formula, enunciada en la siguiente proposicion, sele llama Desarrollo de Taylor alrededor del punto x0. Como el lectorsabe de los cursos de calculo, este desarrollo es mucho mas general y

se cumple en cierta clase de funciones. Sin embargo para polinomios, su demostracion esindependiente del campo y puramente algebraica (no requiere del concepto de continuidad).

Desarrollo de Taylor

Para cualquier polinomio p (x) y cualquier elemento del campox0 existen unos unicos coeficientes α0,α1, . . . ,αn tales que

p (x) = α0 + α1 (x− x0) + · · ·+ αn (x− x0)n.

Prueba. Sea p (x) =Pakx

k un polinomio de grado n. Si x0 = 0 entonces, αk = ak.Supongamos que x0 6= 0. Por el binomio de Newton tenemos

nXj=0

αj (x− x0)j=

nXj=0

αj

jXk=0

µj

k

¶xk (−x0)

j−k=

nXk=0

ÃnXj=k

µj

k

¶(−x0)

j−kαj

!xk

y para encontrar nuestros coeficientes αj tenemos para k ∈ 0, . . . , n las igualdades ak =Pn

j=k bkjαj donde bkj =¡j

k

¢(−x0)

j−k. Observese que bkk = 1 por lo que despejando ob­tenemos αk = ak −

Pn

j=k+1 bkjαj por lo que podemos hallar αn = an despues αn−1 yası sucesivamente todos.

Ejercicio 30 Demuestre que la expresionPi

j=k (−1)j−k¡j

k

¢¡i

j

¢es igual a la funcion delta

de Kronecker δik o sea, es cero si i 6= k y es uno si i = k. [128]

Page 33: Algebra Lineal

27Seccion 1.8 Polinomios complejos. Teorema de Gauss

Ejercicio 31 Demuestre que los coeficientes αj del Desarrollo de Taylor (1.20) del polino­mio

Pakx

k son iguales a βj =Pn

i=j

¡i

j

¢aix

i−j0 . Sugerencia: Use la identidad del ejercicio

anterior para demostrar que ak =Pn

j=k bkjβj. Donde los bkj son los definidos en la pruebaanterior. Luego

Pn

j=k bkjβj =Pn

j=k bkjαj y de aquı se deduce facilmente que βj = αj.

1.8 Polinomios complejos. Teorema de Gauss

En esta seccion demostraremos que el campo de los numeros complejos es algebraica­mente cerrado. Como esta demostracion no es algebraica sino analıtica necesitaremos in­troducir algunos conceptos basicos de analisis complejo. Para esto, presupondremos que ellector conoce los correspondientes conceptos de analisis real.

Si bien, el contenido de esta seccion no es basico para la com­prension del algebra lineal, por otro lado, si es fundamental queel lector conosca a la perfeccion el enunciado del teorema deGauss: todo polinomio complejo de grado al menos 1 tiene unaraiz.

Johann Carl Friedrich Gauss (Alemania 1977­1855) fue elmas grande matematico de su epoca. Este teorema que lleva sunombre fue demostrado por primera vez en su tesis doctoral(1799). Este teorema es tambien conocido como el “teoremafundamental del algebra”. En este libro tendremos ocacion demencionar otros resultados de Gauss y cualquiera que se de­dique a estudiar matematicas, estadısticas, fısica o astronomıaoira de este cientıfico en mas de una ocacion.

Forma polar. Igualdad de Moivre

Todo numero complejo z se puede representar en la forma polar

r cosϕ

r sinϕr

ϕ

z = r (cosϕ+ i sinϕ) donde r es la longitud del vector−→0z en el

plano complejo yϕ es el angulo que forma dicho vector con el eje realde este plano (vease la figura). Al numero r se le llama modulo delnumero complejo y es comun que se denote por kzk. Al anguloϕ se lellama argumento del numero complejo. La forma polar hace muchomas facil calcular el producto y las potencias de numeros complejos.

Para hallar el producto de dos numeros complejos hayque multiplicar sus modulos y sumar sus argumentos.

Page 34: Algebra Lineal

28 Capıtulo 1. Campos

Prueba. Sean r (cosϕ+ i sinϕ) y ρ (cosψ+ i sinψ) dos complejos. Tenemosr (cosϕ+ i sinϕ)ρ (cosψ+ i sinψ) =rρ ((cosψ cosϕ− sinψ sinϕ) + (cosψ sinϕ+ cosϕ sinψ) i) =rρ (cos (ϕ+ψ) + i sin (ϕ+ψ))

que es lo que se necesitaba probar.

Aplicando este resultado al caso de la potencia de numeroszn = rn (cosnϕ+ i sinnϕ) complejos obtenemos la igualdad mostrada en el recuadro ala izquierda. Esta igualdad se conoce como la Igualdad de Moivre. Una de sus consecuen­cias mas importantes es el siguiente resultado.

Los polinomios zn − a tienen exactamente n raices complejas.

Prueba. Sea a = rn (cosnϕ+ i sinnϕ). Para k ∈ 0, 1, ..., n− 1 denotemos xk el nume­ro complejo con modulo n

√r y argumento (ϕ+ 2kπ) /n. Por la Igualdad de Moivre tenemos

xnk =¡n√r¢n µ

cosnϕ+ 2kπ

n+ i sinn

ϕ+ 2kπ

n

¶= r (cosϕ+ i sinϕ) = a

que es lo que se necesitaba probar.

Ejercicio 32 Pruebe que el conjunto de raices complejas del polinomio zn − 1 es un grupopara el producto. ¿Que grupo es este? [128]

Abraham de Moivre (Francia 1667­1754). Uno de los fundadores de laGeometrıa Analıtica y de la Teorıa de las Probabilidades. A pesar de suexelencia cientıfica, nunca tuvo la oportunidad de tener un puesto en algunauniversidad. Sus ingresos provenıan de dar clases privadas de Matematicasy murio en la pobreza. Moivre tambien es famoso por haber predicho el dıade su muerte. Descubrio que dormıa 15 minutos mas cada noche y suman­do la progresion aritmetica calculo que morirıa en el dıa que dormirıa 24horas. ¡Tuvo razon!

Continuidad

Una funcion f : C→ C es continua en el punto z0 si para todo real positivo ε existe otroreal positivo δ tal que se cumple que (kz− z0k < δ)⇒ (kf (z)− f (z0)k < ε). Una funcioncontinua en todo punto del plano complejo se le llama continua.

La funcion modulo z 7→ kzk es continua.

Prueba. Veamos la desigualdad kz− z0k ≥ kkzk− kz0kk. Esta desigualdad es equivalentea la siguiente: “En un triangulo el valor absoluto de la diferencia de dos de sus lados siempre

Page 35: Algebra Lineal

29Seccion 1.8 Polinomios complejos. Teorema de Gauss

es menor o igual que el tercero”. La prueba de esta la dejaremos en calidad de ejercicio.Por esta desigualdad, tenemos que ∀ε > 0 ∃δ = ε tal que si kz− z0k < δ entonces,kkzk− kz0kk ≤ kz− z0k < ε y esto prueba nuestra tesis.

Ejercicio 33 Pruebe que en un triangulo el valor absoluto de la diferencia las longitudes dedos de sus lados siempre es menor o igual que la longitud del tercero. [128]

La suma y el producto de funciones continuasen un punto z0 son continuas en el punto z0.

Prueba. Sean f y g funciones continuas en z0. Con el objetivo de ahorrar espacio denotemosfz = f (z), f0 = f (z0), gz = g (z) y g0 = g (z0). Para todo ε > 0 existen δ1 y δ2 tales que

(kz− z0k < δ1)⇒ (kfz − f0k < ε)

(kz− z0k < δ2)⇒ (kgz − g0k < ε)

y en particular para el mınimo (que llamaremos δ) de δ1 y δ2 se cumplen las dos desigualda­des a la derecha. Sumando y aplicando la desigualdad del triangulo obtenemos:θ = 2ε > kfz − f0k+ kgz − g0k ≥ kfz − f0 + gz − g0k = k(f+ g) (z)− (f+ g) (z0)k

Luego, para todo θ > 0 existe δ tal que (|z− z0 | < δ) ⇒ |(f+ g) (z)− (f+ g) (z0)| < θ

con lo que se prueba que la suma de continuas es continua.Por otro lado, por la desigualdad del triangulo y 1.21 tenemos

k(fg) (z)− (fg) (z0)k = kfzgz − f0g0k =k(fz − f0) (gz − g0) + (fz − f0)g0 + (gz − g0) f0k ≤

kfz − f0k kgz − g0k+ kfz − f0k kg0k+ kgz − g0k kf0k << ε2 + ε |g0 |+ ε |f0 | < (1+ |g0 |+ |f0 |) ε = cε = θ

donde la ultima desigualdad se da para ε < 1. Como c es una constante que no depende de zobtenemos que para todo θ > 0 existe δ tal que (|z− z0 | < δ)⇒ |(fg) (z)− (fg) (z0)| < θ

lo que prueba que el producto de continuas es continua.

Para cualquier polinomio complejo p la funcionde evaluacion C 3 z 7→ p (z) ∈ C es continua.

Prueba. La funcion de evaluacion de un polinomio se obtiene usando sumas y productosde funciones constantes y la funcion identidad f (z) = z. Estas funciones son continuas y de1.24 obtenemos la prueba.

Sea g una funcion continua en el punto z0 y f una funcion continua en elpunto g (z0) entonces, la composicion f g es continua en el punto z0.

Page 36: Algebra Lineal

30 Capıtulo 1. Campos

Prueba. Por la continuidad de f en g (z0) tenemos que ∀ε > 0 ∃δ (kz− g (z0)k < δ) ⇒kf (z)− f (g (z0))k < ε. Por otro lado, de la continuidad de g en z0 sabemos que ∀δ > 0 ∃δ0(ky− z0k < δ0) ⇒ kg (y)− g (z0)k < δ. Componiendo estas dos propiedades obtenemos∀ε > 0 ∃δ0 (ky− z0k < δ0)⇒ kf (g (y))− f (g (z0))k < ε que es lo que necesitabamos.

El modulo de un polinomio es una funcion continua.

Prueba. Por 1.26 y porque los polinomios y el modulo son funciones continuas.

Lımite de sucesiones complejas

Una sucesion de numeros complejos zj = aj + bji tiene lımite z = a + bi si lassucesiones reales aj y bj tienen lımites a a y b respectivamente. Esto es equivalente aque los modulos y los argumentos de la sucesion converjan al modulo y al argumento dellımite. Tambien, esto es equivalente a que ∀ε > 0 ∃N tal que ∀k > N kzk − zk < ε. Unasucesion es convergente si esta tiene lımite. Por una propiedad analoga para las sucesionesreales se tiene que toda subsucesion de una sucesion convergente es convergente y convergeal mismo lımite. Una sucesion zj = aj + bji es acotada si ambas sucesiones aj y bjson acotadas. Esto es equivalente a que la sucesion real kzjk sea acotada. Es claro queuna sucesion no acotada no puede tener lımite. Tambien, que toda sucesion acotada tieneuna subsucesion convergente pues esta misma propiedad se cumple para sucesiones reales.Expongamos otras dos propiedades que son un poco mas difıciles de probar.

Sea f una funcion continua en z0 y zk una sucesion de numeroscomplejos que converge a z0. Entonces, lım f (zk) = f (lım zk).

Prueba. Como f es continua en z0, por definicion tenemos que ∀ε > 0 ∃δ (kz− z0k < δ)⇒(kf (z)− f (z0)k < ε). Supongamos que lım zk = z0 entonces, ∀δ > 0 ∃N (k > N) ⇒(kzk − z0k < δ) .De transitividad de la implicacion obtenemos que ∀ε > 0 ∃N (k > N)⇒kf (zk)− f (z0)k < ε y esto quiere decir que lım f (zk) = f (z0).

Si zk es no acotada y p es un polinomio de grado almenos 1 entonces, la sucesion kp (zk)k es no acotada.

Prueba. Sea p (z) un polinomio de grado n > 1. Por la desigualdad triangular, tenemos

kp (z)k ≥nXi=0

°°aizi°° = nXi=0

kaik kzki = kank kzkn +n−1Xi=0

kaik kzki ≥ kank kzkn

Como zk no es acotada, tampoco lo son kank kzkkn y kp (zk)k.

Page 37: Algebra Lineal

31Seccion 1.8 Polinomios complejos. Teorema de Gauss

Teorema de Gauss

Ya estamos listos para demostrar el Teorema de Gauss pero antes, veamos un resultadopreliminar que hace la mayorıa del trabajo.

Sea p un polinomio complejo de grado al menos 1. Si z0 no esuna raiz de p entonces, existe z ∈ C tal que kp (z)k < kp (z0)k.

Prueba. Hagamos el desarrollo de Taylor de p (z) alrededor del punto z0. Tenemos

p (z) =

nXj=0

αj (z− z0)j= p (z0) +

nXj=1

αj (z− z0)j

ya que α0 = p (z0) . Sea αk el primero de los αj | j > 0 diferente de cero y escojamosz = z0 + tθ donde θ es una (veease 1.22) de las raices de la ecuacion xk + p (z0) /αk = 0 yt es un real tal que 0 < t < 1 que definiremos despues. Por la definicion de θ, z y k tenemos

p (z)− p (z0) = αkθktk +

nXj=k+1

αjθjtj = −p (z0) t

k +

nXj=k+1

αjθjtj

y por lo tanto, de la desigualdad del triangulo obtenemos:

kp (z)k ≤¡1− tk

¢kp (z0)k+

nXj=k+1

°°αjθj°° tj = kp (z0)k+ tkq (t)donde q (t) denota el polinomio (con coeficientes re­

− kp (z0)k+nX

j=k+1

°°αjθj°° tj−kales) del recuadro a la derecha. Observemos que se cum­ple la desigualdad q (0) = − kp (z0)k < 0.

Por continuidad (de los polinomios reales) existe un t0 > 0 suficientemente pequeno talque q (t0) < 0. Luego, kp (z0 + t0θ)k ≤ kp (z0)k+ tk0q (t0) < kp (z0)k.

Ejercicio 34 ¿Donde se usa en la demostracion anterior que t < 1? [128]

Teorema de Gauss

Todo polinomio de grado mayor quecero tiene al menos una raiz compleja.

Prueba. Sea p un polinomio. Denotemos A = kp (z)k : z ∈ C. El conjunto A es unconjunto de reales acotado inferiormente pues kp (z)k ≥ 0. Luego (por un teorema clasicode analisis matematico), A tiene un ınfimo que denotaremos por µ.

Demostremos que µ es el mınimo o sea, que µ ∈ A. Como µ es ınfimo hay una sucesionaj de elementos de A que converge a µ y por lo tanto hay una sucesion de complejoszj tales que lım kp (zj)k = µ. Si la sucesion zj no estuviera acotada entonces, por 1.29 la

Page 38: Algebra Lineal

32 Capıtulo 1. Campos

sucesion kp (zj)k tampoco lo serıa lo que contradice que esta sucesion converge a µ. Luego,zj es acotada y podemos escoger una subsucesion convergente que podemos suponer lamisma. Denotemos y = lım zj. Como el modulo de un polinomio es una funcion continuaentonces, por 1.28 tenemos µ = lım kp (zj)k = kp (lım zj)k = kp (y)k. Luego, µ ∈ A.

Si µ 6= 0 entonces, por 1.30 existirıa un y0 tal que kp (y0)k < kp (y)k = µ lo quecontradice que µ es el mınimo de A. Luego, kp (y)k = 0 y por lo tanto p tiene una raiz.

1.9 Factorizacion de polinomios complejos y reales

En esta seccion utilizaremos el teorema de Gauss para averiguar cuales son todos lospolinomios irreducibles con coeficientes complejos y los polinomios irreducibles con coefi­cientes reales. Esto nos dara la posibilidad de encontrar la descomposicion en factores (unicasalvo orden de los factores) de los polinomios complejos y reales.

Caso Complejo

Clasificacion de los polinomios complejos irreducibles

Los polinomios complejos irreducibles sonexactamente los monicos de grado uno.

Prueba. Al absurdo supongamos que un polinomio irreducible tiene grado mayor que uno.Por el Teorema de Gauss (1.31) este polinomio tiene una raız α. Por 1.14 el polinomio sedivide entre (x− α) y esto contradice que el polinomio es irreducible.

Este resultado nos da la posibilidad de factorizar completamente los

ankQj=1

(x− αj)nj polinomios complejos. Por el Teorema de Factorizacion de Polinomios

(1.19) cada polinomio complejo p (x) se tiene que descomponer comoen el recuadro a la izquierda. En esta formula, an es el coeficiente prin­

cipal del polinomio. Los complejos αj son las diferentes raices de p (x). El natural nj es lamultiplicidad de la raız αj y n =

Pni es el grado de p (x). Nuevamente, por el Teorema de

Factorizacion de Polinomios (1.19) esta descomposicion es unica salvo orden de los factores.

Caso real

Recordemos que si a + bi es un numero complejo entonces1. z ∈ R⇒ z = z2. z+ u = z+ u

3. zu = zu

su complejo conjugado es a − bi. Denotaremos por z el comple­jo conjugado del numero complejo z. Es facil comprobar que laoperacion de conjugacion cumple las propiedades del recuadro a laderecha.

Ejercicio 35 Demuestre estas propiedades de la conjugacion compleja. [128]

Page 39: Algebra Lineal

33Seccion 1.9 Factorizacion de polinomios complejos y reales

Sea p un polinomio con coeficientes reales y α una raızcompleja de p. Entonces α es tambien una raız de p.

Prueba. Como α es raız de p =Paix

i y por las propiedades de la conjugacion tenemos

0 = 0 =X

aiαi =X

aiαi =

Xaiα

i

que es lo que se querıa probar.

Clasificacion de los polinomios reales irreducibles

Si p es un polinomio real irreducible entonces p es de laforma x − α o es de la forma (x− a)2 + b2 con b 6= 0.

Prueba. Si p es de grado 1 entonces necesariamente es igual a x − α para cierto numeroreal α. Si p es de grado 2 entonces por el teorema de Gauss este tiene un factor x − α paracierto α complejo. Si α fuera real esto contradecirıa que p es irreducible. Luego, α = a+bicon b 6= 0. Por la proposicion anterior a− bi tambien es una raız de p por lo que

p (x) = (x− (a+ bi)) (x− (a− bi)) = (x− a)2+ b2

Si p es de grado al menos 3 entonces, por el teorema de Gauss este tiene una raız complejaα. Si α fuera real entonces x − α serıa un factor de p. Si α = a + bi con b 6= 0 entonces(x− a)

2+ b2 serıa un factor de p. En ambos casos se contradice la suposicion de que p es

irreducible.

Ahora, ya podemos descomponer completamente en factores los polinomios con coefi­cientes reales. Por la Teorema de Factorizacion de Polinomios (1.19) cada polinomio realp (x) se tiene que expresar como:

p (x) = an

kYj=1

(x− αj)nj

kY`=1

³(x− a`)

2 + b2`

´m`

En esta formula, an es el coeficiente principal del polinomio. Los numeros reales αj son lasdiferentes raices reales de p (x). El numero natural nj es la multiplicidad de la raız αj. Losnumeros complejos (a` + b`i) y (a` − b`i) son las diferentes raices complejas de p (x). Elnumero natural m` es la multiplicidad de la raız compleja (a` + b`i). Obviamente, n =Pni + 2

Pm` es el grado de p (x). Nuevamente, por el Teorema de Factorizacion de

Polinomios (1.19) esta descomposicion es unica salvo orden de los factores.

La diferencia fundamental entre los numeros reales y los numeros complejos se expresade manera muy evidente en los resultados de esta seccion. Esta diferencia hara que poste­riormente nos sea mucho mas facil clasificar los operadores lineales en un espacio vectorialcomplejo que en un espacio vectorial real. En general, todo es mas facil para los campos quecumplen el Teorema de Gauss o sea, los campos algebraicamente cerrados.

Page 40: Algebra Lineal

34 Capıtulo 1. Campos

1.10 Campos de fracciones. Funciones racionales

Sea (A,+, ·) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 elneutro multiplicativo respectivamente . Queremos construir un campo que contenga a A.Esta es una situacion analoga a cuando construimos el campo de los racionales Q para quecontenga al anillo conmutativo Z . ¿Funcionara esta misma construccion en el caso general?Investiguemos para lograr una respuesta.

Campos de fracciones

Lo primero es definir las fracciones. Consideremos conjun­ ³ab=c

d

´⇔ (ad = bc)to de todas las fracciones a/b donde a ∈ A y b ∈ A\ 0. Dosfracciones las consideraremos iguales si se cumple la igualdaden el recuadro a la derecha.

Ejercicio 36 Demuestre que la igualdad de fracciones es una relacion de equivalencia.[129]

Ahora, necesitamos definir las operaciones entre fracciones. Primero el pro­a

b

c

d=ac

bdducto porque es el mas facil. Definamos el producto por la formula en el re­cuadro a la izquierda. Nos tenemos que convencer primero de que esta defi­

nicion es correcta. O sea que si las fracciones son iguales sus productos son iguales. Masprecisamente, necesitamos ver que se cumple lo siguiente:µ

a

b=a0

b0yc

d=c0

d0

¶⇒ µac

bd=a0c0

b0d0

¶y efectivamente de las hipotesis de esta implicacion tenemos ab0 = a0b , cd0 = c0d ymultiplicando estas dos igualdades obtenemos acb0d0 = a0c0bd, lo que es equivalente a latesis de la implicacion.

Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen en los“numeradores” y en los “denominadores”. La fraccion 1/1 es neutro para el producto y cual­quier fraccion a/b donde a 6= 0 tiene inverso multiplicativo b/a ya que ab/ba = 1/1 porla conmutatividad del producto en A. Todo esto significa que el conjunto de fracciones connumerador distinto de cero forman un grupo conmutativo.

Definamos ahora la suma de fracciones por la formula en el re­ a

b+c

d=ad+ cb

bdcuadro a la derecha. Para convencernos que la definicion es correctatenemos que probar que las sumas de fracciones iguales son iguales.O sea que: µ

a

b=a0

b0yc

d=c0

d0

¶⇒ µad+ cb

bd=a0d0 + c0b0

b0d0

¶y efectivamente haciendo algunos calculos inteligentes obtenemosµ

ab0 = a0bcd0 = c0d

¶⇒ µ0 = (ab0 − a0b)dd0 == (c0d− cd0)bb0 = 0

¶⇒ µ(ad+ cb)b0d0 == (a0d0 + c0b0)bd

Page 41: Algebra Lineal

35Seccion 1.10 Campos de fracciones. Funciones racionales

que era lo que se necesitaba probar.La comprobacion de que esta suma es conmutativa es obvia. La asociatividad se com­

prueba calculando que a

b+c

d+u

v=adv+ cbv+ ubd

bdvindependientemente del orden en que se haga la suma. La fraccion 0/1 es neutro para lasuma y cualquier fraccion a/b tiene opuesto −a/b (para esto ultimo es necesario observarque 0/1 = 0/v para todo v 6= 0). Luego, el conjunto de todas las fracciones es un grupoabeliano respecto a la suma.

Solo nos falta la distributividad para comprobar que las fracciones con las operacionesdefinidas forman un campo y esto se comprueba con los siguientes calculos:

u

v

³ab+c

d

´=uad+ ucb

vbd=uad

vbd+ucb

vbd=ua

vb+uc

vd=u

v

a

b+u

v

c

d.

Por ultimo observemos que si identificamos al elemento a ∈ A con la fraccion a/1 podemospensar que el anillo A es un subconjunto de las fracciones ya que que la suma y el productode estas fracciones coinciden con la suma y el producto dentro de A.

Hemos hecho todas estas pruebas detalladamente para no equivocarnos al afirmar queesto que hemos demostrado sirve para cualquier anillo conmutativo. El lector deberıa anali­zar cuidadosamente cada igualdad en los razonamientos anteriores para convencerse de quetodas ellas se desprenden de los axiomas de anillo conmutativo y de las definiciones de lasoperaciones entre fracciones. Al conjunto de todas las fracciones con las operaciones ası de­finidas se le llama el campo de fracciones del anillo conmutativo A.

MENTIRA, no hay tal campo de fracciones para cualquier anillo conmutativo.¿Puede usted encontrar el error? Si cree que puede regrese arriba y busquelo,si no, siga leyendo.

El problema es el siguiente. Al definir el producto (a/b) (c/d) = (ac/bd) con b y ddistintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. Esto no escierto en cualquier anillo conmutativo, por ejemplo en Z6 tenemos 2× 3 = 0. Si en el anillohay tales elementos no podemos definir adecuadamente el producto de fracciones (tampocola suma). Ya vimos, que si un anillo conmutativo es tal que para cualesquiera b y d distintosde cero se tiene que bd es distinto de cero entonces, se dice que este anillo es un dominio deintegridad. Ahora si, todo dominio de integridad tiene su campo de fracciones. El ejemploevidente de dominio de integridad es Z. Su campo de fracciones es Q.

Funciones racionales

El ejemplo por el cual hemos escrito esta seccion es el siguiente:

Todo anillo de polinomios con coeficientesen un campo es un dominio de integridad.

Prueba. Tenemos que probar que el producto de dos polinomios diferentes de cero es dife­

Page 42: Algebra Lineal

36 Capıtulo 1. Campos

rente de cero (recuerdese que un polinomio es cero cuando todos sus coeficientes son cero).Sean p (x) =

Pn

i=0 aixi y q (x) =

Pm

i=0 bixi dos polinomios cualesquiera de grados n

ym respectivamente. Denotemos p (x)q (x) =Pn+m

i=0 cixi. Por la formula del producto de

polinomios, tenemos cn+m = anbm . Como an 6= 0, bm 6= 0 y todo campo es dominio deintegridad obtenemos cn+m 6= 0 y por lo tanto p (x)q (x) 6= 0.

Observese que en la demostracion no se uso el hecho de que en el campo K hay inversos multipli­cativos. Eso quiere decir que de hecho, hemos demostrado algo mucho mas fuerte: Los anillos depolinomios con coeficientes en un dominio de integridad son dominios de integridad.

Como el anillo de polinomios K [x] es un dominio de integridad este tiene su campo defracciones que se denota porK (x) .Notese la diferencia entreK [x] yK (x). A los elementosde K (x) se les llama funciones racionales (en la variable x). Las funciones racionales sonfraciones de polinomios p (x) /q (x) que se suman y multiplican mediante las reglas a lasque todos estamos acostumbrados.

Ejercicio 37 ¿Conoce usted un campo infinito de caracterıstica 2? [129]Ejercicio 38 ¿Que pasa si construimos el campo de fracciones de un campo? [129]

Page 43: Algebra Lineal

ste es el objeto central del algebra lineal. Motivaremos la introduccion de este concep­to en el ejemplo geometrico del plano cartesiano. Daremos las definicion de espaciovectorial complementandola con los ejemplos mas fundamentales. Profundizaremos

en la estructura de estos estudiando sus subespacios, sus bases, su dimension etc. lo que nosllevara a entender todos los espacios vectoriales (al menos los de dimension finita). Finaliza­remos este capıtulo con el estudio de las operaciones entre subespacios y subespacios afineslo que nos llevara a entender los espacios cocientes.

2.1 El plano cartesiano

Hubo algun tiempo, en que el algebra y la geometrıa eran dos cosas to­

y

py

px

p

x

talmente aparte. Los algebristas trabajaban con numeros, polinomios,raices, formulas, etc. y los geometras con puntos, lineas, polıgonos,etc. Rene Descartes (Francia 1596­1650) fue el que tuvo la brillanteidea de introducir los ejes de coordenadas. Tomamos dos rectas per­pendiculares, a la horizontal se le llama “ejede las equis” y a la vertical se le llama “ejede las yes”. Para cada punto del plano p tra­

zamos la perpendicular al eje x y al eje y y de esta manera obte­nemos los puntos px en el eje x y py en el eje y. Por cuanto, el ejede las x lo podemos identificar (escogiendo una unidad de medida)con R donde el cero es el origen de coordenadas (la interseccionde los dos ejes) por tanto, px es simplemente un numero real. De lamisma manera py es otro numero real. Ası, a cada punto del planop se le hace corresponder biunıvocamente una pareja de numerosreales (px, py). Ademas, es conveniente representar cada punto del plano como el segmentodirigido desde el origen de coordenadas hasta el punto o sea como vectores. A los elementosde R (para diferenciarlos de los vectores) los llamaremos escalares.

Desde ahora denotaremos los vectores por letras latinas en negritas. A diferen­cia de estos, los escalares se denotaran por letras latinas y griegas normales.

Page 44: Algebra Lineal

38 Capıtulo 2. Espacios vectoriales

Si a = (ax, ay) y b = (bx, by) son dos vectores la suma de los mismosy

aa+ b

b

x

se define comoa+ b = (ax + bx, ay + by) . La suma, geometricamen­te no es nada mas que la diagonal del paralelogramo generado por a yb . Del hecho que (R,+) es un grupo abeliano se desprende facilmenteque nuestro plano cartesiano R2 es tambien un grupo con respecto a lasuma de vectores.

Si a = (ax, ay) es un vector y α un escalar el producto αa se define y

a

2a

x

como (αax,αay) . Geometricamente este producto es aumentar (o reducir)en un factor α el vector a. Si el factor es negativo entonces el resultadoapunta en la direccion opuesta. Si el factor es cero entonces el vector sedegenera al origen de coordenadas.

El producto por escalares es distributivo con respecto a la sumaα (a+ b) = αa+αb

(α+ β)a =αa+βade vectores y tambien con respecto a la suma de escalares o sease cumplen las igualdades en el recuadro. Estas dos leyes distri­butivas (¡son diferentes!) se cumplen porque son ciertas en cada

coordenada. Ademas, obviamente tenemos que α (βa) = (αβ)a. Todo esto nos dice que elplano cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales.

Ejercicio 39 Demuestre geometricamente que la diagonal del paralelogramo generado pora y b tiene coordenadas (ax + bx, ay + by). [129]

Ejercicio 40 ¿Es la multiplicacion de un escalar por un vector una operacion binaria? [129]Ejercicio 41 ¿Cuantas diferentes operaciones hay en α (βa) y (αβ)a? [129]Ejercicio 42 ¿Que es la resta de dos vectores? ¿Cual es su interpretacion geometrica?

2.2 Definicion y ejemplos

La primera definicion de espacio vectorial la dio Giuseppe Peano (Italia,

E1) α (a+ b) = αa+αb

(α+ β)a =αa+βa

E2) (βa) = (αβ)aE3) 1a = a

1858 ­1932), en su libro “Calculo Geometrico” publicado en 1888. Pea­no es mas conocido por su axiomatica de los numeros naturales, o por la“Curva de Peano” que es una inmersion continua sobreyectiva del inter­valo en el cuadrado.

Sea K un campo cuyos elementos los llamaremos escalares y (E,+)un grupo abeliano cuyos elementos los llamaremos vectores. Diremosque es un espacio vectorial sobre K

si esta definida una operacion de producto de escalarespor vectores K×E→ E que cumple las propiedades E1­E3. A los axiomas E1 y E2 se les llama distributividady asociatividad respectivamente del producto por escala­res. El 1 que aparece en el axioma E3 es el 1 del campo.

Page 45: Algebra Lineal

39Seccion 2.2 Definicion y ejemplos

Como (E,+) es un grupo abeliano entonces, tiene que tener un vector neutro que deno­taremos por 0. El opuesto del vector a se denota por −a. Por otro lado el campo de escalarestiene un neutro para la suma: el 0, un neutro para el producto: el 1, opuestos para la suma −αe inversos multiplicativos α−1. Las relaciones que cumplen estos con respecto al productopor escalares nos las da el siguiente resultado basico.

En todo espacio vectorial para cualquier vector a y cualquierescalar α se cumple que 0a = 0, (−1)a = −a y α0 = 0.

Prueba. La demostracion se realiza mediante las siguentes tres cadenas de igualdades

0aE3= 0a+ 1a− a

E1= (0+ 1)a− a = a− a = 0

(−1)aE3= (−1)a+ 1a− a

E1= (−1+ 1)a− a = 0a− a = −a

α0E3= α0+ 1 · 0 E1

= α¡0+ α−10

¢= α

¡α−10

¢ E2= 1 · 0 E3

= 0

donde signos “=” estan marcados con los axiomas por los que son validos.

Ejercicio 43 Demuestre que αa = 0⇒ α = 0 o a = 0. [129]Ejercicio 44 ¿Cual es el mınimo numero de elementos que puede tener un espacio vecto­rial? [129]

Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que el lectorno se pierda en la cantidad de “ejemplos” que sigue. La mayorıa de ellos son fundamentalespara entender este libro. En particular, introduciremos notaciones basicas que seran usadasconstantemente.

El espacio de n­adas Kn

Consideremos el producto cartesiano den copias del Kn = (a1, a2, ..., an) | ai ∈ KcampoK. Este producto se denota porKn y esta forma­do por todas las n­adas (a1, a2, ..., an). Al escalar ai se le llama la i­esima coordenada dela n­ada (a1, a2, ..., an). Luego, una n­ada tiene n coordenadas.

Los vectores seran las n­adas, los escalares seran los elementos(a1, ..., an)

+ (b1, ..., bn)

(a1 + b1, ..., an + bn)

deK. EnKn se introduce facilmente la suma por coordenadas co­mo se muestra en el recuadro a la izquierda. Del hecho de que laspropiedades necesarias se cumplen en cada coordenada se des­prende que (Kn,+) es un grupo abeliano.

La multiplicacion por escalares tambien se introduce por coor­(a1, ..., an)

× α

(αa1,αa2, ...,αan)

denadas. El axioma E1 se reduce en cada coordenada a la distribu­tividad del producto respecto a la suma en el campo K. El axiomaE2 a la asociatividad del producto en K. Finalmente, el axioma E3se reduce en cada coordenada a que 1 es el neutro para el productoen el campo K. De esta manera obtenemos que Kn es un espacio vectorial sobre K.

Page 46: Algebra Lineal

40 Capıtulo 2. Espacios vectoriales

El espacio de polinomios K [x]

Podemos sumar polinomios, esta suma se hace coefi­

K [x] =

±nXi=0

aixi |ai ∈ Kn ∈ N

²ciente por coeficiente. Tambien sabemos multiplicar unelemento de K por un polinomio. Es muy conocido quetodos los axiomas de espacio vectorial se cumplen. Encierto sentido este espacio vectorial es parecido al anterior. Podemos asociar a cada polino­mio

Pn

i=0 aixi la (n+ 1)­ada (a0, a1, , ..., an) y la multiplicacion por escalar es la misma

que en Kn+1. Para la suma podemos tener un problema si son de grados diferentes pero estose resuelve agregando suficientes ceros o sea si

Pm

i=0 bixi es otro polinomio con n > m

entonces podemos asociarle la n­ada (b0, b1, ..., bn, 0, ..., 0) con suficientes ceros para com­pletar las n coordenadas y entonces la suma es la misma que en Kn+1. Aunque sepamosmultiplicar polinomios, esto no tiene ningun papel en el concepto de espacio vectorial.

El espacio de sucesiones KN

Dos sucesiones se suman por coordenadas como se muestra(a1, a2, ..., an, ...)

+ (b1, b2, ..., bn, ...)

(a1 + b1, , ..., an + bn, ....)

en el recuadro. La mutiplicacion un escalar es tambien porcoordenadas. Los axiomas de espacio vectorial se comprue­ban facilmente. El lector debe observar que los elementosde la sucesion pueden estar en un campo arbitrario y no ne­

cesariamente en R como estamos acostumbrados. La nocion de convergencia de sucesionesno tiene nada que ver con el concepto de espacio vectorial.

El espacio de series K [[x]]

Las series se suman coeficiente por coeficiente. Para

K [[x]] =

± ∞Xi=0

aixi | ai ∈ K

²multiplicar por un escalar se multiplican todos los coefi­cientes por el escalar. Los axiomas de espacio vectorialse cumplen porque se cumplen para cada coeficiente. Dehecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serie

P∞i=0 aix

i sedetermina unıvocamente por la sucesion (a0, a2, ..., an, ...) de sus coeficientes y no hay di­ferencia entre sumar series y sumar las correspondientes sucesiones. Lo mismo pasa con lamultiplicacion por un escalar. Al igual que con los polinomios, el concepto de producto deseries no juega ningun papel en el hecho de que K [[x]] sea un espacio vectorial.

El espacio de funciones KN

Hay una biyeccion natural entre lasn­adas (a1, a2, ..., an) ∈ Kn y las funciones 1, ..., n 3i 7→ ai ∈ K. Igualmente las sucesiones (a0, a1, ..., an, ...) se corresponden biunıvocamen­te con las funciones N 3 i 7→ ai ∈ K. Ahora, generalicemos estos ejemplos. Si N es unconjunto arbitrario (no necesitamos de operacion alguna en N) entonces el conjunto de to­das las funciones de N en K se denota por KN . Dadas dos funciones f, g ∈ KA la sumade ellas se define como es habitual por (f+ g) (i) = f (i) + g (i) para cualquier i ∈ N. Elproducto por un escalar se define por (λf) (i) = λf (i). Los axiomas de espacio vectorial se

Page 47: Algebra Lineal

41Seccion 2.2 Definicion y ejemplos

comprueban facilmente. Por ejemplo, la suma de funciones es conmutativa porque para cadai enN se cumple que f (i)+g (i) = g (i)+f (i) gracias a la conmutatividad de la suma en elcampo. Como hemos visto, el espacio Kn y el espacio de sucesiones son un caso particularde este ejemplo cuando N es 1, ..., n y N respectivamente. Ademas, ya observamos queK [[x]] = KN .

El espacio deN­adas KN

En lo adelante una funcion en KN se denotara por αN . Mas precisamente, αNes la funcion que a cada i ∈ N le hace corresponder el escalar αi. Por ejemplo,si N = 1, . . . , n, entonces αN = (α1, . . . ,αn). La bondad de esta notacion

es que podemos pensar los elementos de KN (funciones) como si fueran n­adas. Para poderseguir pensando en αN como si fuera en una n­ada necesitamos las palabras adecuadas. Alos elementos αN de KN los llamaremos N­adas. Al conjunto N lo llamaremos conjuntode ındices de αN y a los elementos deN los llamaremos ındices. Si i es un ındice, entoncesdiremos que αi es la i­esima coordenada de αN . En estas notaciones la suma de dosN­adases por coordenadas. O sea, la i­esima coordenada de αN+βN es αi+βi. El producto escalartambien es por coordenadas. O sea, la i­esima coordenada de λαN es λαi.

Si el conjunto N es finito y tiene n elementos entonces, la diferencia fundamental entreuna N­ada y una n­ada es que las coordenadas de la N­ada no necesariamente estan or­denadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces, estos notienen un orden natural. Para poder identificar una N­ada de estos con una 3­ada, necesita­mos definir artificialmente cual es el primer vector cual es el segundo y cual es el tercero.Sin embargo, si al lector le cuesta trabajo pensar en lasN­adas cuando N es un conjunto, lesugiero olvidarse de queN es un conjunto y pensar queN es un numero natural.

El espacio deN­adas con soporte finito KN

Sea αN ∈ KN una N­ada. El soporte αN es por definicion el conjunto de ındices i talesque αi 6= 0. Si el conjunto de ındices N es finito entonces, cualquier N­ada tiene soportefinito (porque un subconjunto de un conjunto finito es finito). Sin embargo, si el conjunto deındices es infinito entonces habraN­adas con soporte infinito.

Si sumamos dos N­adas de soporte finito el resultado sera una N­ada de soporte finito(porque 0 + 0 = 0). Si multiplicamos una N­ada de soporte finito por un elemento delcampo el resultado sera una N­ada de soporte finito (porque λ0 = 0). Los axiomas deespacio vectorial se cumplen porque ya sabemos que se cumplen para cualesquiera N­adas.Al espacio deN­adas con soporte finito se le denota por KN.

Como ejemplo de espacio deN­adas de soporte finito veamos el siguiente. Cada polino­mio

Pn

i=0 aixi determina unıvocamente una N­ada aN donde ai = 0 si i > n. Esta N­ada

es de soporte finito. Recıprocamente, si aN es una N­ada de soporte finito entonces, nece­sariamente, hay un natural n tal que ai = 0 para cualquier i > n. Ası, le podemos hacercorresponder a aN el polinomio

Pn

i=0 aixi. Esta correspondencia es biunıvoca y las opera­

Page 48: Algebra Lineal

42 Capıtulo 2. Espacios vectoriales

ciones son las mismas en ambos espacios. Esto nos muestra que, el espacio de polinomioses el espacio de N­adas con soporte finito. En otras palabras KN = K [x].

Un caso importante es cuandoN es finito y en este caso KN = KN . O sea, cada N­adaes de soporte finito. En particular, si N = 1, . . . , n entonces KN = KN = Kn.

Subcampos

Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar un ele­mento de L por uno de K obtenemos un elemento de K. Esto significa que tenemos unaoperacion binaria en K (la suma) y una multiplicacion por escalares L×K→ K. En estecaso, los axiomas de espacio vectorial se desprenden directamente de las definiciones decampo y subcampo y obtenemos que K es un espacio vectorial sobre L. Un caso muy par­ticular es que todo campo es espacio vectorial sobre si mismo. Otro ejemplo importante esque R es subcampo de C. Como cada complejo se puede escribir como una pareja (a, b)con coordenadas en R y la suma de complejos y el producto por un real son las mismasoperaciones que en R2 tenemos que C como espacio vectorial sobre R es lo mismo que R2.Otro ejemplo mas es que R es un espacio vectorial sobre Q. Este caso es suficientementecomplicado para que no digamos nada sobre el.

El espacio deN­adas de vectores EN

Ahora, nos debemos preguntar, cual es el mınimo de condiciones que le debemos pedira las coordenadas de una N­ada, para poder definir un espacio vectorial. Ya vimos que, silas coordenadas estan en un campo entonces, obtenemos un espacio vectorial. Pero esto espedir mucho. En realidad, solo necesitamos saber sumar las coordenadas y multiplicar cadacoordenada por un escalar, o sea, necesitamos que las coordenadas sean vectores.

Mas precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos por EN

el conjunto de todas las N­adas de E. Si aN y bN son dos elementos de EN entonces, lai­esima coordenada de aN + bN es ai + bi. Esto lo podemos hacer porque sabemos sumarlos elementos de E. Ahora, si λ es un elemento de K entonces, la i­esima coordenada deλaN es λai. Esto lo podemos hacer porque sabemos multiplicar los escalares en K por losvectores en E. Los axiomas de espacio vectorial se demuestran facilmente debido a que secumplen en cada coordenada.

El espacio deNM­matrices KNM

Un caso particular de N­adas de vectores es cuando estos vectores sonM­adas de esca­

µα11 α12 α13α21 α22 α23

¶a1 = (α11,α12,α13)

a2 = (α21,α22,α23)

lares. Este espacio es¡KM

¢N. Para aclarar un poco que sucede en este caso, supongamos

queN = 1, 2 y queM = 1, 2, 3. Entonces, un elemento del espacio¡KM

¢Nes una 2­ada

(a1,a2) de vectores y cada uno de ellos es una 3­ada de escalares. Los dos vectores los po­demos representar como en el recuadro ala izquierda y para simplificar nos queda­mos con la tabla que vemos a la derecha.

Page 49: Algebra Lineal

43Seccion 2.2 Definicion y ejemplos

Esta tabla es un elemento del espacio de (N×M)­adas KN×M , o sea, los ındices sonparejas en el producto cartesiano N ×M. Esto nos permite identificar

¡KM

¢Ncon KN×M

y como las operaciones en ambos espacios son las mismas estos espacios son en esencia elmismo. Cambiando el orden en que ponemos los indices obtenemos las igualdades¡

KM¢N= KN×M = KM×N =

¡KN¢M

que el lector debe comparar con (ax)y = axy = ayx = (ay)x para numeros naturales a, x, y.Desde ahora, para simplificar la notacion, a una (N×M)­ada cualquiera la llamaremos

NM­ada. Tambien, en lugar de usar la notacion α(N×M) para denotar unaNM­ada concreto,usaremos la notacion αNM . A una coordenada de esta NM­ada la denotaremos αij en lugarde usar la mas complicada α(i,j). En esta notacion, es mas comodo pensar que hay dos con­juntos de ındices (N yM) en lugar de uno solo (N×M). O sea, unaNM­ada es un conjuntode elementos del campo indexado por dos conjuntos de ındices. Cuando N = 1, . . . , n

y M = 1, . . . ,m entonces obtenemos una matriz con n renglones y m columnas. En elejemplo anterior obtuvimos una matriz con 2 renglones y 3 columnas.

Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jeroglıficos chinos), ladiferencia es que no hay un orden preestablecido entre los elementos de los conjuntos deındices por lo que no sabrıamos cual columna o renglon poner primero y cual despues. Comoesta diferencia no es tan importante y para no formar confusion en la terminologıa desdeahora, a las NM­adas los llamaremos NM­matrices. Escribiremos KNM para denotar elespacio vectorial de todas lasNM­matrices. Como ya sabemos, en este espacio las matricesse suman por coordenadas y se multiplican por escalares tambien por coordenadas.

Sea αNM una NM­matriz. Es costumbre llamarle a las coordenadas αij de αNM entra­das de la matriz. Si i ∈ N entonces laM­ada αiM ∈ KM es el i­esimo renglon de la matrizαNM . Si j ∈ M entonces la N­ada αNj ∈ KN es la j­esima columna. Al conjunto N sele llama conjunto de ındices de los renglones. Analogamente, al conjunto M se le llamaconjunto de ındices de las columnas.

Si N0, M0 son subconjuntos no vacıos de N y M respectivamente entonces a la matrizαN0M0 se le llama submatriz de αNM . Si |N0| = |M0| = 1 entonces la submatriz es unaentrada. Un renglon es una submatriz donde |N0| = 1 y M0 = M o sea una submatriz deltipo αiM. Una columna es una submatriz donde |M0| = 1 y N = N0 o sea una submatrizdel tipo αNj. Una ultima observacion acerca de las matrices, es que toda esta terminologıade “columnas” y “renglones” viene de la manera usual en forma de tabla en que escribimosuna matriz concreta.

El espacio de tensores

Bueno, ¿y si tenemos mas de dos conjuntos de ındices? Pues es lo mismo. UnaNML­adaes una (N×M× L)­ada. Al igual que en las matrices denotaremos por αNML a unaNML­ada con tres conjuntos de ındices o sea un tensor de exponente 3. Las matrices son tensoresde exponente 2 y las N­adas son tensores de exponente 1. Los tensores de exponente 0 sonlos elementos del campo.

Page 50: Algebra Lineal

44 Capıtulo 2. Espacios vectoriales

Si bien podemos pensar un tensor de exponente 1, co­mo una serie de elementos del campo uno al lado de otroy pensar los de exponente 2, como una tabla rectangular deelementos del campo, tambien podemos pensar los tensoresde exponente 3, como un conjunto de elementos del campodispuestos en un arreglo que llenan un cubo en el espacio.Para cada i ∈ N tenemos que αiML es un tensor de exponen­te 2 o sea una matriz. Todo αNML nos lo podemos imaginarcomo muchas matrices puestas una encima de la otra.

Sin embargo cuando el exponente del tensor es grande ya nuestra imaginacion no dapara visualizar geometricamente un arreglo de los elementos del campo dispuestos en uncubo de dimension grande. Es mucho mas util el manejo algebraico de estos, que tratarde visualizarlos. En este contexto, la terminologıa de “renglones” y “columnas” se haceinutilizable. Como es logico, los tensores con conjuntos de ındices fijos forman un espaciovectorial. La suma se hace por coordenadas y tambien la multiplicacion por un escalar.

2.3 Subespacios

Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vacıo de vectoresque es un espacio vectorial para las mismas operaciones.

Un conjunto de vectores F no vacıo es un subespacio si y solo si paracualesquiera a,b ∈ F y λ ∈ K los vectores a+ b y λa estan en F.

Prueba. Si F es un subespacio de E entonces, por definicion a+ b y λa estan en F.Recıprocamente, sea F un conjunto de vectores de E que cumple las hipotesis. Como lasuma de vectores es asociativa y conmutativa en E, tambien lo es en F. Sea a ∈ F (existe porser F no vacıo). Tenemos 0a = 0 ∈ F. Ademas ∀b ∈ F (−1)b = −b ∈ F. Con esto secomprueba que (F,+) es grupo abeliano. Los axiomas de espacio vectorial se cumplen en Fpor ser este un subconjunto de E.

Union e interseccion de subespacios

¿Seran la interseccion (y la union) de subespacios un subespacio? La union de subespa­cios no es un subespacio. Un ejemplo de esto son el eje x y el eje y en el plano cartesiano(veremos prontamente que son subespacios) sin embargo, la union de los mismos no es unsubespacio ya que por ejemplo (0, 1)+(1, 0) = (1, 1) que no pertenece a la union de los dosejes. Por el contrario, la interseccion de subespacios si es un subespacio.

La interseccion de un conjunto de subespacios es un subespacio.

Page 51: Algebra Lineal

45Seccion 2.3 Subespacios

Prueba. La interseccion de subespacios nunca es vacıa porque cada subespacio contiene al0. Si a y b son dos vectores en cada uno de los subespacios de un conjunto entonces, a+ btambien esta en cada uno de los subespacios del conjunto. Lo mismo sucede para αa.

Combinaciones lineales

Veamos unos ejemplos importantes de subespacios. Sea a un vector

hai

ano nulo en R2. El conjunto hai = αa | α ∈ R de todos los multiplos delvectora es un subespacio deR2 ya queαa+ βa =(α+ β)a, yα (βa) =(αβ)a. Geometricamente, teniendo en cuenta la identificacion de vectorescon los puntos del plano cartesiano, podemos ver que los vectores en esteespacio son los puntos de la lınea por el origen que pasa por a.

Sean ahora a y b dos vectores en R3 no colineales o sea a 6= βb. Consideremos elconjunto de vectores αa+ βb | α,β ∈ R. Este conjunto de vectores se denota por ha,biy es un subespacio ya que αa+βb+α0a+β0b =(α+ α0)a+(β+ β0)by λ (αa+ βb) =

λαa+λβb. Geometricamente, vemos que este conjunto contiene a la lınea hai que pasa pora y a la lınea hbi que pasa por b.

EnR3 hay un solo plano que contiene estas dos lineas. ¿Sera es­

pa

bha,bi

te plano el subespacio ha,bi? Pues, claro que si. Para cadapunto p de este plano dibujemos la paralela a la lınea hai quepasa por p obteniendo un punto de interseccion con la lıneahbi el cual es βb para algun β ∈ R. Analogamente, dibujan­do la paralela a hbi obtenemos el punto αa en la recta hai yvemos que p = αa+ βb. Luego, p ∈ ha,bi.

Estos ejemplos nos motivan a la siguiente definicion. Sea N un conjunto de Xi∈N

αiivectores. Una combinacion lineal de N es cualquier vector de la forma que semuestra en el recuadro a la derecha. A los escalares αi se les llama coeficientesde la combinacion lineal.

Es posible que no se entienda esta notacion. El conjunto de ındices es el conjunto devectores N por lo que en la suma hay tantos sumandos como vectores hay en N. Ası porejemplo si N = a,b,c,d entonces una combinacion lineal de N es un vector de la formaαa+βb+ γc+δd. En otras palabras, la notacion

Pi∈N αii debe interpretarse ası: “tomese

los vectores deN, cada uno de ellos multiplıquese por un escalar y sumese los resultados”.Todo esto esta muy bien si el conjuntoN es finito. SiN es infinito tenemos un problema.

¿Que es una suma infinita de vectores? La manera de evitar este problema es que le pedire­mos a los coeficientes αi que todos salvo un numero finito sean cero o sea, que laN­ada αNcuyas coordenadas son los coeficientes de la combinacion lineal es de soporte finito. Comopodemos despreciar los sumandos iguales a cero, tenemos que una combinacion lineal essiempre una suma de un numero finito de vectores.

El conjunto de todas las combinaciones lineales deN es un subespacio.

Page 52: Algebra Lineal

46 Capıtulo 2. Espacios vectoriales

Prueba. SeanP

i∈N αii yP

i∈N βii dos combinaciones lineales de N entonces, de la aso­ciatividad y conmutatividad de la suma de vectores y de la distributividad del producto porescalares obtenemos: X

i∈Nαii+

Xi∈N

βii =Xi∈N

(αi + βi) i

que es una combinacion lineal deN ya que todos los (αi + βi) salvo un numero finito tienenque ser cero. Lo mismo ocurre con γ

¡Pi∈N αii

¢=P

i∈N γαii.

Cerradura lineal

Denotaremos por hNi al conjunto de todas las combinaciones lineales deN.

Si F es un subespacio que contiene a N entonces, F contiene a hNi.

Prueba. Si F contiene a N entonces, F contiene a todos los multiplos de los vectores en Ny a todas sus sumas finitas. Luego, cualquier combinacion lineal deN esta en F.

Los siguientes tres conjuntos de vectores coinciden1. El conjunto de todas las combinaciones lineales deN.2. La interseccion de todos los subespacios que contienen aN.3. El subespacio mas pequeno que contiene aN.

Prueba. Denotemos por F1, F2 y F3 a los tres conjuntos del enunciado de la proposicion. Pordefinicion F1 = hNi. Por la proposicion 2.3 el conjunto F2 es un subespacio que contiene aN y de 2.5 obtenemos que F1 ⊆ F2. Por definicion de interseccion tenemos que F2 ⊆ F3.Por definicion, F3 esta contenido en cualquier subespacio que contiene a N y en particularF3 ⊆ F1. La prueba termina usando la transitividad de la inclusion de conjuntos.

A cualquiera de los tres conjuntos (¡son iguales!) de la proposicion anterior se le denotapor hNi y se le llama cerradura lineal deN o tambien el subespacio generado por N.

Propiedades de la cerradura lineal

La cerradura lineal cumple las siguientes propiedades:¨ N ⊆ hNi (incremento),¨ N ⊆M⇒ hNi ⊆ hMi (monotonıa),¨ hhNii = hNi (idempotencia).

Prueba. El incremento es inmediato de 2.6.3. Supongamos ahora que N ⊆ M. Cualquiercombinacion lineal de N es tambien combinacion lineal de M (haciendo cero todos loscoeficientes de los vectores en M\N). Finalmente, por 2.6.3 hhNii es el subespacio maspequeno que contiene a hNi. Como hNi es un subespacio, el mas pequeno que contiene a

Page 53: Algebra Lineal

47Seccion 2.4 Bases

hNi no puede ser otro que hNi. O sea, hhNii = hNi.

En matematicas las palabras “clausura”, “cerradura” y “envoltura” son sinonimos. Poresto con el mismo exito, otros autores le llaman “clausura lineal” o “envoltura lineal” anuestro concepto de cerradura lineal. Ademas, es bueno que el lector encuentre el parecidoentre el concepto de cerradura lineal y el concepto de “cerradura” en analisis (la interseccionde todos los cerrados que contienen a un conjunto).

En general una funcion que a un conjuntoN le hace corresponder otro conjunto hNi y que cumplelas propiedades 1­3 se le llama operador de cerradura (clausura, envoltura). En este caso a losconjuntos tales que N = hNi se le llaman cerrados. Que se cumplan las propiedades 1­3 es, en

general, equivalente a que el operador de cerradura se defina como la interseccion de todos los cerrados quecontienen al conjunto. En todas las ramas de las matematicas se encuentran operadores de cerradura.

Ejercicio 45 Demuestre que N es un subespacio si y solo si N = hNi.Ejercicio 46 Demuestre que (x ∈ hN ∪ yi \ hNi)⇒ (y ∈ hN ∪ xi). [129]

2.4 Bases

Observemos que la definicion de combinacion lineal deN de­KN 3 αN 7→X

i∈Nαii ∈ E termina la funcion fN del recuadro a la izquierda que a ca­

da N­ada de soporte finito αN le hace corresponder el vectorPi∈N αii. Esta funcion no tiene porque que ser sobreyectiva ni inyectiva, depende del con­

junto de vectores N. Por ejemplo, sea N = x,y,z donde x = (0, 0, 1), y = (0, 1, 0) yz = (0, 1, 1) son tres vectores en R3. En este caso fN (2, 2, 0) = fN (0, 0, 2) = (0, 2, 2) porlo que fN no es inyectiva. Tampoco es sobreyectiva porque (1, 0, 0) no tiene preimagen.

En esta seccion estableceremos que en todo espacio vectorial existen conjuntos N paralos cuales la funcion fN es biyectiva. Este hecho es fundamental, porque en este caso existe lafuncion inversa f−1N : E→ KN que nos permitira introducir coordenadas en cualquier espa­cio vectorial. Es mas, veremos que los conjuntos de vectores para los cuales fN es biyectivatienen la misma cantidad de vectores. Esto quiere decir que cada vector de E se define porun cierto numero de elementos del campo (coordenadas) y que este numero es independientedel vector a definir. Solo depende del espacio. Ası, en R2 nos hacen falta siempre dos realespara dar un vector y en R7 nos hacen falta siete.

Conjuntos generadores

Primero, lo mas facil. La imagen de la funcion fN es hNi , la cerradura de N. DiremosqueN es un conjunto generador si hNi es todo el espacio o sea, si fN es sobreyectiva.

Page 54: Algebra Lineal

48 Capıtulo 2. Espacios vectoriales

Los generadores son un filtro

Todo sobreconjunto de un conjunto generador es generador.

Prueba. SupongamosM ⊇ N. Por monotonıa de la cerradura lineal tenemos hNi ⊆ hMi.Si hNi es todo el espacio entonces, necesariamente hMi tambien lo es.

Conjuntos linealmente independientes

Ahora, veamos cuando fN es inyectiva. Observese que en un lenguaje mas descriptivo,un fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado.

Teorema de Caracterizacion de Conjuntos Linealmente Independientes

SeaN un conjunto de vectores. Las siguientes afirmaciones son equivalentes1. Cualquier subconjunto propio deN genera un subespacio mas pequeno

que todoN.2. Cualquier vector enN no es combinacion lineal de los restantes.3. Si dos combinaciones lineales de N son iguales entonces, todos sus

coeficientes son iguales.4. Si una combinacion lineal deN es cero entonces, todos sus coeficientes

son cero.

Prueba. (1⇔ 2) Si 1 no es cierto entonces existe a ∈ N tal que hNi = hN\ai peroentonces a ∈ hN\ai lo que contradice 2. Recıprocamente, si 2 no es cierto entonces existea ∈ N tal que a∈ hN\ai. Por incremento N\a ⊆ hN\ai y como ademas a ∈ hN\aientoncesN ⊆ hN\ai. Por monotonıa e idempotencia hNi ⊆ hN\ai lo que contradice 1.(3⇔ 4) Observese que

¡Pi∈N αii =

Pi∈N βii

¢ ⇔ ¡Pi∈N (αi − βi) i = 0

¢y ademas

(αi = βi)⇔ (αi − βi = 0). Luego, la existencia de combinaciones lineales iguales con al­gunos coeficientes diferentes es equivalente a la existencia de combinaciones lineales igualesa cero con algunos coeficientes no cero.(2⇔ 4) Si no se cumple 2 entonces hay un vector a ∈ N que es combinacion lineal de

N\a. Pasando todos los sumandos hacia un lado de la igualdad obtenemos una combinacionlineal de N igual a cero con un coeficiente distinto de cero. Esto contradice 4. Recıproca­mente, si no se cumple 4 entonces hay un vector a ∈ N y una combinacion lineal deN iguala cero y con αa 6= 0. Despejando a, obtenemos que a ∈ hN\ai. Esto contradice 2.

Ejercicio 47 Busque en la prueba del Teorema de Caracterizacion de Conjuntos Lineal­mente Independientes (2.9) donde se usa que en los campos hay inversos nultiplicativos.[129]

Diremos que un conjunto de vectores N es linealmente independiente si se cumple

Page 55: Algebra Lineal

49Seccion 2.4 Bases

alguna (y por lo tanto todas) las afirmaciones de la proposicion anterior. Los conjuntos devectores que no son linealmente independiente se les llama linealmente dependientes.

A partir de ahora para no repetir constantemente frases largas a los conjuntosde vectores linealmente independientes los llamaremos conjuntos LI. Analo­gamente a los conjuntos de vectores linealmente dependientes los llamaremos

conjuntos LD. Estas notaciones se deben pronunciar “ele i” y “ele de”.

Los independientes son un ideal

Todo subconjunto de un conjunto LI es LI.

Prueba. Sea N ⊆M tal queM es LI. Cualquier combinacion lineal de N es combinacionlineal de M. Luego toda combinacion lineal de N igual a cero tiene todos sus coeficientesiguales a cero

Antes de pasar a la definicion de base, demostremos un pequeno resultado que usaremosrepetidamente en lo adelante.

Lema de Aumento de un Conjunto LI

SiN es independiente yN∪a es dependiente entonces a ∈ hNi.

Prueba. Si N ∪ a es LD entonces, por la caracterizacion 2.9.4 de los conjuntos LI, hayuna combinacion de N ∪ a igual a cero cuyos coeficientes no todos son igual a cero. Si elcoeficiente en a fuera diferente a cero obtendrıamos una contradiccion con que N es LI.Luego, el coeficiente en a es diferente a cero y despejando a obtenemos a ∈ hNi.

Bases

La relacion entre los conjuntos generadores y los conjun­

Conjuntos generadores

Conjuntos LI

E

tos LI la podemos ver intuitivamente en la figura a la derecha.Aquı estan representados los subconjuntos del espacio E queson generadores o que son LI. Mientras mas arriba mas gran­de es el subconjunto. Nuestro interes ahora se va a concentraren la franja del centro donde hay subconjuntos que a la vezson generadores y LI. La siguiente proposicion nos dice que“esta franja no puede ser muy ancha”.

Page 56: Algebra Lineal

50 Capıtulo 2. Espacios vectoriales

Teorema de Caracterizacion de Bases

SeaN un conjunto de vectores. Las siguientes afirmaciones son equivalentes1. N es generador yN es LI,2. N es LI y cualquier sobreconjunto propio deN es LD,3. N es generador y cualquier subconjunto propio deN no es generador.

Prueba. (1⇒ 2) Sea N independiente y generador. Sea a /∈ N. Como N es generadora ∈ hNi . De la caracterizacion 2.9.2 de los conjuntos LI se sigue que N ∪ a es LD. Luegotodo sobreconjunto propio deN es LD.(2⇒ 3) Sea N independiente maximal. Por incremento N ⊆ hNi. Si a /∈ N entonces

N∪a es LD. Por el Lema de Aumento de un Conjunto LI (2.11) tenemos a ∈ hNi . Luego,N es generador. Si algun subconjunto propio deN fuera generador entonces existirıa a ∈ Ntal que a ∈ hN\ai y por la caracterizacion 2.9.2 de los conjuntos LI esto contradice lasuposicion de queN es LI.(3⇒ 1) Sea N generador minimal. Si N es LD entonces, por la caracterizacion 2.9.1

de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Como N esgenerador entoncesM tambien lo es. Esto contradice la suposicion de queN es minimal.

Sea F un subespacio (en particular puede ser todo el espacio). Un conjunto de vectoresque es generador de F y que es LI se le llama base de F. Las bases de todo el espacio sellaman simplemente bases. Por el Teorema de Caracterizacion de Bases (2.12) el ser base esequivalente a ser un conjunto LI lo mas grande posible o ser un conjunto generador lo maschico posible. Tambien, el ser base es equivalente a que nuestra funcion fN del principio deesta seccion sea biyectiva.

Lema de Incomparabilidad de las Bases

Dos bases diferentes no estan contenidas una dentro de la otra.

Prueba. Si N ⊆M son dos bases diferentes entonces N es un subconjunto propio deM ypor el Teorema de Caracterizacion de Bases (2.12) esto es una contradiccion.

Teorema de Existencia de Bases

Sea N un conjunto generador y L ⊆ N un conjuntoLI. Entonces, existe una base M tal que L ⊆ M ⊆ N.

Prueba. Sean L y N como en las hipotesis del teorema. Sea M un conjunto LI tal queL ⊆ M ⊆ N. Si M es maximal con estas propiedades (∀a ∈ N\M M ∪ a es LD)entonces por el Lema de Aumento de un Conjunto LI (2.11) tenemosN ⊆ hMi. ComoN esgenerador, esto significa queM tambien lo es y por lo tantoM es una base.

Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es facil si

Page 57: Algebra Lineal

51Seccion 2.4 Bases

el conjuntoN es finito. ConstruyamosM. Primero ponemosM igual a L. SiM es maximalterminamos, si no, entonces existe a ∈ N\M tal queM∪a es LI. Agregamos a al conjuntoM y repetimos este proceso. Como N es finito este proceso tiene que terminar en algunmomento con elM deseado.

Ejercicio 48 Pruebe que las siguientes afirmaciones son consecuencia directa del Teoremade Existencia de Bases (2.14):

1. Todo espacio vectorial tiene base.2. Cualquier conjunto LI esta contenido en una base.3. Cualquier conjunto generador contiene a una base. [129]

Dimension

Ahora lo que queremos ver es que todas las bases tienen el mismo numero de vectores.Para probar esto se necesita ver primero una propiedad clasica de las bases.

Propiedad del Cambio de las Bases

SiM yN son dos bases entonces, para cualquiera ∈M existe b ∈ N tal que (M\a)∪b es base.

Prueba. Sea a un vector fijo pero arbitrario en M. Para un vector b ∈ N denotemosMb = (M\a) ∪ b. Si para todos los b ∈ N\ (M\a) el conjunto Mb fuera LD entonces,por el Lema de Aumento de un Conjunto LI (2.11) todo b ∈ N serıa combinacion linealdeM\a. O sea, N ⊂ hM\ai y por monotonıa e idempotencia tendrıamos hNi ⊆ hM\ai .Como hNi es todo el espacio en particular tendrıamos a ∈ hM\ai lo que no es posible yaqueM es LI.

Hemos demostrado que existe b ∈ N\ (M\a) tal queMb es LI. Demostremos queMb

es generador. Sea v un vector arbitrario. Por serM base tenemos que b y v son combinacio­nes lineales deM o sea existen escalares apropiados tales que

b = αaa+Xx∈M\a

αxx v = λaa+X

x∈M\a

λxx

Como Mb es LI entonces, b no es una combinacion lineal de M\a y por lo tanto αa 6= 0.Luego, podemos despejar a de la primera ecuacion, substituirla en la segunda y ası obtenerque v ∈ hMbi. Esto significa queMb es generador.

Equicardinalidad de las Bases

Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal.

Prueba. Sean A = a1, ...,an y B dos bases. Por la Propiedad del Cambio de las Bases

Page 58: Algebra Lineal

52 Capıtulo 2. Espacios vectoriales

(2.15) existe otra base A1 = b1,a2, ...,an donde b1 ∈ B. Observese que |A1 | = n yaque en otro caso A1 Ã A lo que contradice el Lema de Incomparabilidad de las Bases(2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A1 obtenemos otra baseA2 = b1,b2,a3, ...,an tal que b2 ∈ B. Observese que |A2 | = n ya que en otro casoA2 Ã A1 lo que contradice el Lema de Incomparabilidad de las Bases (2.13). Repitiendoeste proceso obtenemos basesA3,A4, ..., An todas con n vectores y ademasAn ⊆ B. ComoB es base obtenemos An = B y por lo tanto B tambien tiene n vectores.

Al cardinal de una base (cualquiera) se le llama dimension del espacio vectorial. La di­mension de un espacio vectorial E se denotara por dimE. Los espacios vectoriales que tienenuna base finita se les llama finito dimensionales o de dimension finita. Por el contrario, sisus bases son infinitas entonces, el espacio vectorial es de dimension infinita. La teorıa delos espacios vectoriales de dimension finita es mas sencilla pero mas completa que la de losespacios de dimension infinita. Para darnos cuenta de que hay muchas cosas que se cumplenen el caso finito dimensional pero no en el caso infinito dimensional veamos como ejemploel siguiente resultado que tendremos multiples ocaciones para utilizarlo.

Sea F un espacio vectorial finito dimensional y E unsubespacio de F. Si dimE = dimF entonces E = F.

Prueba. SeaN una base de E. Por el Teorema de Existencia de Bases (2.14) existe una baseM del espacio F que contiene a N. Como M es finita entonces, N tambien es finita. Comolas dimensiones coinciden, el numero de vectores enN es igual al numero de vectores enM.LuegoN =M y por lo tanto E = hNi = hMi = F.

Observese que la prueba de Equicardinalidad de las Bases (2.16) la hemos he­cho solamente para el caso que el espacio tiene una base finita. Nuestra pruebadel Teorema de Existencia de Bases (2.14) es solo para el caso que el con­

junto generador es finito. Finalmente, solo hemos probado que los espacios vectoriales quetienen un conjunto generador finito tienen base. Es importante que el lector sepa que estastres afirmaciones son validas en general. Sin embargo, las pruebas generales dependen de unconocimiento mas profundo de la Teorıa de Conjuntos que no presuponemos que lo posea ellector. A los interesados en esto les recomiendo leer ahora la ultima seccion de este capıtulo.

Ejercicio 49 Pruebe que si E un subespacio de F entonces dimE ≤ dimF. [130]Ejercicio 50 Encuentre un ejemplo donde no se cumple 2.17. [130]

Bases canonicas

Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tienen unabase sino muchas. Por esto es conveniente construir bases que son las mas “sencillas” para

Page 59: Algebra Lineal

53Seccion 2.4 Bases

los ejemplos de espacios vectoriales que construimos en la Seccion 2.2.Comenzemos con R2. Sean e1 = (1, 0) y e2 = (0, 1). Cualquier vector (a, b) en R2

tiene una manera de expresarse como combinacion lineal de N = e1,e2. Efectivamente,tenemos la igualdad (a, b) = ae1 + be2. Esto quiere decir que el conjuntoN es generador.Por otro lado, si αe1 + βe2 = (α,β) = 0 = (0, 0) entonces, necesariamente, α y β sonambos cero. De aquı obtenemos que conjuntoN es una base que la llamamos base canonicade R2. Los vectores e1 y e2 se pueden visualizar geometricamente como los dos vectores delongitud 1 en ambos ejes de coordenadas. Luego, la dimension de R2 es 2.

Pasemos ahora a Kn. Para cada i en el conjunto de ındices 1, . . . , n denotemos por eiel vector cuya i­esima coordenada es 1 y todas las demas son cero (recuerde que todo cam­po tiene uno y cero). Sea N el conjunto de todos esos vectores. Tenemos (α1, . . . ,αn) =Pn

i=1 αiei y esto significa que cada vector en Kn se expresa de forma unica como combina­cion lineal deN. O sea, N es generador y por la caracterizacion 2.9.3 de los conjuntos LI elconjuntoN es LI. A la baseN se le llama base canonica de Kn. La dimension de Kn es n.

Veamos el espacio de polinomios K [x]. Sea N el conjunto©xi | i ∈ N

ª. Es claro que

todo polinomio se puede escribir de forma unica como combinacion lineal finita de N. A labase N se le llama base canonica de K [x]. Luego, K [x] es de dimension infinita contable.Desafortunadamente, para el espacio de series no se puede dar explicitamente una base.

Para el espacioKM de todas lasM­adas de soporte finito ya hicimos casi todo el trabajo(veaseKn). Para cada i en el conjunto de ındicesM denotemos por ei el vector cuya i­esimacoordenada es 1 y las demas son cero. Sea N el conjunto de todos esos vectores. TenemosαN =

Pi∈N αieN donde los coeficientes son distintos de cero solamente en un subconjunto

finito de indices. Luego, N es una base de este espacio la cual es su base canonica. Ladimension de KM es el cardinal deN ya que hay una biyeccion entreN yM.

Recordemos al lector que lo de soporte finito es no trivial solo para cuando el conjuntoM es infinito. Si el conjunto de ındices es finito entonces estamos hablando de todas lasM­adas o sea de KM . Luego, en el caso de queM es finito KM = KM y la base canonicade KM es la construida en el parrafo anterior. En el caso de que el conjunto M sea infinitoentonces el espacio KM no tiene una base canonica.

El campo de los numeros complejos como espacio vectorial sobre los reales tienen comobase canonica al conjunto 1, i y por lo tanto tiene dimension 2. Los reales como espaciovectorial sobre los racionales no tienen una base canonica.

Todos los espacios que hemos visto que no tienen base canonica son de dimension infi­nita. Sin embargo, no todos los espacios de dimension finita tienen una base canonica. Elejemplo mas sencillo de esto es tomar un subespacio de un espacio de dimension finita. Sieste subespacio es suficientemente general, entonces no hay manera de construir una basecanonica del mismo incluso en el caso de que todo el espacio tenga una base canonica.

Ejercicio 51 Demuestre que el conjunto (x− x0)i| i ∈ N es una base de K [x]. [130]

Ejercicio 52 ¿Cual es la base canonica del espacio de lasNM­matrices? [130]

Page 60: Algebra Lineal

54 Capıtulo 2. Espacios vectoriales

2.5 Clasificacion de espacios vectoriales

En esta seccion veremos que todo espacio vectorial es isomorfo a un espacio de N­adas de soporte finito. Para el caso finito dimensional esto quiere decir que el unico (salvoisomorfismos) espacio vectorial de dimension n sobre un campo K que existe es el espaciode las n­adas Kn.

Isomorfismos lineales

En el Capıtulo 1 vimos los morfismos de operaciones binarias, grupos, anillos y campos.Para los espacios vectoriales es igual, la unica diferencia es que en ellos hay definida unaoperacion que no es interna del espacio: el producto de un escalar por un vector. Sin embargoesto no presenta mayores dificultades.

Sean E y F dos espacios vectoriales sobre el mismo campof (a+ b) = f (a) + f (b)

f (αa) = αf (a)K. Una funcion f : E→ F se le llama morfismo de espaciosvectoriales si para cualesquiera a,b ∈ E y cualquier α ∈ Kse cumplen las propiedades del recuadro.

A los morfismos de espacios vectoriales tambien se les llama transformaciones lineales.Esta ultima expresion sera la que usemos porque tiene dos importantes ventajas. Primero,es mas corta que la primera. Segundo es mucho mas antigua, hay mucha mas cantidad depersonas que la conoce y por lo tanto facilita la comunicacion con ingenieros y cientıficosde diversas areas.

Ejercicio 53 Demuestre que la composicion de morfismos es un morfismo. [130]

El estudio de las transformaciones lineales lo pospondremos hasta el siguiente capıtulo.Aquı estaremos interesados en los isomorfismos de espacios vectoriales. Una transformacionlineal f : E→ F es un isomorfismo de espacios vectoriales o isomorfismo lineal si esta esbiyectiva. Analogamente al caso de operaciones binarias tenemos el siguiente resultado:

La inversa de cualquier isomorfismo lineal es un isomorfismo lineal.

Prueba. Sea α ∈ K y x,y ∈ F. Como f es una biyeccion existen a,b ∈ E tales quef (a) = x , f (b) = y. Como f es isomorfismo tenemos

f−1 (x+ y) = f−1 (f (a) + f (b)) = f−1 (f (a+ b)) = a+ b = f−1 (x) + f−1 (y)

f−1 (αx) = f−1 (αf (a)) = f−1 (f (αa)) = αa =αf−1 (x)que es lo que se querıa demostrar.

Ya observamos, que los isomorfismos son nada mas que un cambio de los nombres de loselementos y las operaciones. Esto quiere decir que “cualquier propiedad” debe conservarseal aplicar un isomorfismo. La siguiente proposicion es un ejemplo de esta afirmacion.

Page 61: Algebra Lineal

55Seccion 2.5 Clasificacion de espacios vectoriales

Un isomorfismo transforma conjuntos LI en conjuntos LI, con­juntos generadores en conjuntos generadores y bases en bases.

Prueba. Sea f : E → F un isomorfismo de espacios vectoriales. Sea M ⊆ E y denotemosN = f (M) ⊆ F. Sean ademas x ∈ E , y = f (x) ∈ F. Como f es isomorfismo tenemosÃX

i∈Mαii = x

!⇔ ÃXi∈M

αif (i) = y

!⇔ ÃXj∈N

αjj = y

!donde el conjunto de coeficientes αi | i ∈M es exactamente el mismo que αj | j ∈ N.

SiM es generador entonces, para cualquier y ∈ F el vector x = f−1 (y) es combinacionlineal deM y por la equivalencia anterior el vector y es combinacion lineal deN. Luego, siM es generador entoncesN tambien lo es.

Supongamos queM es LI entonces, poniendo x = 0 obtenemosÃXi∈M

αii = 0

!⇔ ÃXj∈N

αjj = 0

!luego, cualquier combinacion lineal deN que es nula tambien es combinacion lineal nula deM y por lo tanto todos sus coeficientes son cero. Luego,N es LI.

Ejercicio 54 Demuestre que los isomorfismos conmutan con el operador de cerradura linealy que trasforman subespacios en subespacios de la misma dimension.

Coordinatizacion

Sea N un conjunto de vectores del espacio vectorial F. Al principio de la seccion ante­rior introducimos la funcion fN que a cada N­ada de soporte finito le hace corresponder lacombinacion lineal cuyos coeficientes son dicha N­ada. Esta funcion es siempre una trans­formacion lineal ya que

fN (αN + βN) =Xi∈N

(αi + βi) i =Xi∈N

αii+Xi∈N

βii = fN (αN) + fN (βN)

fN (λαN) =Xi∈N

(λαi) i = λXi∈N

αii = λfN (αN) .

Por otro lado, ya vimos que fN es sobreyectiva si y solo siN es generador, que fN es inyectivasi y solo siN es LI y por lo tanto fN es un isomorfismo si y solo siN es una base. En el casode que N sea una base, la funcion inversa f−1N : F→ KN es un isomorfismo lineal llamadocoordinatizacion de F mediante la base N. En otras palabras, si N es una base de F, y x esun vector de F entonces, existe una unica N­ada αN ∈ KN tal que x =

Pi∈N αii. En este

caso, a los coeficientes αi se les llama coordenadas de x en la baseN.

Page 62: Algebra Lineal

56 Capıtulo 2. Espacios vectoriales

Clasificacion

Se dice que dos espacios son isomorfos si existe una funcion que es un isomorfismoentre ellos. No hay ninguna razon (por ahora) para que deseemos distinguir dos espaciosvectoriales que son isomorfos. Si esto sucede, uno es igual a otro salvo los “nombres” de losvectores y las operaciones. La clave para ver que los espacios vectoriales son isomorfos esque estos tengan la misma dimension.

Dos espacios vectoriales sobre el mismo campo sonisomorfos si y solo si tienen la misma dimension.

Prueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19 unisomorfismo entre ellos transforma biyectivamente una base de uno en una base del otro porlo que tienen la misma dimension. Recıprocamente, sean N y M bases de E y F respecti­vamente. Mediante los isomorfismos de coordinatizacion podemos pensar que E = KN yF = KM. Si los dos tienen la misma dimension entonces, hay una biyeccion f : M → N.Sea g : KN 3 αN 7→ βM ∈ KM la funcion tal que βi = αf(i). La funcion g la po­demos pensar como la que simplemente le cambia el nombre a los ındices de una N­ada.Esta es claramente un isomorfismo de espacios vectoriales (ya que la suma deN­adas es porcoordenadas y lo mismo con el producto por un escalar).

Esta proposicion nos permite saber como son TODOS los espacios vectoriales. Ya vimos(mediante la base canonica) que el espacio vectorial de todas las N­adas (funciones) desoporte finito tiene dimension |N|. Escogiendo el conjunto N adecuadamente obtenemostodas las dimensiones posibles. En el caso de queN sea finito con n elementos , este espacioes Kn por lo que es valido el siguiente teorema.

Teorema de Clasificacion de Espacios Vectoriales

Todo espacio vectorial es isomorfo a un espacio de N­adas de soportefinito. Todo espacio vectorial finito dimensional es isomorfo a Kn.

Como pensar en espacios vectoriales

A partir de ahora el lector debe siempre tener en mente el Teorema de Clasificacion deEspacios Vectoriales (2.21). Al hablar de un espacio vectorial en primer lugar, se debe pensarenR2 yR3. La interpretacion geometrica de estos dos espacios como los segmentos dirigidoscon origen en el cero da una intuicion saludable acerca de lo que es cierto y lo que no.

En segundo lugar el lector debe pensar en el ejemplo Rn. Si el lector lo prefiere, elnumeron puede ser un numero fijo suficientemente grande digamosn = 11.Ya en este caso,para entender es necesario usar varios metodos: las analogıas geometricas en dimensionespequenas, el calculo algebraico con sımbolos y los razonamientos logicos. Casi todo lo quese puede demostrar para espacios vectoriales finito dimensionales se demuestra en el caso

Page 63: Algebra Lineal

57Seccion 2.6 Suma de subespacios

particular de Rn con la misma complejidad. Las demostraciones de muchos hechos validosenRn se copian tal cual para espacios vectoriales de dimension finita sobre cualquier campo.

En tercer lugar se debe pensar en Cn. El espacio vectorial Cn es extremadamente impor­tante dentro de las matematicas y la fısica. Ademas, el hecho de que C es algebraicamentecerrado hace que para Cn algunos problemas sean mas faciles que en Rn. Hay una manerade pensar en Cn que ayuda un poco para tener intuicion geometrica. Como ya vimos 1, ies una base de C como espacio vectorial sobre R. De la misma manera Cn es un espaciovectorial sobre R de dimension 2n o sea, hay una biyeccion natural entre Cn y R2n (la bi­yeccion es (a1 + b1i, a2 + b2i, ..., an + bni) 7→ (a1, b1, a2, b2, ..., an, bn)). Sin embargoesta biyeccion no es un isomorfismo. Si E es un subespacio de Cn sobre R entonces no ne­cesariamente E es un subespacio de Cn sobre C . Desde este punto de vista podemos pensar(no rigurosamente) a Cn como un R2n en el que hay menos subespacios.

Los que se interesan en las ciencias de la computacion deben tambien pensar en Znp yen general en cualquier Kn donde K es un campo finito. Las aplicaciones mas relevantesincluyen la codificacion de informacion con recuperacion de errores y la criptografıa, que esla ciencia de cifrar mensajes.

Ahora, si el lector no le tiene miedo al concepto de campo (que es uno de los objetivos deeste libro) entonces, lo mas facil es pensar en Kn. Esto tiene una gran ventaja en el sentidode que no hay que pensar en los detalles particulares que se cumplen en uno u otro campo.

Sin embargo, en el caso infinito dimensional la situacion es mas fea. Nuestros teoremasnos garantizan que hay un isomorfismo entre R como espacio vectorial sobreQ y las funcio­nes de soporte finito de una base de este espacio a Q. El problema es que nadie conoce (niconocera nunca) una base de este espacio, ası que realmente, estos teoremas no dicen muchopara espacios vectoriales de dimension mayor que el cardinal de los naturales ℵ0.

2.6 Suma de subespacios

En esta seccion introduciremos las operaciones mas basicas entre subespacios. Pero an­tes, es saludable dar una interpretacion geometrica de los subespacios para que el lectorpueda comparar el caso general con el caso de los espacios R2 y R3.

Subespacios de Rn

¿Cuales son todos los subespacios de Rn? Del Teorema de Clasificacion de EspaciosVectoriales (2.21) sabemos que estos tienen que ser isomorfos a Ri para i ∈ 0, 1, . . . , nsegun sea su dimension. Si i = 0 entonces todo el subespacio es el vector 0 (el origen decoordenadas). Si i = n entonces, el subespacio es por 2.17 todo el espacio. Luego, los casosinteresantes son los que 0 < i < n.

Si i = 1 entonces, el subespacio tiene que ser isomorfo a R y tiene que tener una base deun vector. O sea, existe un vector a tal que el subespacio es igual a hai. Ya vimos que haies la lınea que pasa por el origen y por el punto a que es el final del vector a. Luego, lossubespacios de dimension 1 de Rn son las lineas rectas que pasan por el origen. Para R2 este

Page 64: Algebra Lineal

58 Capıtulo 2. Espacios vectoriales

analisis termina con todas las posibilidades.Si i = 2 entonces, el subespacio tiene que ser isomorfo a R2 y tiene que tener una base

a,b de dos vectores. La base a,b tiene que ser LI y en este caso eso quiere decir que bno es un multiplo escalar de a. En otras palabras, los puntos finales de los vectores a, b yel origen de coordenadas no estan alineados. En este caso hay un unico plano (R2) que pasapor estos tres puntos y tambien ya vimos que este plano es ha,bi. Luego, los subespacios dedimension 2 de Rn son los planos que pasan por el origen. Para R3 este analisis termina contodas las posibilidades: sus subespacios son: el origen, las lineas por el origen, los planos porel origen y todo el espacio.

Ahora tenemos que pensar por lo menos en los subespacios de R4 y ya se nos acaba laintuicion y la terminologıa geometrica. Por esto, pasemos al caso general. Un subespacio dedimension i en Rn esta generado por una base a1, . . . ,ai de i vectores LI. Que sean LIlo que quiere decir es que sus puntos y el origen no estan contenidos en un subespacio dedimension menor que i. Si este es el caso entonces hay un unico Ri que contiene a todosestos puntos y este es el subespacio ha1, . . . ,aii.

Suma de conjuntos y subespacios

Sean E y F dos subespacios sobre un campoK. En la proposicion 2.3 vimos que E∩F esun subespacio. Por definicion de interseccion E ∩ F es el subespacio mas grande contenidoen E y F. Ya observamos ademas que E ∪ F no es un subespacio. Sin embargo, hay unsubespacio que es el mas pequeno que contiene a los dos y este es hE ∪ Fi. El subespaciohE ∪ Fi tiene una estructura muy simple:

hE ∪ Fi = a+ b | a ∈ E, b ∈ F

Prueba. Todo a+ b es una combinacion lineal de E∪F. Recıpro­ Xx∈E

αxx+Xy∈F

βyycamente, toda combinacion lineal de E ∪ F se puede escribir comoen el recuadro a la derecha. Como E y F son subespacios entonces,el primero y el segundo sumando son elementos de E y F respectivamente. Esto quiere decirque todo elemento de hE ∪ Fi es de la forma a+ b con a en E y b en F.

Dados dos conjuntos cualesquiera de vectores A y BA+ B = a+ b | a ∈ A, b ∈ B definimos la suma de estos como en el recuadro a laizquierda. Despues de esta definicion el resultado 2.22 se puede reformular como hE ∪ Fi =E+ F. Es por esto que al subespacio hE ∪ Fi se le llama la suma de los subespacios E y Fy desde ahora se le denotara por E + F.

La igualdad modular

Sean E y F dos subespacios. Ahora trataremos de calcular la dimension de E + F. Paraesto necesitaremos primero encontrar bases de E ∩ F y E + F.

Page 65: Algebra Lineal

59Seccion 2.6 Suma de subespacios

Existen E una base de E y F una base de F tales queE ∩ F es base de E ∩ F y E ∪ F es base de E + F.

Prueba. SeaN una base de E∩F . ComoN es LI y esta contenida en E entonces, por el Teo­rema de Existencia de Bases (2.14) existe una base E de E que contiene aN. Analogamente,existe una base F de F que contiene aN.

Demostremos primero que E∩ F = N. Efectivamente, por la forma en que contruimos Ey F tenemosN ⊆ E∩ F. Para la prueba de la otra inclusion sea a ∈ E∩ F. ComoN∪a ⊆ Eentonces, tenemos queN ∪ a es LI. ComoN es base de E ∩ F y las bases son los conjuntosLI mas grandes, obtenemos que a ∈ N. Luego, E ∩ F ⊆ N.

Solo nos queda probar que E ∪ F es una base de E + F. En primer lugar, cualquiera+ b ∈ E + F es combinacion lineal de E ∪ F por lo que E ∪ F es generador de E + F.Necesitamos probar que E ∪ F es LI. Para esto supongamos que

0 =Xi∈E∪F

αii =Xi∈E\N

αii+Xi∈N

αii+Xi∈F\N

αii

y demostremos que todos los αi son cero. Sean x,y, z el primer, segundo y tercer sumandorespectivamente en la igualdad anterior. Por construccion, tenemos x ∈ E, y ∈ E ∩ F yz ∈ F. Ademas, como z = − (y+ x) y E es un subespacio, obtenemos z ∈ E ∩ F.

ComoN es una base deE∩F el vector z es combinacion lineal deN, o sea z =P

i∈N λii

para ciertos coeficientes λi. De aquı obtenemos que

0 = x+ y+ z =Xi∈E\N

αii+Xi∈N

(αi + λi) i

Como E es LI, todos los coeficientes de esta combinacion lineal son cero. En particular,αi = 0 para todo i ∈ E\N y por lo tanto x = 0. Substituyendo x obtenemos

0 = y+ z =Xi∈N

αii+Xi∈F\N

αii

y como F es LI deducimos que los restantes coeficientes tambien son cero.

Igualdad modular

Si E y F son dos subespacios entonces,dimE + dimF = dim (E + F) + dim (E ∩ F).

Prueba. Por 2.23 existen bases E y F de E y F tales que E ∪ F es base de E + F y E ∩ Fes base de E ∩ F. Luego, la formula se reduce a la conocida igualdad entre cardinales deconjuntos |E|+ |F| = |E ∪ F|+ |E ∩ F|.

Page 66: Algebra Lineal

60 Capıtulo 2. Espacios vectoriales

Ejercicio 55 Use la igualdad modular para cons­E F (E + F)

1 1 11 1 21 2 2

E F (E + F)

1 2 32 2 32 2 4

truir ejemplos de subespacios reales E y F tales queellos y E + F tienen las dimensiones definidas en latabla del recuadro a la derecha. ¿Puede tener E + Fdimension diferente a las de la tabla?

Suma directa

Para dos espacios vectoriales Ey F(no necesariamente contenidos en otro espacio) sobreun mismo campo Kdefiniremos la suma directa de ellos como el espacio vectorial

E⊕ F = (a,b) | a ∈ E, b ∈ F(a,b) +

¡a0,b0

¢=

¡a+ a0,b+ b0

¢λ (a,b) = (λa,λb)

Observese que como conjunto la suma directa es el producto cartesiano de conjuntos. Ladiferencia esta en que la suma directa ya trae en su definicion las operaciones de suma devectores y multiplicacion por un escalar. Deberıamos probar que la suma directa es efectiva­mente un espacio vectorial, o sea que cumplen todos los axiomas. Nosotros omitiremos estaprueba por ser trivial y aburrida. Mejor nos concentraremos en algo mas interesante.

dim (E⊕ F) = dimE + dimF.

Prueba. Sea E0 = (a,0) | a ∈ E y F0 = (0,b) | b ∈ F. Es claro que los espacios E y E0

son isomorfos y por lo tanto tienen la misma dimension. Otro tanto ocurre con F y F0. Pordefinicion de suma de subespacios tenemos que E0 + F0 = E⊕ F . De la Igualdad modular(2.24) obtenemos dim (E0 + F0) = dimE0 + dimF0− dim (E0 ∩ F0) = dimE+ dimF.

Isomorfismo canonico entre la suma y la suma directa.

De esta ultima proposicion y de la igualdad modular se deduce que si dos subespacios Ey F son tales que E∩F = 0 entonces dim (E⊕ F) = dim (E + F) o sea E⊕F es isomorfoa E + F. A continuacion probaremos solo un poquito mas. Sin embargo, este poquito nosllevara a profundas reexiones.

Isomorfismo Canonico entre la Suma y la Suma directa

Si E y F son subespacios tales que E ∩ F = 0 entonces la funcionE⊕ F 3 (a,b) 7→ a+ b ∈ E + F

es un isomorfismo de espacios vectoriales.

Page 67: Algebra Lineal

61Seccion 2.6 Suma de subespacios

Prueba. Sea f la funcion definida en el enunciado. Tenemosf (λ (a,b)) = f (λa, λb) = λa+ λb = λ (a+ b) = λf (a,b)

f ((a,b) + (x,y)) = f (a+ x,b+ y) = a+ x+ b+ y = f (a,b) + f (x,y)

por lo que solo queda demostrar que f es biyectiva. Por definicion de suma de subespaciosf es sobreyectiva. Para probar la inyectividad supongamos que f (a,b) = f (x,y) entonces,a− x = y− b. Como a,x ∈ E entonces a− x ∈ E. Como b,y ∈ F entonces y− b ∈ F.Luego a− x = y− b ∈ E ∩ F = 0 por lo que a = x y b = y.

Observemos que el isomorfismo (a,b) 7→ a+ b no depende de escoger base algunaen E⊕ F. Todos los isomorfismos que construimos antes de esta proposicion se construye­ron escogiendo cierta base en alguno de los espacios. Los isomorfismos que no dependende escoger alguna base juegan un papel importante en el algebra lineal y se les llama iso­morfismos canonicos. Decimos que dos espacios vectoriales son canonicamente isomorfossi existe un isomorfismo canonico entre ellos. Ası por ejemplo todo espacio vectorial E dedimension 3 es isomorfo a K3 pero no es canonicamente isomorfo a K3 porque no se pue­de construir de cualquier espacio vectorial de dimension 3 un isomorfismo con K3 que nodependa de escoger alguna base. Cuando veamos los productos escalares veremos que hayfuertes razones para que diferenciemos las bases. Los isomorfismos no canonicos no ne­cesariamente preservan una u otra propiedad de las bases. Por otro lado, los isomorfismoscanonicos si las preservan. Si por un lado, debe haber cierta resistencia a considerar igualesa dos espacios vectoriales isomorfos (no todas las bases son iguales) por el otro, los espacioscanonicamente isomorfos no se diferencian en nada uno del otro, por lo que se puede pensarque es el mismo espacio.

Ejercicio 56 1. Demuestre que E⊕ F y F⊕ E son canonicamente isomorfos.2. ¿Como se debe llamar esta propiedad de la suma directa de espacios?3. Demuestre que la suma directa de espacios es asociativa.4. ¿Tiene la suma directa elemento neutro? [130]

Subespacios complementarios

Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio F escomplementario de E enS siS = E⊕F. Esta igualdad por el Isomorfismo Canonico entrela Suma y la Suma directa (2.26) lo que quiere decir es que S = E + F y E ∩ F = 0. EnR2 dos lineas por el origen diferentes son complementarias una a otra. En R3 un plano y unalınea no contenida en el plano (ambos por el origen) son complementarios uno a otro.

Todo subespacio tiene complementario.

Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia deBases (2.14) hay una baseC deS que contiene aA. Sea F el espacio generado porB = C\A.

Page 68: Algebra Lineal

62 Capıtulo 2. Espacios vectoriales

Como C es generador deS, todo elemento en S es combinacion lineal de C y en particulartodo elemento deS se expresa como a+ b con a ∈ E y b ∈ F. LuegoS = E+ F.

Por otro lado, si x ∈ E ∩ F entonces, tienen que existir combinaciones lineales tales queÃx =

Xa∈A

αaa =Xa∈B

αaa

!⇒ÃXa∈A

αaa−Xa∈B

αaa = 0

!.

Como C es LI entonces, por la caracterizacion 2.9.4 de los conjuntos LI la ultima combina­cion lineal tiene todos sus coeficientes iguales a cero. Luego, E ∩ F = 0.

Si E y F son dos subespacios complementarios entonces cada vector xse expresa de forma unica como x = a+ b donde a ∈ E y b ∈ F.

Prueba. Si E y F son complementarios entonces E+F es todo el espacio y por lo tanto todovector es de la forma a+ b. Si a+ b = a0 + b0 entonces a− a0 = b0 − b ∈ E ∩ F = 0por lo que la descomposicion x = a+ b es unica.

Ejercicio 57 Demuestre el recıproco de 2.28: Si cada vector se expresa de forma unicacomo x = a+b con a ∈ E y b ∈ F entonces, los subespacios son complementarios. [130]Ejercicio 58 Pruebe que E = E1 ⊕ E2 ⊕ · · · ⊕ En si y solo si cualquier vector x ∈ E seexpresa de forma unica como x = x1 + · · · + xn con xi ∈ Ei. Sugerencia: Usar 2.28, elejercicio anterior y la asociatividad de la suma directa para aplicar induccion en el numerode sumandos n.

Espacios vectoriales versus conjuntos

Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teorıade Conjuntos y siempre es saludable establecer analogıas con resultados ya conocidos. Paraacentuar mas esta similitud hagamos un diccionario de traduccion

Conjunto ←→ Espacio vectorialSubconjunto ←→ Subespacio vectorialCardinal ←→ DimensionInterseccion de subconjuntos ←→ Interseccion de subespaciosUnion de subconjuntos ←→ Suma de subespaciosUnion disjunta ←→ Suma directaComplemento ←→ Subespacio complementarioBiyecciones ←→ Isomorfismos

Si nos fijamos atentamente muchos de los resultados que hemos demostrado para espa­cios vectoriales tienen su contraparte valida para conjuntos usando el diccionario que hemosconstruido. Probablemente, el ejemplo mas notable de esto son las igualdades modularespara conjuntos y para espacios vectoriales.

Page 69: Algebra Lineal

63Seccion 2.7 Espacios cocientes

Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos a losespacios vectoriales. Por ejemplo, el complemento de un subconjunto es unico y no siemprehay un unico subespacio complementario. Otro ejemplo, un poco mas substancial, es que lainterseccion de conjuntos distribuye con la union o sea A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) .Por otro lado la interseccion de subespacios en general no distribuye con la suma o sea, laigualdadA∩(B+C) = (A ∩ B)+(A ∩ C) no siempre es verdadera. Para ver esto tomese enR3 los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B = h(1, 0, 0)i y C = h(0, 1, 0)i . CalculamosA ∩ (B+C) = h(1, 1, 0)i y (A ∩ B) + (A ∩ C) = (0, 0, 0) y vemos que son distintos.

Ejercicio 59 Si A y B son dos conjuntos entonces la diferencia simetrica de los mismos esel conjunto A +2 B = (A ∪ B) \ (A ∩ B). Demuestre que todos los conjuntos finitos de unconjunto cualquieraU forman un espacio vectorial de dimension |U| sobre el campo Z2 parala suma +2 y el producto 1A = A, 0A = ∅. Vea, que los conceptos de nuestro diccionariode traduccion se aplican a este caso en forma directa.

2.7 Espacios cocientes

Ya vimos que para un subespacio E del espacio F, siempre existen subespacios comple­mentarios a el. Sin embargo hay muchos de estos subespacios complementarios y no hayuna manera canonica de escoger alguno de ellos. En esta seccion nos dedicaremos a cons­truir canonicamente el espacio cociente F/E que es el espacio de todos los subespacios afinesparalelos a E y que es isomorfo a cualquier subespacio complementario de E.

Subespacios afines

Ya vimos que en el plano cartesiano R2 los subespacios son el origen

`

`0

x

R20, todo R2 y las lineas que pasan por el origen. Sin embargo, hay otraslineas en el plano que no pasan por el origen. Para obtener una de estaslineas lo que tenemos que hacer es trasladar una lınea por el origen `mediante un vector x (vease la figura). De esta manera, obtenemos lalınea `0 que se obtiene sumandole x a cada vector en la lınea `. Observeseque si x 6= 0 entonces las lineas ` y `0 no se intersectan.

Esto nos motiva a la siguiente definicion. Sea A un conjunto de vectores y x un vector.Al conjunto A + x = a+ x | a ∈ A se le llama la traslacion de A con el vector x. Ellector debe observar que la operacion de trasladar es un caso particular (cuando uno de lossumandos solo contiene a un solo vector) de la operacion de suma de conjuntos de vectoresintroducida en la seccion anterior.

Page 70: Algebra Lineal

64 Capıtulo 2. Espacios vectoriales

Un subespacio afın es el trasladado de un subespacio. En otras palabras,

E0

E + x = E+ a

x aun conjunto de vectores E es un subespacio afın si existen un subespacioE y un vector x tales que E = E + x. Observese que los subespaciosson tambien subespacios afines. Basta trasladar con el vector cero. Lastraslaciones de un subespacio cumplen una propiedad muy sencilla perofundamental: que es posible trasladar el subespacio con diferentes vec­

tores y obtener el mismo subespacio afın (vease la figura a la izquierda). Mas precisamente:

Si a ∈ E + x entonces, E + x = E + a.

Prueba. Probemos primero el caso que x = 0. Tenemos y ∈ E⇔ y−a ∈ E⇔ y ∈ E+a.Ahora por el caso general. Sabemos que, z = a − x ∈ E y del primer caso, E = E + z.Luego, E+ x = E+ z+ x = E+ a.

Ahora observemos, que un trasladado de un subespacio afın es a su vez un subespacioafın ya que (E + x) + y = E + (x+ y). Dos subespacios afines se le llaman paralelossi uno es un trasladado del otro. La relacion de paralelismo entre subespacios afines es deequivalencia ya que si E = F+x yG = E+y entonces,G = F+(x+ y). Esto significa queel conjunto de los subespacios afines se parte en clases de paralelismo y dos subespaciosson paralelos si y solo si estan en la misma clase de paralelismo.

Todo subespacio afın es paralelo a un solo subespacio.

Prueba. SiE+x = F+y entonces,E = F+y−x. Como F+y−x contiene al cero entonces,x− y ∈ F. Como F es un subespacio, y− x ∈ F y por lo tanto F = F + y− x = E.

Este resultado nos permite definir la dimension de un subespacio afın. Cada uno de elloses paralelo a un unico subespacio y su dimension es la dimension de ese subespacio. Enotras palabras, si E = E + x entonces dimE = dimE. Es comun utilizar la terminologıageometrica para hablar de los subespacios afines de dimension pequena. Ası, un punto esun subespacio afın de dimension cero, una lınea es un subespacio afın de dimension uno, unplano es un subespacio afın de dimension dos.

Dos subespacios afines paralelos o son el mismo o no se intersectan.

Prueba. Si y ∈ (E + x) ∩ (E + x0) entonces, por 2.29, E + x = E+ y = E+ x0.

Es un error comun (debido al caso de lineas en el plano) pensar que es equivalenteque dos subespacios sean paralelos a que estos no se intersecten. Para convencersede que esto no es cierto, el lector debe pensar en dos lineas no coplanares en R3.

Page 71: Algebra Lineal

65Seccion 2.7 Espacios cocientes

El espacio cociente

Sea D un espacio vectorial y E un subespacio de D. Si E =

0

x+ x0

y+ y0

R2x

y

x0

y0

E + x y F = E + y son dos subespacios afines paralelos entoncesE+ F = (E + x) + (E + y) = (E + E) + (x+ y) = E + (x+ y)

lo que muestra que E + F esta en la misma clase de paralelismoque E y F. En otras palabras (vease la figura a la derecha) la sumade cualquier vector en E con cualquier otro en F esta en un mismoespacio paralelo a E y F.

Denotemos ahora por D/E al conjunto de todos los subespacios afines de D paralelos aE. Esta observacion nos dice que la suma de subespacios afines es una operacion binariadentro de D/E. Esta suma es asociativa y conmutativa debido a la asociatividad y conmuta­tividad de la suma de los vectores en D. El subespacio E es el neutro para esta operacion yel opuesto de E + x es E− x. Luego,D/E es un grupo abeliano para la suma.

Para convertir a D/E en un espacio vectorial nos falta el producto por escalares. Sea

λA = λa | a ∈ A A un conjunto arbitrario de vectores y λ un escalar. Definiremos λAcomo en el recuadro a la izquierda.

Sean E = E + x un subespacio afın paralelo a E y λ un escalar. Tenemos

0

2x

2y

R2x

y

λE = λ (E + x) = λE+λx = E+λx lo que muestra que λE esta en la mismaclase de paralelismo que E. En otras palabras (vease la figura a la derecha) elproducto de un escalar por todos los vectores en E resulta en espacio paraleloa E. Este producto convierte a D/E en un espacio vectorial llamado espacio cociente de Dpor E.

Ejercicio 60 Compruebe los axiomas de espacio vectorial para el espacio cocienteD/E.

Ejercicio 61 Cual es el espacio cociente de R3 por el plano xy.Ejercicio 62 ¿Que pasa si sumamos dos espacios afines no paralelos?

El isomorfismo con los complementarios

Sea F un subespacio complementario a E.Entonces, cualquier subespacio afın paraleloa E intersecta a F en un y solo un vector. F E

R2

D/E es canonicamente isomorfo a cualquier complementario de E.Prueba. Sea E = E + x cualquier subespacio afın paralelo a E. Como D = E⊕ F existenunos unicos vectoresy ∈ E y z ∈ F tales que x = y+z. Luego por 2.29E+x = E+y+z =E+z y por lo tanto z ∈ E+x o sea, z ∈ E∩F. Si z0 es otro vector en E∩F entonces, existe

Page 72: Algebra Lineal

66 Capıtulo 2. Espacios vectoriales

a ∈ E tal que z0 = a+ x. De aquı x = −a+ z0 y por la unicidad de la descomposicion deun vector en suma de vectores de espacios complementarios, y = −a y z = z0.

Sea F un subespacio complementario a E. Entonces,f : F 3 x 7→ (E + x) ∈ D/E

es un isomorfismo de espacios vectoriales.

Prueba. Por 2.32 la aplicacion f : F 3 x 7→ (E + x) ∈ D/E tiene inversa (que a cadaE + x ∈ D/E le hace corresponder el unico vector en (E + x) ∩ F). Luego, f es biyectiva.Ademas, f (x+ y) = E + (x+ y) = (E + x) + (E + y) = f (x) + f (y)

f (λx) = E + (λx) = λ (E + x) = λf (x)

por lo que f es un isomorfismo.

Observese que el isomorfismo f es canonico. Luego, cualquier subespacio complemen­tario a E es canonicamente isomorfo a D/E. Esta proposicion tambien nos dice que la di­mension deD/E es la misma que la de un complementario a E o sea, es dimD− dimE.

Es posible (gracias al isomorfismo con los complementarios) desarrollar toda el algebra lineal sinla introduccion de los espacios cocientes. Si embargo, es mas comodo hacerlo con ellos. Ademases importante que el lector se familiarize con el concepto, ya que, en el estudio de estructuras

algebraicas mas generales, no siempre existen estructuras “complementarias” (por ejemplo en la teorıa degrupos). Por otro lado, las estructuras cocientes si se pueden construir. Por ejemplo, todo grupo tiene un cocientepor cualquier subgrupo normal.

2.8 El caso de dimension infinita

En la Seccion 2.4 enunciamos el Teorema de Existencia de Bases (2.14) y la Equicar­dinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espacio tienedimension finita. En esta seccion demostramos estos resultados para los casos faltantes. Por­que siempre aparece un curioso que quiere saber.

Como estas demostraciones dependen de resultados de Teorıa de Conjuntos y una expo­sicion de esta nos llevarıa a escribir otro libro, lo haremos todo en forma minimalista: Antesde cada una de las dos pruebas daremos las definiciones y resultados exclusivamente quenecesitamos. Los resultados complicados de Teorıa de Conjuntos no los demostraremos.

El Lema de Zorn

Un conjunto ordenado es un conjunto con una relacion de orden, o sea una relacionreexiva antisimetrica y transitiva (vease el glosario). Sea P un conjunto ordenado y A unsubconjunto de P. Diremos que x ∈ P es una cota superior de A si para cualquier y ∈ Ase cumple que y ≤ x. Diremos que x ∈ A es elemento maximal de A si para cualquiery ∈ A se cumple que x ­ y. Se dice que A es una cadena si para cualesquiera x, y ∈ A secumple que x ≤ y o que y ≤ x. Diremos que A esta inductivamente ordenado si A 6= ∅ y

Page 73: Algebra Lineal

67Seccion 2.8 El caso de dimension infinita

cualquier cadena contenida enA tiene una cota superior que esta enA. El siguiente resultadoes clasico en teorıa de conjuntos.

Lema de Zorn

Cualquier conjunto inductivamente ordenado tiene un elemento maximal.

Existencia de bases

Teorema de Existencia de Bases (caso general)

Sea N un conjunto generador y L ⊆ N un conjuntoLI. Entonces, existe una base M tal que L ⊆ M ⊆ N.

Prueba. Sean L yN como en las hipotesis. DenotemosT = M |M es linealmente independiente y L ⊆M ⊆ N .

El conjunto T esta naturalmente ordenado por inclusion. SeaM un elemento maximal de T.Entonces ∀x ∈ N\M M∪x es dependiente y por el Lema de Aumento de un Conjunto LI(2.11) tenemos N ⊆ hMi. Como N es generador, esto significa que M tambien lo es y porlo tantoM es una base.

Nuestra tarea es encontrar un elemento maximal de T. Probemos que el conjunto Testa inductivamente ordenado. Efectivamente, T es no vacıo ya que L ∈ T. Sea Bii∈I unacadena arbitraria en T y denotemos B =

Si∈I Bi. El conjunto B es una cota superior de la

cadena Bii∈I y tenemos que convencernos que B esta en T. Como para cualquier i tenemosBi ⊆ N entonces, B ⊆ N. Supongamos que B es linealmente dependiente. Entonces, existeun subconjunto finito B0 de B y una combinacion lineal de B0 igual a cero tal que todos suscoeficientes son no cero, o sea B0 es linealmente dependiente. Como B0 es finito, y Bii∈I esuna cadena entonces, tiene que existir i0 tal que B0 ⊆ Bi0 y esto contradice que todo sub­conjunto de un conjunto linealmente independiente es linealmente independiente. Luego, Testa inductivamente ordenado y por el Lema de Zorn (2.34) el conjunto T tiene un elementomaximal.

Cardinales

Dados dos conjuntos A y B denotaremos |A| ≤ |B| si existe una inyeccion de A en B.La relacion A ∼ B definida como |A| ≤ |B| y |B| ≤ |A| es una relacion de equivalenciaentre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se le llamacardinal del conjunto A y se denota por |A|. Los cardinales estan ordenados por la relacionde orden que ya definimos. Los cardinales pueden ser finitos o infinitos. El cardinal infinitomas pequeno es ℵ0 que es el cardinal de los naturales (ℵ es la primera letra del alfabetohebreo y se llama “alef”). La suma de cardinales se define como el cardinal de la union dedos conjuntos disjuntos. El producto de cardinales se define como el cardinal del producto

Page 74: Algebra Lineal

68 Capıtulo 2. Espacios vectoriales

cartesiano de conjuntos.Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es muy

sencillo y daremos una demostracion para el.

Si ∀i |Ai| ≤ t entonces,P

i∈I |Ai| ≤ t |I|.

Prueba. Podemos pensar que los Ai son disjuntos. Sea T un conjunto de cardinal t. Porhipotesis existen inyecciones fi : Ai 7→ T . Sea ϕ :

Si∈I Ai → T × I definida por ϕ (a) =

(fi (a) , i) si a ∈ Ai. Por definicion de ϕ si ϕ (a) = ϕ (b) entonces, a y b estan en elmismo conjunto Ai, fi (a) = fi (b) y por lo tanto a = b. Luego, ϕ es inyectiva.

El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la Teorıade Conjuntos (vease por ejemplo: Kamke E., Theory of sets. Dover, New York, 1950. pagina121). Nosotros omitiremos la prueba.

Si |A| es infinito entonces, ℵ0 |A| = |A|.

Equicardinalidad de las bases

Equicardinalidad de las Bases (caso infinito)

Dos bases cualesquiera tienen el mismo cardinal.

Prueba. Sean A y B dos bases. Ya probamos el caso de que una de las dos bases es finita.Luego, podemos suponer que A y B son infinitos. Como B es una base y debido a la finitudde las combinaciones lineales entonces ∀a ∈ A el mınimo subconjunto Ba ⊆ B tal quea ∈ hBai existe y es finito.

Construyamos la relacion R ⊆ A × B de manera que (a,b) ∈ R si y solo si b ∈ Ba.Tenemos |B| ≤ |R| ya que si hubiera un b0 ∈ B no relacionado con ningun elemento deA entonces, A ⊆ hB\b0i y como A es base obtendrıamos que B\b0 es generador lo quecontradice que B es base.

Por otro lado, como |A| es infinito y |Ba| es finito entonces, usando 2.36 y 2.37 obtenemos

|B| ≤ |R| =Xa∈A

|Ba| ≤ ℵ0 |A| = |A| .

Luego |B| ≤ |A| y por simetrıa de nuestros razonamientos|A| ≤ |B|.

Page 75: Algebra Lineal

as transformaciones lineales son uno de los objetos mas estudiados y mas importan­tes en las matematicas. El objetivo de este capıtulo es familiarizar al lector con elconcepto de transformacion lineal y sus propiedades basicas. Introduciremos las ma­

trices y estudiaremos la relacion de las mismas con las transformaciones lineales. Veremosel concepto de nucleo e imagen de una transformacion lineal etc...

3.1 Definicion y ejemplos

Sean E y F dos espacios vectoriales sobre K. Una funcionf (a+ b) = f (a) + f (b)

f (λa) = λf (a)f : E→ F se le llama transformacion lineal de E en F si paracualesquiera vectores a y b y cualquier escalar λ se cumplenlas propiedades del recuadro a la derecha.

Nuevamente, para no reescribir constantemente frases largas, en lugar de decirque f es una transformacion lineal, diremos que f es una TL. En plural escribi­remos TLs.

Imagenes de subespacios

Toda TL transforma subespacios en subespacios.

Prueba. Sea f : E→ F una TL y E0 un subespacio de E. Denotemos F0 = f (E0) la imagende E0. Sean a y b vectores en F0. Por definicion existen vectores x,y tales que f (x) = a yf (y) = b. Tenemos, f (x+ y) = a + b por lo que a + b ∈ F0. Sea ahora λ un escalar.Tenemos f (λx) = λa por lo que λa ∈ F0. Luego, F0 es un subespacio de F.

Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni tampococonjuntos generadores en conjuntos generadores.

Page 76: Algebra Lineal

70 Capıtulo 3. Transformaciones lineales

El recıproco de la proposicion anterior NO es cierto. Hay funciones que transforman subespaciosen subespacios y no son TLs. Un ejemplo sencillo es la funcion R 3 x 7→ x3 ∈ R. Esta manda elcero en el cero y a R en R. Sin embargo no es lineal. Para obtener una funcion contraejemplo en

Rn basta usar coordenadas esfericas, dejar fijos los angulos y elevar al cubo el modulo del vector.

Homotecias

Veamos el ejemplo mas simple de TL. Si a cada vector x de un espacio E le hacemoscorresponder el vector 2x obtenemos la funcion h2 : E 3 x 7→ 2x ∈ E . Esta funcion es unaTL ya que h2 (a+ b) = 2 (a+ b) = 2a+ 2b = h2 (a) + h2 (b)

h2 (λa) = 2λa = λ2a = λ = λh2 (a)

Observese que en la segunda lınea usamos la conmutatividad del producto de escalares.Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar α ∈ K obtenien­

do la TL dada por hα : E 3 x 7→ αx ∈ E. A las funciones hα se les llama homotecias.Hay dos casos particulares de homotecias especialmente importantes. Si α = 1 entonces

obtenemos la funcion identidad x 7→ x. A esta funcion se la denotara por Id. Si α = 0

entonces obtenemos la funcion nula tambien llamada funcion constante cero x 7→ 0.En el caso del campoR las homotecias tienen una interpretacion geometrica muy clara. Si

α > 0 entonces cada punto x ∈ Rn se transforma en el punto αx que esta en la misma rectapor el origen que x pero a una distancia del origen α veces mayor que x. Esto quiere decirque hα es la dilatacion de razon α. Si 0 < α < 1 entonces hα es realmente una contraccionpero interpretaremos las contracciones como dilataciones con razon mas pequena que 1.

En la figura de la derecha observamos la dilatacion x 7→ 2x en el

R2

v 7→ 2v

plano cartesiano R2. La curva interior (que es la grafica de la funcion5 + sin 5θ en coordenadas polares) se transforma en la misma curvapero del doble de tamano (10+ 2 sin 5θ).

Si α = −1 entonces a la homotecia h−1 : x 7→ −x se le llamafuncion antipodal. El nombre viene de la siguiente interpretacion. Sitrazamos una recta que pase por el centro de la Tierra intersectaremos lasuperficie en dos puntos. Estos puntos se dicen que son antıpodas o sea, nuestros antıpodasson la personas que viven “pies arriba” del “otro lado” de la Tierra. Si coordinatizamos laTierra con unos ejes de coordenadas con origen en el centro de la misma, nuestros antıpodasse obtienen multiplicando por −1.

En la figura de la izquierda esta representada la funcion antıpodal en

R2

v 7→ −v

R2. En ella hay dos curvas cerradas de cinco petalos. La primera esla misma que la de la figura anterior (10 + 2 sin 5θ). La segunda esla antıpoda de la primera (−10 − 2 sin 5θ). La figura es expresamentecomplicada para que el lector tenga la oportunidad de pensar un pocoen que punto se va a transformar cada punto. Cualquier homotecia hαcon α < 0 se puede representar como h−1 (h−α) por lo que hα se puede

interpretar geometricamente como una dilatacion seguida de la funcion antıpodal. A pesarde su simplicidad las homotecias juegan un papel fundamental en la comprension de las TLy este papel se debe a que ellas son todas las TL en dimension 1.

Page 77: Algebra Lineal

71Seccion 3.1 Definicion y ejemplos

Si dimE = 1 entonces toda TL de E en E es una homotecia.

Prueba. Sea a una base de E y f una TL de E en E. Como a es una base tiene que existirun escalar λ ∈ K tal que f (a) = λa. Sea x = αa un vector arbitrario en E . Como f eslineal tenemos f (x) = f (αa) = αf (a) = αλa = λαa = λx lo que demuestra que f esuna homotecia.

Inmersiones

Hasta ahora las TL que hemos visto (las homotecias) estan definidas de un espacio ensi mismo. Las inmersiones son la TL mas simples que estan definidas de un espacio en otrodistinto. Sea E un subespacio de F. A la funcion i : E 3 x 7→ x ∈ F se le llama inmersionde E en F. Las inmersiones son TLs inyectivas y son las restriciones a subespacios de lafuncion identidad. No hay mucho que decir de las inmersiones excepto de que hay una paracada subespacio.

Proyecciones

Ahora supongamos al reves (de las inmersiones) que F es subespacio de E . ¿Habra algu­na TL natural de E en F? Lo que podemos hacer es buscarnos un espacioG complementariode F (existe por 2.27) De esta manera E = F⊕G y por 2.28 tenemos que cada vector x ∈ Ese descompone de manera unica como a+ b donde a es un vector en F y b es un vector enG . Ası para cada x ∈ E tenemos un unico a ∈ F y esto nos da una funcion que denotaremospor πF y la llamaremos proyeccion de E en F a lo largo de G . Cualquier proyeccion πFrestringida a F es la identidad por lo que necesariamente es sobreyectiva.

La notacion πF sugiere erroneamente que esta funcion solo depende del subespa­cio F . Esto no es cierto, el subespacio F puede tener muchos subespacios comple­mentarios diferentes y la proyeccion depende del subespacio complementario queescojamos.

Las proyecciones son transformaciones lineales.

Prueba. Escojamos un subespacio G complementario de F . De esta manera πF es unafuncion fija y bien definida.

Si x,y son dos vectores entonces hay descomposiciones unicas x = πF (x) + πG (x) yy = πF (y) + πG (y) . Luego x+ y = (πF (x) + πF (y)) + (πG (x) + πG (y)) . El primersumando de la derecha esta en F y el segundo en G . Por la unicidad de la descomposicionnecesariamente tenemos πF (x+ y) = πF (x) + πF (y) .

Sea ahora λ ∈ K. Tenemos λx = λπF (x)+λπG (x) .Nuevamente, el primer sumando dela derecha esta en F y el segundo enG y por la unicidad de la descomposicion necesariamentetenemos πF (λx) = λπF (x) .

Page 78: Algebra Lineal

72 Capıtulo 3. Transformaciones lineales

¿Como son geometricamente las proyecciones? En esencia el problema es el siguiente.Dados dos espacios complementarios F , G y un vector a como hallar un vector en F y otroen G que sumados den a. Esto ya lo hicimos una vez cuando introducimos las coordenadascartesianas en R2. Dado un vector a trazamos la lınea paralela al eje y que pasa por a yla interseccion del eje x con esta lınea es un vector πx (a) . De manera analoga obtenemosπy (a) y sabemos que a = πx (a) + πy (a).

En el caso general es exactamente igual. Esta construc­cion se ilustra en la figura de la derecha. Tenemos que Fes un subespacio de dimension k y uno de sus complemen­tarios G es de dimension n − k. Hay un solo subespacioafın paralelo a F que pasa por a y este es F + a. La in­terseccion (F + a) ∩ G es un solo punto y este punto esel vector πG (a) . Analogamente se observa que πF (a) =(G + a) ∩ F. Como es logico, no pudimos dibujar el espa­cio Rn ası que el lector debera contentarse con ver la figuraen el caso n = 3, k = 2.

3.2 Operaciones entre transformaciones lineales

Ahora, veremos que operaciones se definen naturalmente entre las TLs.

El espacio vectorial de las transformaciones lineales

Sea f una TL y λ un escalar. Denotaremos por λf a la funcion a 7→ λf (a). A estaoperacion se le llama producto de un escalar por una TL.

El producto de un escalar por una TL es una TL.

Prueba. Efectivamente, tenemos(λf) (a+ b) = λf (a+ b) = λ (f (a) + f (b)) = (λf) (a) + (λf) (b)

(λf) (αa) = λf (αa) = λαf (a) = αλf (a) = α (λf) (a)

lo que significa que λf es una TL.

Sean ahora f y g dos transformaciones lineales. Denotaremos por f + g a la funciona 7→ f (a) + g (a). A esta operacion se le llama suma de TLs.

La suma de dos TLs es una TL.

Prueba. Denotemos h = f+ g. Tenemosh (αa) = f (αa) + g (αa) = α (f (a) + g (a)) = αh (a)

h (a+ b) = f (a+ b) + g (a+ b) = f (a) + g (a) + f (b) + g (b) = h (a) + h (b)

lo que significa que h es una TL.

Page 79: Algebra Lineal

73Seccion 3.2 Operaciones entre transformaciones lineales

Luego, podemos sumar transformaciones lineales y multiplicarlas por escalares. Losaxiomas de espacio vectorial se comprueban de manera muy simple usando las definiciones.Por ejemplo, la prueba de la distributividad del producto por escalares con respecto a la su­ma es la siguiente: (λ (f+ g)) (a) = λ (f (a) + g (a)) = λf (a)+λg (a) = (λf+ λg) (a).Al espacio vectorial de todas las TLs del espacio E en el espacio F lo denotaremos porMor (E,F). Esta notacion es debido que a las transformaciones lineales tambien se les llamamorfismos de espacios vectoriales. Debido a todo lo dicho es valido el siguiente resultado:

Mor (E,F) es un espacio vectorial.

Composicion de transformaciones lineales

Sean f ∈ Mor (E,F) y g ∈ Mor (F,G) dos TLs. La composicion h = g f se definecomo la funcion E 3 a 7→ g (f (a)) ∈ G. Demostremos que h = g f ∈ Mor (E,G) o sea,que h es una TL.

La composicion de TLs es una TL.

Prueba. Sea h = g f la composicion de dos TLs. Tenemosh (a+ b) = g (f (a+ b)) = g (f (a) + f (b)) = g (f (a)) + g (f (b)) = h (a) + h (b)

h (αa) = g (f (αa)) = g (αf (a)) = αg (f (a)) = αh (a)

que es lo que se querıa demostrar.

La composicion de TLs cumple las siguientes propiedades:1. f (g h) = (f g) h (asociatividad)2. f (g+ h) = f g+ f h (distributividad a la izquierda)3. (f+ g) h = f h+ g h (distributividad a la derecha)4. f λg = λf g = λ (f g) (conmuta con el producto por escalares)

Prueba. Como (f (g h)) (a) = f (g (h (a))) = ((f g) h) (a), la composicion esasociativa. Con (f (g+ h)) (a) = f ((g+ h) (a)) = f (g (a) + h (a)) =

= f (g (a)) + f (h (a)) = (f g) (a) + (f h) (a) = ((f g) + (f h)) (a)probamos la distributividad a la izquierda. Para la distributividad a la derecha usamos lasigualdades ((f+ g) h) (a) = (f+ g) (h (a)) = f (h (a)) + g (h (a)) =

= (f h) (a) + (g h) (a) = ((f h) + (g h)) (a)Finalmente para probar que la composicion conmuta con el producto por escalares tenemos

(f λg) (a) = f (λg (a)) = λf (g (a)) = (λ (f g)) (a) == λf (g (a)) = (λf) (g (a)) = (λf g) (a) .

El lector debe ya debe poder encontrar por si mismo el porque de la validez de cada una

Page 80: Algebra Lineal

74 Capıtulo 3. Transformaciones lineales

de las igualdades utilizadas en esta prueba.

El algebra de operadores lineales

A una TL de un espacio vectorial en si mismo se le llama operador lineal. Nuevamente,usaremos la abreviatura OL para referirnos a los operadores lineales. Los OLs juegan (comoveremos mas adelante) un papel muy importante en el estudio de las TLs y por esto es quemerecen un nombre especial. El conjunto de todos los OLs de E se denotara por EndE. Lohacemos ası porque a los OLs tambien se les llama endomorfismos de un espacio vectorial.Por definicion tenemos EndE = Mor (E,E). La principal diferencia entre las TLs y los OLses que la operacion de composicion es una operacion interna en espacio vectorial EndE. Osea, si componemos dos OLs, obtenemos otro OL.

Si un espacio vectorial cualquiera (elAlg1) ∗ es asociativaAlg2) ∗ es distributiva con respecto a +Alg3) ∗ tiene elemento neutroAlg4) ∗ conmuta con el producto por escalares

cual ya trae definidos la suma y el pro­ducto por escalares) tiene otra operacionbinaria ∗ que cumple los axiomas en elrecuadro a la derecha entonces, se le lla­ma algebra . Observese que los primeros tres axiomas los podemos resumir en uno: lasuma de vectores y ∗ definen un anillo en el espacio vectorial. El cuarto axioma lo quequiere decir es que para cualquier escalar λ y cualesquiera vectores a y b se cumple queλa ∗ b = a ∗ λb = λ (a ∗ b).

Ya vimos (3.8 ) que la operacion de composicion de OLs cumple los axiomas Alg1, Alg2y Alg4. Para ver que EndE es un algebra solo nos queda comprobar que la composicion tieneelemento neutro. Pero esto es obvio ya que la funcion identidad cumple que fId = Id f = f.O sea, es el neutro para la composicion. Hemos demostrado el siguiente resultado

El espacio vectorial EndE en un algebra con respecto a la composicion.

Hay otras dos algebras importantes que deben ser muy conocidas por el lector. Primero,el conjunto de los polinomios con coeficientes reales R [x] es un espacio vectorial sobre R,pero ademas sabemos multiplicar polinomios. Este producto cumple todos los axiomas deAlg1­Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier campo. El segundoejemplo son los numeros complejos. Estos son un espacio vectorial de dimension dos so­bre los reales pero ademas sabemos multiplicar numeros complejos. La multiplicacion decomplejos tambien cumple todos los axiomas Alg1­Alg4.

Un algebra se le llama conmutativa si el producto de vectores es conmutativo. El algebra de losnumeros complejos y el algebra de polinomios sobre un campo son conmutativas. Las algebrasEndE casi nunca son conmutativas (salvo en dimension 1). Por ejemplo en el plano cartesiano R2

la rotacion f en 45 y la reeccion g en el eje y son (como veremos despues) OLs. Sin embargo, (g f) (1, 0) =(−1, 1) 6= (−1,−1) = (f g) (1, 0).

Page 81: Algebra Lineal

75Seccion 3.3 Extensiones lineales

El grupo general lineal

Una funcion cualquiera es biyectiva si y solo si esta tiene inversa. En el capıtulo anterior,cuando vimos los isomorfismos de espacios vectoriales, demostramos que si una TL tiene in­versa entonces esta inversa tambien es una TL. En particular, la funcion inversa de un OL esun operador lineal. Un operador lineal se le llama singular si este no tiene inverso. En el casocontrario se le llama no singular. A los OLs no singulares tambien se les llama automor­fismos del espacio vectorial. En otras palabras los automorfismos son los endomorfismosbiyectivos.

Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota porGL (E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, la funcionnula cumple que 0 = f−f. Sin embargo, la composicion de OLs no singulares es siempre unOL no singular. Luego, la composicion es una operacion binaria en GL (E) que ya sabemosque es asociativa y tiene elemento neutro. Ademas, cada elemento tiene inverso ya que f f−1 = f−1 f = Id. Luego, GL (E) es un grupo para la composicion al cual se llama grupogeneral lineal del espacio vectorial E.

3.3 Extensiones lineales

Estudiaremos en esta seccion una manera universal de construir TLs. Pero antes, veamosalgunas consideraciones de tipo general acerca de funciones entre conjuntos arbitrarios.

Extensiones y restricciones

Sean A y B dos conjuntos y A0 un subconjunto de A. Cada vez que se tiene una funcionf : A → B tambien se tiene una funcion f0 : A0 → B definida por f0 (a) = f (a) paracualquier a ∈ A0. A la funcion f0 se le llama restriccion de f a A0 y la denotaremos por fA0 .Todas las diferentes restricciones de f se obtienen al tomar diferentes subconjuntos A0.

Si h y g son dos funciones tales que h es una restriccion de g entonces se dice que ges una extension de h. Si esta dada una funcion g : A0 → B y A es un sobreconjunto deA0 entonces, pueden haber muchas extensiones h : A → B de g, ya que podemos escogerarbitrariamente los valores de h (x) para todos los x ∈ A\A0.

Es un problema frecuente en matematicas el encontrar extensiones que cumplan ciertaspropiedades. En nuestro caso, debemos encontrar extensiones que sean TLs. Formulemosnuestro problema mas precisamente. Sean E y F dos espacios vectoriales sobre K y N unconjunto de vectores de E. Sea h : E → F una TL. Sabemos que N ⊂ E y por lo tantotenemos la restriccion hN : N → F. ¿Sera posible para cualquier funcion g : N → F

encontrar una extension h : E → F de g que sea TL? ¿Sera unica tal extension? Veremosque ambas preguntas tienen respuesta positiva siN es una base.

Page 82: Algebra Lineal

76 Capıtulo 3. Transformaciones lineales

Para demostrar la existencia de la extension debemos construirla. Sea N una base de E

x 7→Xi∈N

αig (i)

y g : N → F una funcion arbitraria de N en F. Cualquier x ∈ E se expresa de forma unicacomo combinacion lineal de N o sea x =

Pi∈N αii. A la funcion h del

recuadro a la derecha se le llama extension lineal de g. Observese que(como debe ser) la restriccion de h a N es igual a g ya que si x ∈ Nentonces, la descomposicion de x en la baseN tiene coeficientes αi = 0para i 6= x y αi = 1 para i = x.

Las extensiones lineales son transformaciones lineales.

Prueba. Tenemosh (x+ y) =

Xi∈N

(αi + βi)g (i) =Xi∈N

αig (i) +Xi∈N

βig (i) = h (x) + h (y)

h (λx) =Xi∈N

λαig (i) = λXi∈N

αig (i) = λh (x)

y esto prueba que h es una TL.

Para demostrar la unicidad de la extension debemos convencernos de que dos TLs dis­tintas no pueden coincidir en una base.

Las TLs estan predeterminadas por sus valores en una base.

Prueba. Sean f, g : E→ F dos TLs yN una base de E. Supongamos que f (i) = g (i) paracualquier i ∈ N. Cualquier x ∈ E se expresa de forma unica como combinacion lineal deNo sea x =

Pi∈N αii. Luego

f (x) = f

ÃXi∈N

αii

!=Xi∈N

αif (i) =Xi∈N

αig (i) = g

ÃXi∈N

αii

!= g (x)

y por lo tanto las TLs f y g son iguales.

El isomorfismo entre FN y Mor (E,F)

Recordemos ahora de la Seccion 2.2 que el conjunto de todas las funciones deN en F esel conjunto de las N­adas de vectores de F, que este es un espacio vectorial para la suma yel producto por escalares definidos por coordenadas y que se denota por FN .

Si N es una base de E entonces, hemos construido una correspondencia biunıvoca entreFN y Mor (E,F). A cadaN­ada hN ∈ FN le corresponde su extension lineal h ∈ Mor (E,F)y a cada TL h ∈ Mor (E,F) le corresponde hN su restriccion a N (que es una N­ada).Queremos ver que esta correspondencia es un isomorfismo de espacios vectoriales.

Page 83: Algebra Lineal

77Seccion 3.3 Extensiones lineales

Si N es una base de E entonces, la biyeccionr : Mor (E,F) 3 h 7→ hN ∈ FN

es un isomorfismo de espacios vectoriales.

Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h0 ∈ Mor (E,F) yλ un escalar. Tenemos

r (h+ h0) = (h+ h0)N = hN + h0N = r (h) + r (h

0)

r (λh) = (λh)N = λhN = λr (h)

que se cumplen por las definiciones de suma y producto por escalares de lasN­adas.

Un criterio de isomorfismo

Al establecer que los espacios Mor (E,F) y FN son isomorfos es natural que esperemos

(1, 0, 0) 7→ (1, 0)

(0, 1, 0) 7→ (0, 1)

(0, 0, 1) 7→ (0, 1)

que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje de lasN­adas de vectores. En este caso queremos hacer la traducion de la propiedad de una TLde ser o no un isomorfismo de espacios vectoriales. Ya vimos en el capıtulo anterior queun isomorfismo transforma una base del dominio en una base del codominio. ¿Sera estapropiedad suficiente para comprobar que una TL es un isomorfismo?. Larespuesta es NO. Por ejemplo, la extension lineal de la funcion definidaen la base canonica de R3 como en el recuadro a la derecha transforma aesta base en la base canonica de R2 y sin embargo no es inyectiva. Nosfalta la propiedad evidentemente necesaria de que la restriccion de la TL debe ser inyectiva.

Una TL es un isomorfismo si y solo si su restriccion a unabase es inyectiva y la imagen de esta restriccion es una base.

Prueba. Ya hemos probado la necesidad. Para la suficiencia seaN una base de E y hN ∈ FNuna N­ada de vectores de F tal que sus coordenadas son todas diferentes (la inyectividad) yque el conjunto de sus coordenadas (la imagen) es una baseM = h (N) de F. Probemos quela extension lineal h : E → F de hN es un isomorfismo. Efectivamente, si x =

Pi∈N αii y

y =P

i∈N βii son dos vectores cualesquiera en E y h (x) = h (y) entonces,Xi∈N

αih (i) =Xi∈N

βih (i)

y como todos los h (i) = hi son diferentes, estas son dos combinaciones lineales iguales dela base M. Por la caracterizacion 2.9.3 de los conjuntos LI los coeficientes de estas combi­naciones lineales tienen que coincidir αi = βi y por lo tanto x = y. Luego, h es inyectiva.

Para ver que h es sobreyectiva sea z vector en F. Como M es una base de F existencoeficientes γi tales que z =

Pi∈N γih (i) y por lo tanto z = h (v) donde v =

Pi∈N γii.

Page 84: Algebra Lineal

78 Capıtulo 3. Transformaciones lineales

3.4 Coordinatizacion de transformaciones lineales

Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios entrelos cuales esta definida la TL. Sean N y M bases de E y F respectivamente. Tenemos losisomorfismos de coordinatizacionE↔ KN y F↔ KM. Para cada f ∈ Mor (E,F) tenemos

la composicion g : KN → Ef→ F→ KM que es una TL en Mor

¡KN,KM

¢.

Recıprocamente para cada g ∈ Mor¡KN,KM

¢tenemos la

Ef−→ Fl l

KN −→g

KM

composicion f : E → KN g→ KM → F que es una TL enMor (E,F). Es facil ver y es intuitivamente claro que esta corres­pondencia biunıvoca Mor (E,F)↔ Mor

¡KN,KM

¢es un isomor­

fismo de espacios vectoriales.

Ejercicio 63 Sean E ↔ E0 y F ↔ F0 isomorfismos de espacios vectoriales. Construya unisomorfismo Mor (E,F)↔ Mor (E0,F0).

Podemos pensar a N como la base canonica de KN. Luego, aplicando 3.12 obtenemosel isomorfismo Mor

¡KN,KM

¢ ↔ ¡KM

¢N= KM×N que es el conjunto de las MN

matrices tales que cada columna es de soporte finito. Para el caso que mas nos interesa enqueN yM son bases finitas obtenemos Mor (E,F)↔ ¡

KM¢N= KMN . Sea f ∈ Mor (E,F).

A la matriz αMN que le corresponde a f mediante el isomorfismo construido se le llamamatriz de la TL f en las basesM yN. Los resultados de la seccion anterior nos dicen comoconstruir αMN dada f. Para cada i ∈ N la columna αMi es el vector f (i) coordinatizado enla baseM. O sea f (i) =

Pa∈M αaia.

Ejercicio 64 Pruebe que la funcion K [x] 3Pn

i=0 aixi 7→ Pn

i=0 ai (x+ 1)i ∈ K [x] es un

isomorfismo de espacios vectoriales. Construya algunas columnas de la matriz αNN de estaTL en la base canonica del espacio de polinomios. Demuestre que las entradas de esta matrizestan definidas por la ecuacion recursiva αkn = αk,(n−1) + α(k−1),(n−1) con las condicionesde frontera αkn = 0 si k > n y αkn = 1 si k = 0 o k = n.

La formula f (i) =P

a∈M αaia nos dice tambien como construir f dada αMN . Lasimagenes de los i ∈ N las calculamos por la formula y a f la construimos por extensionlineal. O sea, si E 3 x =

Pi∈N βii entonces,

F 3 f (x) =Xi∈N

βif (i) =Xi∈N

βi

Xa∈M

αaia =Xa∈M

ÃXi∈N

αaiβi

!a

La expresionP

i∈N αaiβi es un escalar y hay uno para cada a ∈ M por lo que son lascoordenadas de una M­ada. A esta M­ada se le llama producto de la matriz αMN por elvector βN y se denota por αMNβN .

Page 85: Algebra Lineal

79Seccion 3.4 Coordinatizacion de transformaciones lineales

Observese que este producto lo podemos escribir como en el re­αMNβN =

Xi∈N

αMiβi cuadro a la izquierda. Esto quiere decir que este producto se obtie­ne multiplicando las columnas de αMN por las correspondientes

coordenadas de βN y sumando los resultados. En otras palabras αMNβN es la combinacionlineal de las columnas de αMN cuyos coeficientes son las coordenadas de βN .

En esta seccion estudiaremos mas sistematicamente el isomorfismo entre las TLs y lasmatrices repitiendo mas detalladamente todo lo dicho en esta introduccion. Si el lector noentendio muy bien, le recomiendo seguir adelante y despues releer esta introduccion.

El producto escalar canonico

Sean αN y βN dos N­adas. El producto escalar de estas N­adasαNβN =

Xi∈N

αiβies el escalar del recuadro a la derecha. De esta manera, el productoescalar de dos vectores es un elemento del campo.

No se debe confundir el “producto por un escalar” con el “producto escalar”. Elprimero es un producto de un escalar por un vector y el segundo es un produc­to de dos vectores. Mas adelante veremos que hay otros productos definidos en

cualquier espacio vectorial. Por esto a este producto lo llamaremos canonico y solamenteesta definido en el espacio vectorial de lasN­adas para cierto conjunto finito de ındicesN.

El producto escalar cumple las siguientes propiedades:1. xy = yx (conmutatividad)2. x (y+ z) = xy+ xz (distributividad a la izquierda)3. (y+ z)x = yx+ zx (distributividad a la derecha)4. x (λy) = (λx)y = λ (xy) (conmuta con el producto por escalares)

Ejercicio 65 Pruebe las principales propiedades del producto de N­adas (3.14).

Ejercicio 66 Busque tres vectores x y z en el plano R2 tales que (xy)z 6= x (yz). [130]Ejercicio 67 Pruebe que ∀αN ∈ RN se cumple que α2N = αNαN ≥ 0.

El producto de matrices

Sean αMN y βNL dos matrices. Observese que el conjunto de ındices de las columnasde la primera, coincide con el conjunto de ındices de los renglones de la segunda. Ası, tantoun renglon αiN como una columna βNj son vectores del espacio KN de N­adas y podemosformar su producto αiNβNj. Cuando hacemos esto, para todos los i ∈ M y todos los j ∈ Lobtenemos una ML­matriz formada por todos estos productos. A esta matriz se le llama elproducto de las matrices αMN y βNL y se denotara por αMNβNL. Resumiendo, si γML =αMNβNL entonces γij = αiNβNj. Por ejemplo, si los conjuntos de ındices son M = 1, 2,

Page 86: Algebra Lineal

80 Capıtulo 3. Transformaciones lineales

N = 1, 2, 3 y L = 1, 2 entonces, en forma grafica tenemosµα11 α12 α13α21 α22 α23

¶⎛⎝ β11 β12β21 β22β31 β32

⎞⎠ =

µα1NβN1 α1NβN2α2NβN1 α2NβN2

¶y por definicion de producto escalar de vectores tenemosµ

α1NβN1 α1NβN2α2NβN1 α2NβN2

¶=

µ P3

i=1 α1iβi1P3

i=1 α1iβi2P3

i=1 α2iβi1P3

i=1 α2iβi2

¶.

Productos de matrices y vectores

Sean αMN y βNL dos matrices. Si el conjunto de indices L tiene un solo elemento en­tonces la matriz βNL tiene una sola columna. En este caso podemos escribir βNL = βN1y diremos que βN1 es un vector columna o una N­ada columna. Obviamente, podemospensar que βN1 es una N­ada βN . En este caso podemos hacer el producto de matricesαMNβN1 = αMNβN y este es el producto de una matriz por un vector definido al princi­pio de esta seccion. Analogamente se define el producto por el otro lado. Si el conjunto deindicesM tiene un solo elemento entonces la matriz αMN tiene un solo renglon. En este casopodemos escribir αMN = α1N y diremos que α1N es un vector renglon o N­ada renglon.Obviamente, podemos pensar que α1N es una N­ada αN . En este caso podemos hacer elproducto de matrices α1NβNL = αNβNL y esta es la definicion del producto de un vectorpor una matriz.

En este libro, no haremos distinciones entre N­adas, N­adas columna y N­adas renglono sea α1N = αN1 = αN . Para esto, dimos las definiciones de producto de una matriz por unvector y al reves. Intuitivamente, el lector debe pensar que cuando aparesca un vector en unproducto de matrices este se convierte en vector fila o columna segun sea conveniente.

Claro, este abuso de la notacion aunque es muy comodo puede llevar (si nos pone­mos pedantes) a contradicciones. Por ejemplo, podemos sumar dos N­adas perono podemos sumar unaN­ada columna con unaN­ada renglon.

Observese que, no solo el producto de matrices por vectores y al reves son casos particu­lares del producto de matrices, sino tambien el producto escalar de dos vectores al constatarque αNβN = α1NβN1.

Ejercicio 68 Tome dos matrices con entradas enteras y multiplıquelas. Repita este ejerciciohasta que usted comprenda muy bien el concepto de producto de matrices.

La transformacion lineal de una matriz

Sea αMN unaMN­matriz. Esta matriz define una funcion KN 3 βN → αMNβN ∈ KM .Esta funcion es una TL como ya vimos al principio de esta seccion utilizando el isomorfismoMor

¡KN,KM

¢↔ KMN . Sin embargo, la prueba directa de este hecho es muy sencilla.

Page 87: Algebra Lineal

81Seccion 3.4 Coordinatizacion de transformaciones lineales

El multiplicar una matriz fija porN­adas es una TL.

Prueba. Sea αMN una matriz cualquiera pero fija. Por las propiedades del producto de vec­tores tenemos que para todo i ∈M se cumple que αiN (βN + γN) = αiNβN+αiNγN y queαiN (λβN) = λ (αiNβN). Esto significa que son validas las igualdades αMN (βN + γN) =

αMNβN + αMNγN y αMN (λβN) = λ (αMNβN).

La matriz de una transformacion lineal

En la proposicion anterior vimos que al mutiplicarMN­matrices porN­adas obtenemosejemplos de TLs. Ahora queremos ver que estos son todos los ejemplos posibles, o sea, quecualquier TL de KN en KM se obtiene multiplicando por unaMN­matriz. En realidad, estoya lo probamos al principio de esta seccion al construir el isomorfismo Mor

¡KN,KM

¢ ↔KMN . Sin embargo, aquı es mas simple ya que tenemos bases canonicas de KN y KM . SeaE = ei : i ∈ N la base canonica de KN . Recordemos que ei es la N­ada con coordenadasδji = 1 si i = j y δji = 0 si i 6= j. Sea f : KN → KM una TL. Denotemos αMi = f (ei) ∈KM . A la matriz αNM cuyas columnas son las imagenes de la base canonica mediante la TLf la llamaremos matriz de la TL f.

Sea f : KN → KM una TL y αMN su matriz. Entonces, pa­ra cualquier βN ∈ KN se cumple que f (βN) = αMNβN .

Prueba. Sea f0 : βN 7→ αMNβN . Sabemos que f y αMNei =P

j∈M αMjδji = αMif0 son TLs. Si i ∈ N entonces, por definicion de la basecanonica y del producto de una matriz por un vector tenemos la igualdad del recuadro. Luegof y f0 coinciden en la base canonica y por extension lineal ambas son la misma funcion.

Ejercicio 69 Halle la matriz de la rotacion con angulo α en R2. [130]

Composicion de TLs y producto de matrices

La matriz de la composicion de dos TLs esigual al producto de las matrices de las TLs.

Prueba. Sean f ∈ Mor¡KN,KM

¢y g ∈ Mor

¡KM,KL

¢dos TLs. Sean αMN y βLM las

matrices de f y g respectivamente. Para cualquier γN ∈ KN y cualquier i ∈ L tenemos

βiM (αMNγN) =Xj∈M

βij (αjNγN) =Xj∈M

βij

Xk∈N

αjkγk =

Page 88: Algebra Lineal

82 Capıtulo 3. Transformaciones lineales

=Xk∈N

Xj∈M

βijαjkγk =Xk∈N

(βiMαMk)γk = (βiMαMN)γN

y por lo tanto βLM (αMNγM) = (βLMαMN)γN . Como γN 7→ βLM (αMNγN) es la TL g fentonces, tenemos (g f) (γN) = (βLMαMN)γN que es lo que se querıa probar.

El producto de matrices es asociativo, distribuye por ambos ladoscon la suma de matrices y conmuta con el producto por un escalar.

Prueba. Sean f, g y h TLs cuyas matrices son αMN , βLM y γKL respectivamente. Lamatriz de (h g) f es (γKLβLM)αMN . La matriz de h (g f) es γKL (βLMαMN). Co­mo la composicion de TLs es asociativa tenemos (h g) f = h (g f) y por lo tanto(γKLβLM)αMN = γKL (βLMαMN). Esto prueba la asociatividad.

Las demas propiedades se prueban exactamente igual o sea, se desprenden de las respec­tivas propiedades de las TLs y de la proposicion 3.17.

Ejercicio 70 Pruebe la asociatividad del producto de matrices directamente de la definicionde producto o sea, sin usar TLs. [130]

El espacio de todas lasNN­matriceses un algebra isomorfa a End

¡KN¢.

Prueba. Ya sabemos queKNN es un espacio vectorial para la suma de matrices y el productode una matriz por un escalar. El resultado anterior hace la mayor parte del trabajo necesariopara mostrar que KNN es un algebra. Solo falta el neutro para el producto que es la matrizde la identidad en KN . Esta matriz es INN que cumple que Iij = δij (el delta de Kronecker)y que la llamaremos matriz identidad.

Ademas, ya sabemos que la aplicacion que a un OL en KN le hace corresponder sumatriz es un isomorfismo de espacios vectoriales. La proposicion 3.17 completa la tarea dedemostrar que esta aplicacion es un isomorfismo de algebras.

Matrices inversas

Sea f ∈ Mor¡KN,KM

¢y αMN la matriz de f. La funcion f es biyectiva si y solo si,

existe la TL f−1 tal que f f−1 = Id¡KN¢

y f−1 f = Id¡KM

¢. A la matriz de la TL f−1

se le llama matriz inversa de αMN y se denota por α−1MN . De la proposicion 3.17 obtenemos

que la matriz inversa cumple que α−1MNαMN = INN y αMNα−1

MN = IMM . Observese que elconjunto de ındices de las columnas de α−1

MN es M y no N. Analogamente, el conjunto deındices de los renglones de α−1

MN esN y noM.De la definicion es inmediato que una matriz tiene inversa si y solo si su TL es un iso­

morfismo de espacios vectoriales. En particular los conjuntos de ındices N y M tienen que

Page 89: Algebra Lineal

83Seccion 3.5 Cambios de base

tener el mismo cardinal ya que estos cardinales son las dimensiones del dominio y el codo­minio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nos preocuparemos en traducirnuestro criterio de isomorfismo 3.13 al lenguaje de matrices.

Una matriz cuadrada αMN tiene inversa si y solo si suscolumnas son todas diferentes y son una base de KM .

Prueba. Sea αMN una matriz cuadrada y f ∈ Mor¡KN,KM

¢su TL. La resticcion de f

a la base canonica de KN es la N­ada de las columnas de la matriz αMN . Por 3.13 paraque f tenga funcion inversa es necesario y suficiente que esta restriccion sea inyectiva (lascolumnas diferentes) y que su imagen (el conjunto de columnas) sea una base de KM .

Es posible probar un criterio analogo al anterior substituyendo las columnas por los ren­glones. Sin embargo, su prueba aquı se nos harıa innecesariamente complicada. Mejor lodejaremos para el proximo capıtulo donde esto sera una facil consecuencia de un resultadomucho mas importante.

Ejercicio 71 Sean f y g las rotaciones del plano R2 en los angulos α y β respectivamente.Use el ejercicio 69 para hallar las matrices en la base canonica de f, g y f g. Use 3.17 parahallar formulas para el seno y el coseno de la suma de dos angulos. [131]

3.5 Cambios de base

Es usual en las aplicaciones que sea conveniente realizar ciertos calculos en un sistema decoordenadas y despues realizar otros calculos en otro sistema de coordenadas. En el algebralineal estos cambios de coordenadas son lineales o sea, la transformacion que lleva unascoordenadas a otras es una TL.

Cambios de base en un espacio vectorial

Sean V y N dos bases del espacio E. Conocemos los isomorfismos de coordinatizacionKV ↔ E ↔ KN . Nuestro problema ahora es: dado una V­ada βV que son las coordenadasdel vector x en la base V como hallar las coordenadas γN de x en la baseN. En este caso lasletras V yN tienen el sentido de que V es la base “vieja” y queN es la base “nueva”.

Sea αNV la matriz cuyas columnas son los vectores de la base V expre­v =

Xi∈N

αivisados en las coordenadas de N. O sea, para cualquier v ∈ V tenemos laformula en el recuadro a la derecha. A la matriz αNV se le llama matriz decambio de base (de V a N). Esta matriz no es otra cosa que la matriz delisomorfismo KV → E→ KN .

Page 90: Algebra Lineal

84 Capıtulo 3. Transformaciones lineales

Si βV es la V­ada de las coordenadas de un vector en la base V entonces,αNVβV es la N­ada de las coordenadas del mismo vector en la base N.

Prueba. Descompongamos x ∈ E en las dos bases. Tenemos, x =P

v∈V βvv =P

i∈N γii

y por lo tantox =

Xv∈V

βv

ÃXi∈N

αivi

!=Xi∈N

ÃXv∈V

αivβv

!i =

Xi∈N

γii

De la unicidad de las coordenadas de cualquier vector en la base N obtenemos la igualdadPv∈V αivβv = γi que es la que se nacesitaba demostrar.

Ejemplo. Queremos calcular las coordenadas de un vector u = (x, y) ∈ R2 en la baseN = a1,a2 donde a1 = (2, 3) y a2 = (1, 2). Las coordenadas (x, y) son las coordenadasde u en la base canonica. Luego, V = e1,e2 es la base canonica y para construir la matrizαNV de cambio de base necesitamos las coordenadas de V en la base N. Estas coordenadasse pueden hallar resolviendo dos sistemas de ecuaciones lineales pero es mas sencillo usarla siguiente argumentacion. Como un cambio de base es un isomorfismo entonces la matrizαNV tiene inversa que es la matriz de cambio de la baseN a la base V . Las columnas de estamatriz ya las tenemos, son a1y a2. Luego, denotando p y q las coordenadas que buscamos,o sea, u = pa1 + qa2 tenemos:µ

p

q

¶=

µ2 1

3 2

¶−1 µx

y

¶=

µ2 −1

−3 2

¶µx

y

¶=

µ2x− y

2y− 3x

¶.

y en estos calculos lo unico que no conoce el lector es como calcular la matriz inversa. Pero,esto lo pospondremos hasta el proximo capıtulo.

Cambios de base en el espacio de transformaciones lineales

Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V , N dosbases del espacio E y W, M dos bases del espacio F. Conocemos los isomorfismos decoordinatizacion KWV ↔ Mor (E,F)↔ KMN . El problema ahora es: dada unaWV­matrizαWV que es la matriz de la TL f : E→ F en las bases V yW como hallar la matriz βMN de fen las basesN yM. Nuevamente, V,W son las bases “viejas” yM,N son las bases nuevas.

Sea γNV la matriz de cambio de base de V a N en E. Sea λMW lav =

Xi∈N

γivi

w =Xj∈M

λjwj

matriz de cambio de base de W a M en F. O sea, para cualquier v ∈ Vy cualquier w ∈ W tenemos las formulas en el recuadro a la derecha.Estas matrices no son otra cosa que las matrices de los isomorfismos decoordinatizacion KV → E→ KN y KW → F→ KM .

Si αWV es la matriz de f en las bases V yW entonces,λMWαWVγ

−1NV es la matriz de f en las bases N y M.

Page 91: Algebra Lineal

85Seccion 3.5 Cambios de base

Prueba. Las columnas de αWV son las imagenes por f de la basef (v) =

Xw∈W

αwvw

f (i) =Xj∈M

βjij

V expresadas en la base W o sea, ∀v ∈ V se cumple la formuladel recuadro a la derecha. Denotemos por βMN la matriz de f en las

bases N, M. Las columnas de βMN son las imagenes por f de la baseN expresadas en la base M. O sea, para cualquier i ∈ N se cumple laformula del recuadro a la izquierda.

Substituyendo en la formula de la derecha las formulas que definen las matrices λMW yγNV obtenemos X

i∈Nγivf (i) =

Xj∈M

ÃXw∈W

λjwαwv

!j

y en esta igualdad substituimos f (i) por la formula de la izquierda para obtenerXj∈M

ÃXi∈N

βjiγiv

!j =

Xj∈M

ÃXw∈W

λjwαwv

!j.

De la unicidad de la representacion de cualquier vector en la base M obtenemos que paracualesquiera j ∈ M y v ∈ V se cumple que

Pi∈N βjiγiv =

Pw∈W λjwαwv y por lo tanto

βMNγNV = λMWαWV . Como γNV es la matriz de un isomorfismo entonces, γNV tieneinversa por lo que podemos despejar βMN .

La proposicion anterior la podemos interpretar graficamen­KV

αWV−→ KWγNV ↓ ↓ λMW

KN −→βMN

KM

te de la siguiente manera. Las matrices αWV , βMN , γNV , yλMW son las matrices de TLs entre espacios como se muestraen el diagrama a la izquierda. Se dice que un diagrama defunciones es conmutativo si cualesquiera dos caminos di­

rigidos entre dos cualesquiera conjuntos son funciones iguales. En nuestro caso, el que eldiagrama a la izquierda sea conmutativo lo quiere decir es que βMNγNV = λMWαWV .

Cambios de base en el espacio de operadores lineales

Si f ∈ End (E) = Mor (E,E) es un OL entonces, no tiene sentido escoger bases diferen­

KVαVV−→ KV

γNV ↓ ↓ γNVKN −→

βNNKN

tes para el dominio y el codominio ya que estos son iguales. Sean V , N dos bases de E. Elproblema ahora es: dada una VV­matriz αVV que es la matriz del OL f en la base V , hallar lamatriz βNN de f en la baseN. Sea γNV la matriz de cambio debase de V aN en E. En este caso, el diagrama es el de la dere­cha. Ya no hay que probar la conmutatividad de este ya que el,es un caso particular del anterior. Luego, βNNγNV = γNVαVVy despejando obtenemos que βNN = γNVαVVγ

−1NV .

Ejemplo. Sea f la TL del plano R2 que tiene la matriz del recuadro aµcosα − sinαsinα cosα

¶la izquierda en la base V = a1,a2 donde a1 = (2, 3) y a2 = (1, 2).¿Cual sera la matriz de f en la base canonica? La matriz de cambio

de base a la base canonica es la que tiene como columnas a los vectores a1 y a2. Luego, lamatriz de f en la base canonica esµ

2 1

3 2

¶µcosα − sinαsinα cosα

¶µ2 1

3 2

¶−1

=

µcosα+ 8 sinα −5 sinα13 sinα cosα− 8 sinα

Page 92: Algebra Lineal

86 Capıtulo 3. Transformaciones lineales

y esto es una advertencia de que un operador lineal puede tener en una base una matriz quees igual a la de la rotacion en la base canonica y sin embargo no es una rotacion.

3.6 El nucleo y la imagen de una transformacion lineal

En esta seccion queremos ver que para describir todas las transformaciones lineales noses suficiente conocer las inmersiones, las proyecciones y los isomorfismos. Despues, vere­mos interesantes consecuencias de este resultado.

Definiciones

Para esto comenzaremos con dos definiciones fundamentales. Sea f : E→ F una TL.Al conjunto y ∈ F | ∃x ∈ E f (x) = y se le llama imagen de la TL. La imagen de f sedenotara por Im f. Al conjunto x ∈ E | f (x) = 0 se le llama nucleo de la TL. El nucleo def se denotara por Ker f. Esta notacion es debido a que en ingles nucleo es “kernel”. Descrip­tivamente la imagen es el conjunto de los vectores en el codominio que tienen preimagen yel nucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0.

La imagen y el nucleo de una TL son subespacios.

Prueba. Sean x,y vectores en Im f y λ ∈ K. Por definicion existen a,b tales que f (a) =x, f (b) = y. Como f es lineal tenemos f (a+ b) = f (a) + f (b) = x+ y y ademasf (λa) = λf (a) = λx. Esto quiere decir que Im f es un subespacio.

Sean a,b vectores en Ker f y λ ∈ K. Tenemos f (a+ b) = f (a) + f (b) = 0+ 0 = 0y f (λa) = λf (a) = λ0 = 0. Esto quiere decir que Ker f es un subespacio.

El nucleo y la imagen de una TL son subespacios de espacios diferentes. Si f :E→ F entonces Ker f ⊂ E e Im f ⊂ F. Solamente en el caso que la TL es un OLo sea, cuando E = F el nucleo y la imagen son subespacios del mismo espacio.

Sin embargo, como veremos mas adelante, en este caso pasan cosas raras ya que, aunqueestos subespacios tienen dimensiones complementarias ellos NO son complementarios engeneral.

Descomposicion de transformaciones lineales

Ahora, demostraremos el resultado prometido al principio de la seccion. Sea f : E →F una TL. Sea K un subespacio complementario cualquiera pero fijo del Ker f. Sea fK larestriccion de f al subespacio K. Denotemos i : Im f → F la inmersion del subespacio Im fen F. Por ultimo, denotemos πK : E³ K la proyeccion de E a K a lo largo del Ker f.

Page 93: Algebra Lineal

87Seccion 3.6 El nucleo y la imagen de una transformacion lineal

Teorema de Descomposicion de una TL

f = i fK πK y fK es un isomorfismo.

Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.28 (pagina 62) existen unosunicos vectores a ∈ K, b ∈ Ker f tales que x = a+ b. De aquı obtenemos

(i fK πK) (x) = i (fK (πK (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x)y con esto queda probado que f = i fK πK.

Para probar que fK es un isomorfismo sea f (x) ∈ Im f. Por 2.28 existen unos unicosvectores a ∈ K, b ∈ Ker f tales que x = a+ b. Como fK (a) = f (a) = f (a) + f (b) =f (x) entonces fK es sobreyectiva. Si fK (a) = fK (b) entonces, fK (a− b) = 0. Como(a− b) ∈ K ∩Ker f entonces, a− b = 0 o sea a = b. Luego, fK es inyectiva.

Este teorema lo podemos visualizar mas facilmente si observa­E

f−→ F

πK ↓ ↑ iK −→

fKIm f

mos el diagrama de la derecha. La primera afirmacion del Teoremade Descomposicion de una TL (3.24) lo que dice es que este dia­grama es conmutativo.

Para cualquier transformacion lineal f : E→ F,dimE = dimKer f+ dim Im f.

Prueba. Por el teorema anterior Im f es isomorfo a un complementario de Ker f.

Transformaciones lineales con nucleo trivial

Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector cerosiempre es un elemento del nucleo. Si el nucleo solo contiene al vector cero se dice que ftiene nucleo trivial. Cualquier TL lineal inyectiva tiene nucleo trivial ya que en este caso lapreimagen de cualquier vector es unica. Lo importante es que el recıproco tambien es cierto.

Una TL es inyectiva si y solo si su nucleo es trivial.

Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos(f (x) = f (y))⇔ (f (x)− f (y) = 0)⇔ (f (x− y) = 0)⇔ (x− y ∈ Ker f)

y por lo tanto el que halla dos vectores diferentes cuyas imagenes sean iguales es equivalentea la existencia de un vector no nulo en el nucleo de la TL.

Un criterio de isomorfismo

Espero que el lector recuerde el sencillo resultado de teorıa de conjuntos: toda funcioninyectiva de un conjunto finito en otro con el mismo numero de elementos es biyectiva. Dehecho, este teorema lo usamos en el primer capıtulo para probar que Zp es un campo para

Page 94: Algebra Lineal

88 Capıtulo 3. Transformaciones lineales

p primo. El objetivo ahora, es mostrar que “exactamente” el mismo resultado (simple peromuy util) se cumple para espacios vectoriales de dimension finita.

Sean E y F dos espacios de dimensiones finitas e iguales.Una TL f : E → F es inyectiva si y solo si es sobreyectiva.

Prueba. Por 3.25 tenemos dimKer f = dimE − dim Im f. Si f es sobreyectiva entonces,F = Im f. Por hipotesis dimF = dimE. De aquı, debido a que todas las dimensiones sonfinitas, dimKer f = 0 y por lo tanto Ker f = 0. De 3.26 concluimos que f es inyectiva.

Si f es inyectiva entonces, la funcion f : E → Im f es un isomorfismo y por lo tantodimE = dim Im f. Por hipotesis dimF = dimE. Como Im f es un subespacio de F entonces,aplicando 2.17 (pagina 52) obtenemos F = Im f.

Como consecuencia de este resultado probaremos que para comprobar que dos opera­dores lineales f y g en un espacio de dimension finita son el inverso uno del otro, solo esnecesario comprobar una de las dos igualdades g f = Id o f g = Id.

Sean f, g : E → E dos OLs de un espacio finito dimen­sional. Entonces, f g = Id si y solo si g f = Id.

Prueba. La funcion identidad es sobreyectiva. Luego, si fg = Id entonces, f es sobreyecti­va. Por 3.27 f es inyectiva y por lo tanto tiene inversa f−1. Componiendo con f−1 obtenemosf−1 f g = f−1 Id y por lo tanto g = f−1.

Descomposicion canonica de transformaciones lineales

Para aplicar el Teorema de Descomposicion de una TL (3.24) necesitamos escoger (yaque hay muchos) un subespacio complementario K del nucleo de f. Ya vimos (vease 2.33)que cualquier tal subespacio es isomorfo al cociente E/Ker f. Queremos substituir K porE/Ker f en el Teorema de Descomposicion de una TL (3.24) para ası obtener otra versiondel mismo que no dependa de escoger nada, o sea que sea canonico.

En el Teorema de Descomposicion de una TL (3.24) estan

Ef−→ F

? ↓ ↑ iE/Ker f ←→

?Im f

involucradas tres funciones: la proyeccion πK (que es sobreyec­tiva), la restriccion fK (que es biyectiva) y la inmersion i (que esinyectiva). Esta ultima no depende de K y podemos quedarnoscon ella. Ası que todas nuestras incognitas estan representadasen el diagrama de la derecha.

¿Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas va­

x 7→ Ker f+ xf (x) 7→ Ker f+ x

riantes. El espacio cociente E/Ker f esta formado por todos los subespacios afines Ker f+x.El espacio Im f esta formado por todas las imagenes f (x). Luego, launica posible respuesta a nuestra pregunta son las funciones defini­das en el recuadro a la izquierda.

Page 95: Algebra Lineal

89Seccion 3.6 El nucleo y la imagen de una transformacion lineal

La primera de estas funciones tiene dominio E, codominio E/Ker f, se le llama funcionnatural y se denota por “nat”. La funcion natural es una TL ya que

nat (x+ y) = Ker f+ x+ y = Ker f+ x+Ker f+ y = nat (x) + nat (y)nat (λx) = Ker f+ λx = λKer f+ λx = λ (Ker f+ x) = λ nat (x)

y ademas es evidentemente sobreyectiva.La segunda de estas funciones es nuestra preocupacion fundamental ya que tenemos que

probar que es un isomorfismo. Esta funcion tiene dominio Im f, codominio E/Ker f y ladenotaremos por g. La funcion g es una TL ya que

g (f (x) + f (y)) = g (f (x+ y)) = Ker f+ x+ y = g (f (x)) + g (f (y))g (λf (x)) = g (f (λx)) = Ker f+ λx =λ (Ker f+ x) = λg (f (x))

y es tambien evidentemente sobreyectiva.¿Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios afines

Ker f+ x y Ker f+ y son el mismo entonces, f (x) = f (y). Como para un subespacio afınE paralelo al Ker f se cumple que (E = Ker f+ x)⇔ (x ∈ E) entonces, la inyectividad de ges equivalente a que la funcion f sea constante en cualquier subespacio afın paralelo al Ker f.La cadena de equivalencias

(y ∈ Ker f+ x)⇔ (∃a ∈ Ker f | y = a+ x)⇔ (f (y− x) = 0)⇔ (f (y) = f (x))

nos convence de que g es inyectiva independientemente de quien sea f y de la validez delsiguiente resultado.

Los subespacios afines paralelos a Ker f son precisamentelos conjuntos de vectores en que la funcion f es constante.

Luego, g es un isomorfismo y por lo tanto tiene un isomor­

Ef−→ F

nat ↓ ↑ iE/Ker f −→

f0Im f

fismo inverso que denotaremos por f0. El isomorfismo f es elque a un subespacio afın Ker f + x le hace corresponder f (x).Ası completamos nuestro diagrama como en el recuadro a laderecha. Solo nos falta demostrar que este es conmutativo. Sinembargo esto es muy facil porque la composicion de funciones

xnat7−→ Ker f+ x

f07−→ f (x)i7−→ f (x)

es evidentemente igual a la funcion f.

La importancia del resultado 3.29 no se limita a ser el eje central de la descomposi­cion canonica de una transformacion lineal. Como veremos en el proximo capıtulo, este estambien clave para poder encontrar el conjunto de todas las soluciones de un sistema deecuaciones lineales.

Page 96: Algebra Lineal

90

Page 97: Algebra Lineal

os determinantes son una funcion que a cada matriz cuadrada le hace corresponderun elemento del campo. Todo lo que se digamos acerca de la importancia de los de­terminantes en las matematicas es poco. Este es uno de los conceptos sin los cuales

realmente no se puede entender nada en las matematicas superiores. En este capıtulo dare­mos la definicion de los determinantes, estudiaremos sus propiedades, metodos de calculoy seremos capaces, gracias a ellos, de resolver los sistemas de ecuaciones lineales de formageneral.

4.1 Permutaciones

La definicion de determinante de una matriz pasa inevitablemente por la definicion delsigno de una permutacion. El lector debe entender bien esta seccion para poder pasar al estu­dio de los determinantes. La excepcion es la prueba de 4.5 que por complicada e irrelevantepara los determinantes puede ser omitida en una primera lectura.

El grupo simetrico

Sea N un conjunto finito. Una permutacion de N es una biyeccion de N en N. Alconjunto de todas las permutaciones deN lo denotaremos por SN . La composicion de biyec­ciones es una biyeccion y toda biyeccion tiene inversa, por lo tanto, SN es un grupo respectoa la composicion. Al grupo (SN, ) se le llama el grupo simetrico de N. Denotaremos porIdN a la funcion identidad que es el neutro de SN .

Si |M| = |N| entonces los grupos SM y SN son isomorfos.

Prueba. Sean M y N son dos conjuntos del mismo cardi­M

σ−→ M

ω ↓ ↑ ω−1

N −→ωσω−1

N

nal. Si ω : M → N es una biyeccion entonces fijandonos enel diagrama conmutativo del recuadro a la derecha obtenemosuna funcion ∆ : SM 3 σ 7→ ωσω−1 ∈ SN . Observemos, que∆ tiene inversa SN 3 ρ 7→ ω−1ρω ∈ SM .

Ademas, ∆ (σθ) = ωσθω−1 = ωσω−1ωθω−1 = ∆ (σ)∆ (θ) y por lo tanto, ∆ es unisomorfismo de los grupos SM y SN .

Page 98: Algebra Lineal

92 Capıtulo 4. Determinantes

El lector debe interpretar este resultado como que, en el grupo SM podemos cambiarle elnombre a los elementos deM mediante la biyeccion δ :M→ N y obteniendo el grupo SN .En particular, el numero de elementos de SN solo depende del numero de elementos enN.

El numero de permutaciones de un conjunto con n elementos es n!.

Prueba. Para la prueba es mas claro encontrar ρ (n) el numero de biyecciones f :M→ N

donde |M| = |N| = n. Si n = 1 entonces ρ (n) = 1 = 1!. Hagamos induccion en n. Sii ∈ M entonces, el conjunto de biyecciones lo podemos partir en n partes disjuntas seguncual sea j = f (i). Cada parte tiene tantos elementos como biyecciones f : M\i → N\j ypor hipotesis de induccion este numero es (n− 1) !. Luego, ρ (n) = n (n− 1) ! = n!.

Ciclos

Sea M = x0, . . . , xn−1 ⊆ N. A la permutacion

σ (y) =

¯xi+1modn si y = xiy si y /∈M

σ mostrada en el recuadro a la derecha se le llama ci­clo de orden n. A esta permutacion se le denotara por(x0, . . . , xn−1). A los ciclos de orden 2 se les llamatransposiciones. Dos ciclos (x0, . . . , xn−1) y (y0, . . . , ym−1) se les llama disjuntos si ningunxi es igual a algun yj. Es importante notar que la composicion de ciclos disjuntos es conmu­tativa pero la composicion de ciclos en general no lo es.

Toda permutacion es composicion de ciclos disjuntos.

Prueba. Hagamos la prueba por induccion en n = |N|. Para n = 1 el grupo SN tiene unasola permutacion que es la identidad y la identidad es un ciclo. Sea n > 1 yω ∈ SN una per­mutacion. Sea x ∈ N. En la sucesion x,ω (x) ,ω2 (x) , . . . no puede haber infinitos elemen­tos diferentes ya queN es finito. Sea j el natural mas pequeno tal queωj (x) ya aparecio antesen esta sucesion. Observemos que ωj (x) = x porque si no, habrıa un numero k mayor quecero y menor que j tal que ωj (x) = ωk (x) o sea, ωk (x) tendrıa dos preimagenes diferen­tes ωk−1 (x) 6= ωj−1 (x) y esto no puede ser ya que ω es una biyeccion. Luego, el cicloθ =

¡x,ω (x) , . . . ,ωj−1 (x)

¢transforma los elementos deM =

©x,ω (x) , . . . ,ωj−1 (x)

ªexactamente igual de como lo hace la permutacion ω. De aquı, ω = θ ρ = ρ θ donde ρes la restriccion de ω a N\M. Por induccion, ρ ∈ SN\M se descompone en composicion deciclos disjuntos ρ = ρ1 · · · ρt y por lo tanto, ω = θ ρ1 · · · ρt.

Toda permutacion es composicion de transposiciones.

Prueba. Se comprueba facilmente que (x0, . . . , xn−1) = (xn−1, x0). . .(x2, x0)(x1, x0) yesto demuestra que todo ciclo se descompone en composicion de transposiciones. La pruebase completa porque toda permutacion es composicion de ciclos.

Page 99: Algebra Lineal

93Seccion 4.1 Permutaciones

El grupo alternante

Si π1 . . .πp = ρ1 . . .ρq son dos descomposiciones de una permutacionen composicion de transposiciones entonces, p y q tienen la misma paridad.

Prueba. Por 4.1 podemos suponer que estamos trabajando en el grupo simetrico SN dondeN = 1, . . . , n. O sea, que el conjunto N esta ordenado. Esto nos permite suponer quecada vez que escribamos una transposicion (i, j) tengamos i < j. Tambien esto nos permitedefinir ciertas transposiciones especiales τk = (k, k+ 1) para cualquier k ∈ 1, . . . , n− 1

que llamaremos transposiciones normales. Observese que si j > i + 1 entonces, (i, j) =τi (i+ 1, j)τi por lo que (por induccion en j− i) obtenemos que cualquier transposicionse descompone en composicion de un numero impar de transposiciones normales.

Consideremos un conjunto de variables x1, . . . , xn y forme­ Y1≤i<j≤n

(σ (xi)− σ (xj))mos el anillo de polinomiosZ [x1, . . . , xn] en estas variables concoeficientes enteros. Cada permutacion σ deN tambien permutaestas variables mediante la regla σ (xi) = xσ(i). Ahora, constru­yamos la funcion f : SN → Z [x1, . . . , xn] que a cada σ ∈ SN le hace corresponder elpolinomio del recuadro a la derecha. Necesitamos probar varias cosas acerca de la funcion f.

Veamos primero que para cualquier permutacion ω y cualquier transposicion normal τkse cumple que f (ω τk) = −f (ω). Para esto, primero debemos probar que si i < j sontales que (i, j) 6= (k, k+ 1) entonces, el factor ω (xi) − ω (xj) aparece en f (ω τk). Sii, j /∈ k, k+ 1 entonces, esto es obvio. En los restantes casos tenemos

ω (xi)−ω (xj) =

⎧⎪⎪⎨⎪⎪⎩ω (τk (xk+1))−ω (τk (xj)) si i = k y j 6= k+ 1ω (τk (xk))−ω (τk (xj)) si i = k+ 1 y j 6= kω (τk (xi))−ω (τk (xk+1)) si j = k e i 6= k+ 1ω (τk (xi))−ω (τk (xk)) si j = k+ 1 e i 6= k

Como f (ω τk) y f (ω) tienen la misma cantidad de factores, obtenemosf (ω τk)

ω (xk+1)−ω (xk)=

f (ω)

ω (xk)−ω (xk+1)y esto prueba que f (ω τk) = −f (ω).

Veamos ahora que para cualquier permutacion ω y cualquier transposicion θ se cumpleque f (ω θ) = −f (ω). Efectivamente, como θ se descompone como composicion θ =

θ1 ... θr de un numero impar de transposiciones normales, tenemosf (ω θ) = f (ω θ1 ... θr) = −f (ω θ1 ... θr−1) = · · · = (−1)r f (ω)

y como r es impar obtenemos f (ω θ) = −f (ω).Finalmente, regresemos a las hipotesis originales. Tenemos π1 . . . πp = ρ1 . . . ρq

y por lo tanto f (π1 . . . πp) = f¡ρ1 . . . ρq

¢. Como todas las πi y las ρj son transposi­

ciones obtenemos las igualdades(−1)

pf (IdN) = f (π1 . . . πp) = f

¡ρ1 . . . ρq

¢= (−1)

qf (IdN)

y como f (IdN) 6= 0 entonces, (−1)p = (−1)q. Luego, p y q tienen la misma paridad.

Page 100: Algebra Lineal

94 Capıtulo 4. Determinantes

Una permutacion se le llama par si se descompone en composicion de un numero parde transposiciones. En otro caso, se le llama impar. Al conjunto de todas las permutacionespares de N se le denotara por AN . La composicion de dos permutaciones pares es par y lainversa de una permutacion par es tambien par. Luego AN es un grupo para la composiciony se le llama grupo alternante. Al conjunto de las permutaciones impares lo denotaremospor A−

N y lo llamaremos la clase lateral de las permutaciones impares.

Los conjuntos AN y A−N tienen la misma cantidad de permutaciones.

Prueba. Tenemos que establecer una biyeccion entre AN y A−N . Sea σ una transposicion.

Las funciones f : AN 3 ρ 7→ ρ σ ∈ A−N y g : A−

N 3 θ 7→ θ σ ∈ AN son la inversauna de otra ya que, observando que la inversa de una transposicion es ella misma, obtenemos(f g) (θ) = θ σ σ = θ y (g f) (ρ) = ρ σ σ = ρ.

El conjunto A−N es una clase lateral porque si σ ∈ A−

N entonces, A−N = AN σ. El lector debe

comparar esto con ?? (pagina ??) substituyendo el subgrupo AN por un subespacio E, σ por unvector x y la operacion por la operacion +.

El signo de una permutacion

En todo campo K hay dos elementos notables, 1 y −1. El primero es el neutro parael producto y el segundo es el opuesto para la suma del primero. Observese que estos doselementos son diferentes si y solo si la caracterıstica del campo es diferente de 2. El signode una permutacion es la funcion sgn : SN → K que es 1 si la permutacion es par y es −1 sila permutacion es impar.

¨ sgn (π ρ) = sgnπ sgnρ¨ sgnπ−1 = sgnπ

Prueba. Sean π = π1 . . . πn y ρ = ρ1 . . . ρm descomposiciones de π y ρ encomposicion de transposiciones. Tenemos π ρ = π1 . . . πn ρ1 . . . ρm y por lotanto sgn (π ρ) = (−1)n+m = (−1)n (−1)m = sgnπ sgnρ. Ademas, como la inversa decualquier transposicion es ella misma, tenemos π−1 = (π1 . . . πn)−1 = π−1

n . . .π−11 =

πn . . . π1 y por lo tanto sgnπ−1 = (−1)n = sgnπ.

La funcion sgn jugara un papel vital en todo lo que sigue. En particular, en la definicionde determinante de una matriz los signos de los sumandos estan definidos precisamentemediante la funcion sgn. Por esto, el lector debe familiarizarse muy bien con la definicion deesta funcion y sus propiedades.

Ejercicio 72 Pruebe que sgn¡π−1 ρ

¢= sgn

¡π ρ−1

¢= sgn

¡ρ−1 π

¢.

Page 101: Algebra Lineal

95Seccion 4.2 Propiedades basicas de los determinantes

4.2 Propiedades basicas de los determinantes

Resolvamos el sistema de ecuaciones lineales de la iz­

x =d− b

y =a− c

¯ax+ by = 1

cx+ dy = 1 quierda. Denotemos ∆ = ad − bc. Despejando x enla primera ecuacion y substituyendo en la segunda ob­

tenemos y. Substituyendo este y en alguna de las ecuaciones obtendremosx. Esta solucion es la del recuadro a la derecha.

Sean ahora u = (a, b) y v = (c, d) dos vectores en el plano R2

0

y

d

b

c a xp

qv

u

R2

0

y

xp

qR2

v

u

u+ v como se muestra en la figura a la izquierda. Estos dos vectoresdefinen un paralelogramo cuyos vertices son 0,u,u+ v,v. Que­remos calcular el area de este paralelogramo. Para esto, sea q elpunto de interseccion de la recta u,u+ v con la recta paralela aleje x que pasa por v. Sea p el punto de interseccion de la rectau,u+ v con el eje x. Es facil ver que el triangulo v,q,u+ v es

igual al triangulo 0,p,u. Luego, el paralelogramo 0,u,u+ v, v tiene area igual a la delparalelogramo 0, v,q,p. En la figura a la derecha los triangulosp, a,u y 0,v,d tienen dos angulos iguales o sea son congruentes.De esto, por el Teorema de Tales obtenemos

(b÷ (a− p) = d÷ c)⇒ (pd = ad− cb)

Sabemos que, pd es el area (base por altura) del paralelogramo0,v,q,p. Luego, hemos demostrado que el area del paralelogra­mo 0,u,u+ v, v es igual a ∆ = ad− bc.

Estos dos ejemplos nos dan una idea de la importancia del numero ∆ = ad − bc parala solucion de sistemas de dos ecuaciones lineales y para el calculo de areas en R2. Losdeterminantes son la generalizacion de este numero a dimensiones arbitrarias.

Definicion de los determinantes

SeaN un conjunto finito. Recordemos que SN es el conjunto de todas las las permutacio­

detαNN =Xσ∈SN

sgnσYi∈N

αiσi

nes deN. Si σ ∈ SN e i ∈ N entonces, denotaremos por σi la imagen de i por la permutacionσ, o sea σi es una forma corta de escribir σ (i). Recordemos tambien que el signo de unapermutacion sgnσ es 1 si σ es par y es −1 si σ es impar. El determinante de una matriz

αNN en la cual los conjuntos de ındices de renglones y co­lumnas coinciden es por definicion el elemento del campodefinido en el recuadro de la izquierda.

Recalquemos que los determinantes estan definidos solo cuando los conjuntos de ındicesde renglones y columnas coinciden y es un conjunto finito. Por este motivo en este capıtulotodos los espacios seran finito dimensionales y todos los conjuntos de ındices seran finitos.

Determinantes de matrices pequenas

Interpretemos esta definicion para conjuntosN con pocos elementos. Si |N| = 1 entoncesla matriz αNN consta de una sola entrada y su determinante es precisamente esta entrada.

Page 102: Algebra Lineal

96 Capıtulo 4. Determinantes

Si, digamos N = 1, 2 entonces tenemos 2 permutaciones de N queµα11 α12α21 α22

¶+–

son (1, 2) y (2, 1). A la primera le corresponde el sumando α11α12 y ala segunda el sumando −α12α21. Graficamente, cuando N = 1, 2 un

determinante es la suma de los dos productos que se muestran en el recuadro a la izquierda.Pongamos ahora N = 1, 2, 3. Hay 6 permutaciones deN y estas son (1, 2, 3), (2, 3, 1),

⎛⎝α11 α12 α13α21 α22 α23α31 α32 α33

⎞⎠(3, 1, 2), (1, 3, 2), (2, 1, 3) y (3, 2, 1). Las tres primeras son de signo positivo y se corres­ponden con los tres sumandos α11α22α33, α12α23α31 y α13α21α32.Graficamente, estos tres sumandos se pueden representar por la dia­gonal principal de la matriz y los dos “triangulos” con lados paralelosa esta diagonal como se muestra en el recuadro de la derecha.

Las otras tres permutaciones tienen signo negativo y se corresponden con los sumandos⎛⎝α11 α12 α13α21 α22 α23α31 α32 α33

⎞⎠ −α11α23α32, −α12α21α33 y −α13α22α31. Graficamente, estos tressumandos se pueden representar por la diagonal alterna de la matrizy los dos “triangulos” con lados paralelos a esta diagonal como semuestra en el recuadro de la izquierda.

El numero de sumandos en la definicion del determinante es SN = |N| !. Este numerocrece rapidamente con |N| como se ve en la siguiente tabla

n 1 2 3 4 5 6 7 8 9 10

n! 1 2 6 24 120 720 5040 40 320 362 880 3628 800

Por esto, calcular determinantes con el uso directo de su definicion es muy ineficiente paramatrices de mas de tres renglones y columnas.

Matrices con filas nulas

Si una matriz tiene una columna o un ren­glon nulo entonces, su determinante es cero.

Prueba. Cada sumando de los determinantesQ

i∈N αiσi contiene como factor una entradade cada renglon. Si un renglon es nulo entonces, todos estos sumandos tienen un factor ceroy por lo tanto la suma de todos ellos es cero. Lo mismo ocurre con las columnas.

El determinante de la identidad

Ya vimos que el conjunto de matrices αNN es un algebra respecto al producto y suma

δij =

¯1 si i = j0 si i 6= jµ

1 0

0 1

¶de matrices y multiplicacion por elementos del campo. El elemento neutro para el productolo llamamos matriz identidad, denotamos INN y es la matriz cu­yas entradas son iguales al delta de Kronecker δij definido en elrecuadro a la derecha. Cuando el conjunto de ındices esta ordena­

do, la matriz identidad se puede representar graficamente como una que tieneunos en la diagonal y ceros en todas las demas entradas como se muestra en elrecuadro a la izquierda para una matriz de dos renglones y columnas.

Page 103: Algebra Lineal

97Seccion 4.2 Propiedades basicas de los determinantes

El determinante de la matriz identidad es 1. det INN = 1

Prueba. Si la permutacion σ ∈ SN no es la identidad entonces hay un i ∈ N tal que i 6= σiy por lo tanto

Qi∈N δiσi = 0. Luego,

det INN =Xσ∈SN

sgnσYi∈N

δiσi = sgn (IdN)Yi∈N

δii = 1.

El determinante de la transpuesta

Dada una matriz αMN su transpuesta se define como ⎛⎜⎜⎝α11 α12 α13 α14α21 α22 α23 α24α31 α32 α33 α34α41 α42 α43 α44

⎞⎟⎟⎠ T

la matriz βNM = αTMN tal que βij = αji. Graficamente laoperacion de transponer una matriz es hacer una reexioncon respecto a la diagonal de la matriz. Observese que elconjunto de ındices de los renglones de la matriz αTNMes M y no N como se podrıa pensar de los subındices.La notacion es ası porque pensamos la transpuesta αTMNcomo la aplicacion de la operacion T a la matriz αNM .

El determinante no se altera al transponer una matriz. detA = detAT

Prueba. Tenemos que demostrar que detαNN = detαTNN . Efectivamente por la definicion

detαTNN =Xσ∈SN

sgnσYi∈N

ασi i =

∙cambio de variable

ω = σ−1

¸=

=Xω∈SN

sgnωYi∈N

αω−1 (i)i =

∙cambio de variablej = ω−1 (i)

¸=

=Xω∈SN

sgnωYj∈N

αjωj= detαNN.

Permutaciones de columnas y renglones

Dada una matriz αMN y una permutacion ω ∈ SN definimos la operacion de permu­

⎛⎜⎜⎝α11 α12 α13 α14α21 α22 α23 α24α31 α32 α33 α34α41 α42 α43 α44

⎞⎟⎟⎠

tar las columnas de αMN mediante la permutacion ω como la que resulta en la matrizαMω(N) cuyas columnas son αMω−1 (i) (¡observese el uso de la permutacion inversa ω−1!).

Graficamente esta operacion resulta en cambiar el orden de lascolumnas. Ası por ejemplo, el aplicar el ciclo (1, 2, 4) resulta enel intercambio de columnas representado en el recuadro a la iz­quierda. Analogamente se define la operacion de permutar losrenglones, para una permutacion ρ ∈ SM la matriz αρ(M)N esaquella cuyos renglones son αρ−1 (j)N .

Page 104: Algebra Lineal

98 Capıtulo 4. Determinantes

Al permutar las columnas o los renglones deuna matriz con la permutacion ω el determi­nante se altera por un factor igual a sgnω.

detαNω(N) = sgnω detαNN

Prueba. Sea ω ∈ SN una permutacion. Hay que demostrar detαNω(N) = sgnω detαNN.Efectivamente, por la definicion tenemos

detαNω(N) =Xσ∈ SN

sgnσYi∈N

αiω−1 (σi ) =

∙cambio de variable

ρ = ω−1 σ

¸=

=Xρ∈SN

sgn (ω ρ)Yi∈N

αiρi = sgnωXρ∈SN

sgnρYi∈N

αiρi = sgnω detαNN

Con esto demostramos la proposicion para las columnas. La demostracion para los renglonesse obtiene transponiendo la matriz.

Una consecuencia de este ultimo resultado, que utilizaremos muy frecuentemente, es:

Si una matriz tiene dos columnas o dos renglo­nes iguales entonces su determinante es cero.

Prueba. Sea ω la permutacion de las columnas que intercambia las dos columnas iguales.Como ω no altera la matriz tenemos detαNN = detαNω(N). Por otro lado la proposicionanterior nos dice que detαNω(N) = sgnω detαNN = − detαNN de lo que se deduce la tesis.La demostracion para los renglones se obtiene transponiendo la matriz.

La demostracion de este resultado es erronea. Solamente hemos demostrado que un elemento a delcampo cumple que a = −a. De aquı obviamente 2a = 0. Si el campo es de caracterıstica diferentede 2 efectivamente esto significa que a = 0. Para campos de caracterıstica 2 la igualdad 2a = 0 se

cumple para ¡cualquier! elemento del campo. Luego, la demostracion anterior es solo valida para campos decaracterıstica diferente de 2. Para hacer la prueba en caracterıstica 2 es necesario usar la expansion generalizadade Laplace (por dos columnas) para ası obtener el resultado. Esto lo haremos en algunas paginas mas adelantepor lo que el lector puede estar seguro de que el corolario es cierto en cualquier caso.

El determinante del producto

La ultima propiedad basica de los determinantes es probablemente la mas importantepara el algebra lineal. Como la demostracion de esta propiedad es ciertamente complicada,le recomiendo al lector omitirla en una primera lectura.

El determinante del producto de dos matrices es igualal producto de los determinantes de las dos matrices.

detAB = detA detB

Prueba. Sean A = αNN y B = βNN . Para el objeto de esta demostracion denotemos porFN el conjunto de todas las funciones deN enN. Claramente SN ⊂ FN. Denotemos ademasTN al conjunto FN \ SN que es el de todas las funciones no biyectivas deN enN.

Page 105: Algebra Lineal

99Seccion 4.2 Propiedades basicas de los determinantes

Por la definicion de determinante y de producto de matrices tenemos

detAB =Xσ∈SN

sgnσYi∈N

Xj∈N

αijβjσi

y usando la formulaQ

i∈NP

j∈N γij =P

ω∈FNQ

i∈N γiωi(Sec. 1.6, pag. 21) obtenemos

detAB =Xσ∈SN

sgnσXω∈TN

Yi∈N

αiωiβωiσi

+Xσ∈ SN

sgnσXω∈ SN

Yi∈N

αiωiβωiσi

Denotando por∇ el primer sumando nuestro determinante se convierte en

= ∇+Xσ∈ SN

sgnσXω∈ SN

Yi∈N

αiωiβωiσi

=

∙cambio de variable

σ = ρ ω

¸=

= ∇+Xρ∈SN

Xω∈ SN

sgn (ρ ω)Yi∈N

αiωi

Yj∈N

βωjρ(ωj) =

∙cambio de vark = ωj

¸=

= ∇+ÃX

ω∈ SN

sgnωYi∈N

αiωi

!ÃXρ∈ SN

sgnρYk∈N

βkρk

!= ∇+ detA detB

O sea, para completar la demostracion tenemos que probar que∇ = 0. Para esto recordemosque AN es el subgrupo de las permutaciones pares e A−

N es la clase lateral de todas laspermutaciones impares. Si observamos detenidamente la definicion de∇

∇ =Xω∈TN

Xσ∈ SN

sgnσYi∈N

αiωiβωiσi

vemos que para probar ∇ = 0 es suficiente construir para cada ω ∈ TN una biyeccionf : AN → A−

N tal que si θ = f (σ) entonces,Yi∈N

αiωiβωiσi

=Yi∈N

αiωiβωiθi

Esto nos garantizara que cada sumando positivo se cancele con otro negativo.Sea ω ∈ TN arbitraria pero fija. Como ω no es una biyeccion existen j, k ∈ N tales que

ω (j) = ω (k) . Sea t ∈ A−N la transposicion que intercambia j y k. Sea f : AN 3 σ 7→

σ t ∈ A−N . La funcion f es biyectiva ya que su inversa es θ 7→ θ t. Ademas, tenemosY

i∈Nαiωi

βωi (σt)i = αjωjβωjσk

αkωkβωkσj

Yi∈N\j,k

αiωiβωiσi

=Yi∈N

αiωiβωiσi

donde la ultima igualdad es valida porque ωj = ωk.

Matrices de permutaciones

Ahora queremos ver que 4.11 es un caso particular de 4.13. Esta es una buena disculpapara introducir las matrices de permutaciones. Sea INω(N) la matriz identidad a la que se lehan permutado las columnas con la permutacionω ∈ SN . A INω(N) se le llama matriz de lapermutacion ω. Lo interesante de las matrices de permutaciones es que al multiplicar porellas se permutan renglones o columnas.

Page 106: Algebra Lineal

100 Capıtulo 4. Determinantes

El resultado del producto αMNINω(N) (de IMω(M)αMN) es lamatriz αMN a la que se le han permutado las columnas (losrenglones) usando la permutacion ω (la permutacion ω−1).

Prueba. Sea γMN = αMNINω(N). Tenemos γij =P

k∈N αikδkω−1 (j). Cada sumando escero a no ser que ω−1 (j) = k. Luego γij = αiω−1 (j) lo que prueba la proposicion para lascolumnas. La demostracion para los renglones es igual.

Observemos que det INω(N) = sgnω. Efectivamente, en la definicion de determinantecada producto

Qi∈N δiω−1 (σi ) es cero para cada ω 6= σ. Para ω = σ tenemos

Qi∈N δii = 1

que esta multiplicado por sgnω. De aquı, 4.13 y 4.14 dan una nueva prueba de 4.11.

Ejercicio 73 Haga la mutiplicacion de matrices del µ11 12 13

21 22 23

¶⎛⎝ 0 0 1

1 0 0

0 1 0

⎞⎠recuadro a la derecha. ¿La matriz de que permutacion esla de mas a la derecha? ¿Concuerdan o no sus calculoscon el resultado 4.14?

DenotemosM (ω) = INω(N). No es difıcil probar queM (σ ω) =M (σ)M (ω) y que cualquiermatriz de permutaciones tiene inversa (igual a su transpuesta). Luego M : SN → GL

¡KN

¢es un

morfismo de grupos que es inyectivo. Esto significa que las matrices de permutaciones son unsubgrupo de GL

¡KN

¢que es isomorfo a SN . Esto es valido para cualquier campo K.

4.3 Expansion de Laplace

En esta seccion encontraremos una descomposicion de los determinantes como una com­binacion lineal de determinantes de matrices mas pequenas. Despues veremos dos importan­tes consecuencias de esta expansion: que los determinantes son funcionales multilineales yque una matriz tiene inversa si y solo si esta tiene determinante diferente de cero.

Cambios de ındices

Sea αMN y φ : N → L una biyeccion. Podemos construir una matriz βML = αMφ(N)

por la formula βij = αiφ−1 (j) (¡observese el uso de la inversa φ−1!). A esta operacion lallamaremos cambio de ındices de las columnas de la matriz αMN mediante la biyeccionφ. De la misma manera se definen los cambios de ındices de los renglones. Observese quelas permutaciones de las columnas y los renglones son un caso particular de los cambios deındices ya que una permutacion no es mas que una biyeccion de un conjunto en si mismo.

Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas coinci­den. A este numero comun se le llama orden de la matriz. Necesitaremos los cambios deındices para definir los determinantes de las matrices cuadradas. Ası, si φ : N→M es unabiyeccion entonces, podrıamos definir detαMN = detαMφ(N). El unico “pero” es que, en

Page 107: Algebra Lineal

101Seccion 4.3 Expansion de Laplace

principio, esta definicion no solo depende de la matriz αNM sino tambien de la biyeccion φ.El cuanto depende esta definicion de φ lo responde la siguiente proposicion.

Si φ y ϕ son dos biyecciones de N enM enton­ces, detαMφ(N) = sgn

¡φ ϕ−1

¢detαMϕ(N).

Prueba. Observese que θ = φ ϕ−1es una permutacion deM y que las matrices αMφ(N) yαMϕ(N) solo se diferencian en la permutacion de las columnas θ. Aplıquese 4.11.

No podemos poner la conclusion de este resultado como sgnφ detαMφ(N) =sgnϕ detαMϕ(N) ya que como φ y ϕ son biyecciones de N en M ninguna delas dos tiene signo.

Como el signo de cualquier permutacion es o 1 o −1 esto quiere decir que el determi­nante detαNM esta definido “salvo signo” o sea, que hay un elemento a ∈ K tal que eldeterminante es a o es −a. En un campo de caracterıstica dos esto es irrelevante ya que eneste caso 1 = −1. Sin embargo en los casos mas importantes (R y C) de que el campo sea decaracterıstica diferente de dos tenemos una ambiguedad al definir el determinante detαNM .

Esta ambiguedad se resuelve en diferentes casos de varias maneras. En muchos casos nonos interesa el valor concreto detαMN sino solamente saber si es cierto o no que detαMN =0. Si este es el caso entonces, en realidad no nos importa que biyeccion se escogio paracalcular el determinante. Por ejemplo, una matriz cuadrada αMN se le llama singular sidetαMN = 0, en el caso contrario se le llama no singular. Es claro, que el ser singular o nosingular NO depende de la biyeccion escogida para definir detαMN . Otro ejemplo, es que siuna matriz tiene una columna o renglon nulo entonces su determinante es cero.

En otros casos lo importante no es el valor de algun determinante sino una igualdad entreestos. Al cambiar los ındices en ambos lados de la igualdad los determinantes cambian en elmismo signo y la igualdad es cierta independientemente de los cambios de ındices escogidos.Por ejemplo, las igualdades detαMN = detαTMN y det (αLMβMN) = detαLM detβMN sonvalidas independientemente de los cambios de ındices usados para definir los determinantes.

Ejercicio 74 Pruebe que det¡αω(L)MβMθ(N)

¢= detαω(L)M detβMθ(N) ∀ω,θ. [131]

En otros casos hay una biyeccion natural que nos dice cual debe ser el valor de detαMN.Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales. En este casopodemos siempre escoger la unica biyeccion que conserva el orden. Por ejemplo si N =

2, 3, 7 yM = 1, 4, 5 entonces la biyeccion adecuada es 2→ 1, 3→ 4, 7→ 5.

¿Y por que no escoger de los dos posibles valores aquel que sea mayor que cero?Primero, a veces se necesita el valor del signo del determinante y segundo ¿quequiere decir que 0 < x ∈ Z5? La desigualdad 0 < x solo tiene sentido si en el

campo esta dada una relacion de orden. Este es el caso de R pero no el de Zp ni el de C.

Page 108: Algebra Lineal

102 Capıtulo 4. Determinantes

En muchos de los textos de algebra lineal esta ambiguedad se resuelve postulando que los conjuntosde ındices siempre tienen que ser conjuntos de naturales. Esto no solamente es innecesario, sinoque tambien hace la exposicion mas compleja y conceptualmente menos clara. Por ejemplo, las

matrices de cambio de bases estan naturalmente indexadas por conjuntos de vectores que no poseen un ordennatural. Mas aun, en algunos textos, las pruebas son incompletas ya que inevitablemente hay que renumerar losrenglones y/o columnas y no se demuestra que los resultados son independientes de la renumeracion.

Complementos algebraicos

Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual todoes mas facil. Sea αNN una matriz y sean i, j ∈ N. La matriz αN\i N\j se obtiene de lamatriz αNN eliminando el renglon i y la columna j. ¿Habra una manera natural de definir eldeterminante de αN\i N\j?. Veremos que si.

Sea ϕ : N\j → N\i. una biyeccion cualquiera. Podemos definir ϕ (j) = i y de esta

sgnϕ detαN\i ϕ(N\j)manera ϕ se convierte en una permutacion de N. Definamos el de­terminante detαN\i N\j con la expresion del recuadro a la derecha.Parecerıa que no hemos hecho nada ya que en principio esta definicion depende de ϕ.

La expresion sgnϕ detαN\i ϕ(N\j) no depende de ϕ.

Prueba. Sea ω otra permutacion de N tal que ω (j) = i. Aquı hay que tener cuida­do. Por un lado ω es una biyeccion de N\j en N\i y por otro es una permutacion de N.Otro tanto ocurre con ϕ. Para evitar confuciones, a las permutaciones deN las denotaremosen esta demostracion por ω y ϕ respectivamente. Por 4.15 tenemos que detαN\i ω(N\j) =sgn

¡ω ϕ−1

¢detαN\i ϕ(N\j). Observese queωϕ−1 es una permutacion deN\i. ¿Que pasa

con ωϕ−1? Pues, en todo elemento deN\i coincide conωϕ−1 y ademas ωϕ−1 (i) = i.Luego sgn

¡ω ϕ−1

¢= sgn

¡ω ϕ−1

¢y por las propiedades de la funcion signo se tiene

que sgn¡ω ϕ−1

¢= sgn ω sgn ϕ. Luego detαN\i ω(N\j) = sgn ω sgn ϕ detαN\i ϕ(N\j) y

pasando sgn ω al otro lado de la igualdad terminamos la prueba.

Ahora, podemos dar la siguiente definicion. Si αij es una entrada de la matriz A = αNNentonces el complemento algebraico de αij es α∗ij = sgnω detαN\iω(N\j) donde ω escualquier permutacion de N tal que ω (j) = i. A los complementos algebraicos tambien seles llama cofactores. La matriz α∗NN cuyas entradas son los complemento algebraicos α∗ij esla matriz de los complementos algebraicos de αNN o matriz de cofactores de αNN .

La expansion de un determinante por sus renglones

Teorema de Expansion de Laplace

SeaαiN un renglon arbitrario de la matriz αNN .El determinante de αNN es igual a la suma delas entradas del renglon por sus cofactores.

detαNN = αiNα∗iN =

Xj∈N

αijα∗ij

Page 109: Algebra Lineal

103Seccion 4.3 Expansion de Laplace

Prueba. Si i ∈ N entonces tenemos la particion del grupo simetrico en el [j∈NSi→jN

recuadro a la derecha donde Si→jN = σ ∈ SN | σ (i) = j . Luego, aplicando ladefinicion de determinante y sacando factor comun obtenemos

detαNN =Xj∈N

αijX

σ∈ Si→ jN

sgnσYn∈N\i

αnσn

Seaω una permutacion deN tal queω (j) = i. Hagamos el cambio de variable ρ = ωσen la sumatoria interior. Tenemos ρ (i) = i o sea, ρ ∈ Si→iN = SN\i. Luego,

detαNN =Xj∈N

αij sgnωX

ρ∈ SN\i

sgnρYn∈N\i

αnω−1 (ρn )=Xj∈N

αijα∗ij

donde la ultima igualdad se obtiene por la definicion de α∗ij.

Como es natural hay un teorema exactamente igual a este correspondiente a las columnas.

La expansion de Laplace en forma grafica

El Teorema de expansion de Laplace es la primera herramienta (aparte de la definicion)de que disponemos para calcular determinantes. Este reduce el problema a calcular variosdeterminantes de matrices mas pequenas. Es especialmente util cuando hay renglones (ocolumnas) con muchos ceros.

Sin embargo, todavıa debemos precisar el como calcular los cofactores en forma grafica.Si bien, la definicion de estos es sencilla necesitamos encontrar una biyeccion simple deN\ienN\j que facilite los calculos cuandoN esta ordenado o seaN = 1, ..., n.

Sea por ejemplo i = 2 y j = 7. En este caso la biyec­1 3 4 5 6 7 8 ... n↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓1 2 3 4 5 6 8 ... n

cion natural de N\2 en N\7 es la que se muestra en elrecuadro a la izquierda y la llamaremos ϕ. Tenemos quedefinir ϕ (2) = 7 para completar una permutacion deN.

Sabemos que ϕ transforma 7 7→ 6 7→ 5 7→ 4 7→ 3 7→ 2 7→ 7 y que deja fijos a todos losdemas elementos de N. Luego, ϕ es un ciclo de longitud j− i + 1 (si i > j entonces es unciclo de longitud i− j+ 1).

Como todo ciclo de longitud par tiene signo negativo y todo de ⎛⎜⎜⎝+ − + −

− + − +

+ − + −

− + − +

⎞⎟⎟⎠longitud impar tiene signo positivo obtenemos sgnϕ = (−1)i+j lo

que es muy sencillo ya que es la “regla del tablero de ajedrez”. Ala derecha se muestra el sgnϕ para una matriz con 4 renglones ycolumnas. Observese el parecido con el tablero.

Con estas permutaciones, los complementos algebraicos tienen una interpretacion grafi­

− det

⎛⎜⎜⎝α11 α12 α13 α14α21 α22 α23 α24α31 α32 α33 α34α41 α42 α43 α44

⎞⎟⎟⎠ca muy sencilla. Si se quiere sacar el complemento algebraico de αij entonces tachese el

renglon i, tachese la columna j, saquese el determinan­te de la matriz que queda y finalmente multiplıquesepor el signo de la regla del tablero de ajedrez. Ası porejemplo, en el recuadro a la izquierda se muestra unamatriz de orden cuatro en la cual estamos calculando elcomplemento algebraico de α23.

Page 110: Algebra Lineal

104 Capıtulo 4. Determinantes

Al matematico y fısico Pierre­Simon Laplace (Francia 1749­1827) se leconoce fundamentalmente por sus trabajos en mecanica celeste, ecuacio­nes diferenciales y teorıa de las probabilidades. El publico la demostraciondel Teorema de Expansion de Laplace (4.17) en 1772 en un artıculo dondeestudiaba las orbitas de los planetas interiores del sistema solar. En esteartıculo, Laplace analizo el problema de solucion de sistemas de ecuacio­nes lineales mediante el uso de determinantes.

Ejercicio 75 Tomese una matriz de orden cuatro y calcule su determinante usando el teo­rema de descomposicion de Laplace por algun renglon. Repita este ejercicio por algunacolumna.Ejercicio 76 Demuestre que el determinante de la ma­ ⎛⎜⎜⎜⎜⎝

1 1 · · · 1

x1 x2 · · · xnx21 x22 · · · x2n· · · · · · · · · · · ·xn−11 xn−12 · · · xn−1n

⎞⎟⎟⎟⎟⎠triz en el recuadro a la derecha es igual a

f (x1, x2, . . . , xn) =Y

1≤i<j≤n(xj − xi)

A este determinante se le conoce como determinante deVandermonde. El lector debe notar que ya nos encontra­mos con la funcion f en la prueba de la proposicion 4.5.Sugerencia: Usar induccion en n. Considerar el determinante de Vandermonde y la funcionf como polinomios en la variable xn. Probar que ambos polinomios tienen las mismas raicesy el mismo coeficiente principal.

Multinearidad de los determinantes

El determinante se puede ver como una funcion del espacio de matrices en el cam­

A =

µ1 0

0 0

¶B =

µ0 0

0 1

¶po. ¿Sera el determinante una TL? ¿Se cumplira que det (A+ B) =detA+detB? La respuesta es NO. Para probar que no, basta ver un ejem­plo. Consideremos las matrices A y B definidas a la izquierda. TenemosdetA + detB = 0 6= 1 = det (A+ B). Sin embargo, los determinantescumplen una propiedad bastante parecida.

Sea E un espacio vectorial sobre el campo K. A las TL de E en K se le llama funcio­nales lineales del espacio E. En esta terminologıa vemos que la propiedad det (A+ B) 6=detA + detB lo que quiere decir es que el determinante NO es un funcional lineal del es­pacio vectorial de las matrices. Pasemos a considerar una funcion f con valor en K de dosvariables x, y que toman sus valores en E o sea, f : E2 3 (x,y) 7→ f (x,y) ∈ K. ComoE2 es un espacio vectorial sobre K entonces podrıa suceder que f sea un funcional lineal.Sin embargo, hay una propiedad un poco mas sutil que podrıa cumplir la funcion f y esque sea lineal en la primera variable. En otras palabras, que ∀y ∈ E se cumple quef (a+ b,y) = f (a,y) + f (b,y) y f (λa,y) = λf (a,y). Analogamente, se define lapropiedad de que f sea lineal en la segunda variable. Si f es lineal en las dos variablesentonces, se dice que f es un funcional bilineal (el “bi” es porque son dos variables).

Page 111: Algebra Lineal

105Seccion 4.3 Expansion de Laplace

Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo casonos referiremos a los funcionales multilineales. Mas rigurosamente, sea f : EN → K unafuncion donde N es un conjunto de variables. Sea i ∈ N una variable. Podemos pensara f como una funcion de dos variables f : EN\i ⊕ E → K. Si ∀y ∈ EN\i la funcionE 3 x 7→ f (y,x) ∈ K es un funcional lineal entonces, diremos que f es lineal en lavariable i. Diremos que f es un funcional multilineal si f es lineal en todas sus variables.Por ejemplo, la funcion f : R3 3 (x, y, z) 7→ x+y+z ∈ R es un funcional lineal. La funciong : R3 3 (x, y, z) 7→ xyz ∈ R es un funcional multilineal porque (x+ x0)yz = xyz+ x0yzy tambien para las otras variables. Observese que f no es multilineal y que g no es lineal.

Ahora queremos ver que los determinantes son funcionales multilineales. El espacio dematricesKNN es isomorfo a

¡KN¢N

. Un isomorfismo de estos es el que a cada matriz le hacecorresponder la N­ada de sus renglones. Luego, podemos pensar el determinante como unfuncional cuyas variables son los renglones y que toma valores en el campo.

El determinante es un funcional multilineal de los renglones.

Prueba. Para probar que un funcional es multilineal hay que probar que es lineal en cadavariable. Sea i ∈ N arbitrario pero fijo en toda esta prueba. Sea A = αNN una matriz talque su i­esimo renglon es la suma de dos N­adas xN y yN . Sea B la misma matriz que Aexcepto que su i­esimo renglon es xN . Sea C la misma matriz que A excepto que su i­esimorenglon es yN . Tenemos que probar que detA = detB + detC. (Si el lector no entiendeporque entonces, debe regresar al principio de esta seccion y volver a pensar la definicion defuncional multilineal y el porque el determinante es un funcional de los renglones.) Usandola descomposicion de Laplace por el renglon i obtenemos

detαNN = αiNα∗iN = (xN + yN)α

∗iN = xNα

∗iN + yNα

∗iN = detB+ detC

donde la ultima igualdad se cumple porque los cofactores de las matrices B y C de lasentradas del renglon i son los mismos que los de la matriz αNN .

Sea ahoraA = αNN una matriz tal que su i­esimo renglon es λxN . Sea B la misma matrizque A excepto que su i­esimo renglon es xN . Usando la descomposicion de Laplace por elrenglon i obtenemos detαNN = αiNα

∗iN = λxNα

∗iN = λ detB.

Por transposicion el determinante es tambien un funcional multilineal de las columnas.

Ejercicio 77 Sean A y B dos matrices con dos renglones y columnas. Sea C la matriz cuyaprimera columna es la primera de A y su segunda columna es la segunda de B. Sea D lamatriz cuya primera columna es la primera de B y su segunda columna es la segunda de A.Demuestre que det (A+ B) = detA+ detB+ detC+ detD.

Los determinantes son los unicos funcionales multilineales de los renglones que son iguales a 1 enla matriz identidad y que cambian por un factor de sgnθ cuando se permutan los renglones con lapermutacion θ. Dejaremos la prueba de este hecho para mucho mas adelante.

Page 112: Algebra Lineal

106 Capıtulo 4. Determinantes

La inversa de una matriz

Recordemos que, dada una matriz αMN decimos que βNM = α−1MN es la matriz inversa

de αMN si se cumple que αMNα−1MN = IMM y α−1

MNαMN = INN . Mediante el isomorfismode las matrices con las TLs concluimos que αMN y α−1

MN son la matrices de dos TLs unala inversa de otra y por lo tanto estas TLs son isomorfismos. Luego, si αMN tiene inversaentonces, ella es cuadrada.

Sea ϕ : N → M cualquier biyeccion. Es facil ver usando la definicion de cambio deındices que βNM = α−1

MN si y solo si βϕ(N)M = α−1Mϕ(N). O sea, cualquier cambio de ındices

apropiado reduce el calculo de matrices inversas al caso en que el conjunto de columnascoincide con el conjunto de renglones. Por esto, nos olvidaremos un poco de los ındices parapoder enunciar mas facilmente nuestros resultados.

La siguiente proposicion nos dice que para probar que una matriz es inversa de otra essuficiente comprobar una de las dos igualdades involucradas en la definicion. Aquı, la clavees que las matrices son finitas y cuadradas lo que significa que sus TLs son entre espacios dela misma dimension finita.

Si AB = I entonces, BA = I.

Prueba. Sea f, g : KM → KM las TLs de las matrices A y B respectivamente. Medianteel isomorfismo de las matrices con las TLs concluimos que f g = Id. De 3.28 (pagina 88)obtenemos que g f = Id y por lo tanto BA = I.

Si una matriz tiene inversa entonces ella esno singular. Ademas, detA−1 = (detA)−1.

Prueba. Por definicion de matriz inversa tenemos 1 = det I = det¡AA−1

¢= detA detA−1

y por lo tanto detA 6= 0 y detA−1 = (detA)−1.

Para probar que el recıproco de esta afirmacion tambien es cierto, lo que haremos esconstruir la matriz inversa en el caso de que el determinante sea diferente de cero.

Si A es una matriz no singular entonces, suinversa es la transpuesta de la matriz de suscofactores dividida por el determinante deA.

A−1 =A∗T

detA

Prueba. Para hacer la demostracion lo que hay que hacer es multiplicar. Sea αMM = A

y B = βMM = (detA)−1 A∗T . Tenemos βMj = (detA)−1 α∗jM y de la definicion de pro­ducto de matrices obtenemos que la entrada ij de la matriz AB es igual a αiMβMj =

(detA)−1 αiMα∗jM . Si i = j entonces αiMα∗jM es la expansion de Laplace del detA porel renglon i de lo que obtenemos que αiMβMj = 1.

Page 113: Algebra Lineal

107Seccion 4.4 La expansion generalizada de Laplace

Solo queda probar que αiMα∗jM = 0 si i 6= j. Si nos fijamos atentamente, vemos que estaes la expansion de Laplace por el renglon j del determinante de la matriz C obtenida de lamatriz A substituyendo el renglon j por el renglon i. Como la matriz C tiene dos renglonesiguales entonces, su determinante es cero y necesariamente αiMα∗jM = 0.

El determinante de un operador lineal

Sea f ∈ EndE un OL. Si escogemos una base de E entonces en esta base el OL f tienepor coordenadas una matriz A. Podrıamos definir det f = detA. Sin embargo, no nos quedaclaro si esta definicion depende o no de como hallamos escogido la base.

Si A y B son las matrices de f ∈ EndEen dos bases entonces, detA = detB.

Prueba. SeanA = αMM y B = βNN las matrices de f en las basesM yN respectivamente.Por la formula del cambio de bases para matrices (3.22) tenemos B = γNMAγ

−1NM donde

γNM es la matriz de cambio de la baseM a la baseN. TenemosdetβNN = det

¡γNMαMMγ

−1NM

¢= detγNM detαMM detγ−1

NM = detαMMya que por 4.20 la igualdad detγNM (detγNM)

−1 = 1 es cierta e independiente del cambiode ındices que se utilize para definir el determinante de γNM .

Luego, el determinante del OL f es por definicion del determinante de su matriz enalguna base y esto no depende de la base escogida.

4.4 La expansion generalizada de Laplace

Ahora generalizaremos dramaticamente el teorema de expansion de Laplace. Sea αNNuna matriz y I, J subconjuntos deN de la misma cardinalidad. Para ahorrarnos mucha escritu­ra, denotemos I0 = N\I y J0 = N\J. Ademas, denotemos por ∇IJ = detαIJ el determinantede la matriz cuyas columnas son las de J y cuyos renglones son los de I. Claro, este de­terminante esta definido solo salvo signo. De los signos no nos preocuparemos ahora sinosolo mas adelante. Por otro lado, denotemos por ∆IJ = detαI0J0 el determinante de la matrizcuyas columnas son las que no estan en J y cuyos renglones son los que no estan en I (no nospreocupemos por los signos). En estas notaciones, un sumando del Teorema de expansion deLaplace es de la forma∇IJ∆IJ donde I y J son subconjuntos de cardinal 1. Nos gustarıa tenerun teorema de expansion donde los subconjuntos sean de un cardinal fijo pero arbitrario.

Para esto, ahora si nos tenemos que preocupar por los signos. Sin embargo, la siguiente

φ (x) =

¯φ1 (x) si x ∈ Jφ2 (x) si x ∈ L

proposicion nos dice que esto realmente no es un proble­ma. Sean φ1 : J → I y φ2 : J

0 → I0 dos biyecciones.Denotemos φ = φ1 ∪ φ2 la permutacion deN definida enel recuadro a la derecha.

Page 114: Algebra Lineal

108 Capıtulo 4. Determinantes

La expresion sgnφ detαIφ1 (J) detαI0φ2 (J0)no depende de las biyecciones φ1 y φ2.

Prueba. Seanϕ1 yϕ2 otras dos biyecciones yϕ = ϕ1∪ϕ2. Por 4.15 tenemos detαIφ1 (J) =sgn

¡φ1 ϕ−1

1

¢detαIϕ1 (J) y detαI0φ2 (J0) = sgn

¡φ2 ϕ−1

2

¢detαI0ϕ2 (J0). Multiplicando estas

dos igualdades vemos que solo nos queda probar quesgn

¡φ1 ϕ−1

1

¢sgn

¡φ2 ϕ−1

2

¢= sgn

¡φ ϕ−1

¢.

Para esto, denotemos θ1 = φ1 ϕ−11 , θ2 = φ2 ϕ−1

2 y θ = φ ϕ−1. De las definiciones esinmediato que θ (y) = θ1 (y) si y ∈ I y θ (y) = θ2 (y) si y ∈ I0. Como θ1 ∈ SI, θ2 ∈ SI0 ,θ ∈ SN y los conjuntos I, I0 son complementarios en N entonces, θ = θ1 θ2 = θ2 θ1 yesto implica la igualdad de los signos que necesitabamos.

Ahora, para I, J subconjuntos de N definamos ∇IJ y ∆IJ con ∇IJ = detαIφ(J)∆IJ = sgnφ detαI0φ(J0)las formulas de la derecha donde φ denota una permutacion (ar­

bitraria pero la misma para las dos definiciones) tal que φ (J) = I(y en consecuencia φ (J0) = I0). Esta definicion no es correcta en el sentido de que ambos∇IJ y ∆IJ dependen de φ. Sin embargo∇IJ∆IJ no depende de φ y esto es lo importante.

Expansion Generalizada de Laplace

Si I un conjunto de p renglones de la matriz αNN en­tonces, detαNN =

P∇IJ∆IJ donde la suma recorre to­

dos los subconjuntos de columnas J de cardinalidad p.

detαNN =X|J|=p

∇IJ∆IJ

Prueba. Si I ⊆ N y |I| = p entonces, tenemos la particion del grupo simetrico [|J|=p

SI→JNa la derecha donde SI→JN = σ ∈ SN | σ (I) = J. Aplicando la definicion dedeterminante obtenemos detαNN =

X|J|=p

Xσ∈ SI→ J

N

sgnσYn∈N

αnσn

Sea φ una permutacion de N tal que φ (J) = I. Hagamos el cambio de variable ρ = φ σ.Entonces, detαNN =

X|J|=p

sgnφX

ρ∈ SI→IN

sgnρYn∈N

αiφ−1 (ρn )

Como ρ (I) = I entonces, ρ (I0) = I0. Luego ρ se puede descomponer en la composicion dedos permutaciones θ ω donde θ ∈ SI y ω ∈ SI0 . Substituyendo ρ por θ ω la suma seconvierte en suma doble y si sacamos factores comunes obtendremos:

detαNN =X|J|=p

sgnφ

ÃXθ∈SI

sgnθYn∈I

αiφ−1 (θn )

!⎛⎝Xω∈SI0

sgnωYn∈I0

αiφ−1 (ωn )

⎞⎠Lo contenido en el primer parentesis es detαIφ(J) = ∇IJ. Lo contenido en el segundoparentesis es detαI0φ(J0) y este determinante multiplicado por sgnφ es ∆IJ.

Como ya es costumbre tediosa, hagamos la observacion de que tambien es valida laExpansion Generalizada de Laplace cuando la hacemos por un conjunto de columnas.

Page 115: Algebra Lineal

109Seccion 4.4 La expansion generalizada de Laplace

El la pagina 98 vimos que nuestra demostracion de 4.12 no es valida para campos de caracterıstica2. Ahora ya podemos dar una demostracion general. Supongamos que la matriz αNN tiene losrenglones a y b iguales. Denotemos I = a, b. Hagamos la expansion generalizada de Laplace

por estos dos renglones obteniendo detαNN =P∇IJ∆IJ . Los ∇IJ son determinantes de dos renglones y

columnas y en cada caso sus dos renglones son iguales. Por la formula para calcular los determinantes dematrices orden dos, obtenemos∇IJ = 0 y por lo tanto detαNN = 0.

Matrices diagonales y triangulares por bloques

Sea αMM una matriz. Supongamos que existe una particionM1 ∪ · · · ∪Mt =M y queαij = 0 si i y j pertenecen a bloques diferentes. Entonces decimos que αMM es diagonalpor bloques. Si cadaMi contiene un solo ındice entonces decimos que αMM es diagonal.

Supongamos ahora que, para la particionM1 ∪ · · ·∪Mt =M se cumple que si i ∈Mp,j ∈ Mq y p < q entonces αij = 0. En este caso, decimos que αMM es triangular porbloques. Si cada Mi tiene un solo ındice entonces decimos que αMM es triangular. Esclaro de las definiciones que toda matriz diagonal por bloques es triangular por bloques. Enparticular, toda matriz diagonal es triangular.

Si αMM es una matriz triangular por bloques entonces,

detαMM =Qt

i=1 detαMiMi.

Prueba. Haremos la prueba por induccion en el numero de bloques t. Para t = 1 la propo­sicion es trivial. DenotemosM0 =M\M1. Aplicando la expansion generalizada de Laplaceal conjunto de renglones I =M1 obtenemos detαMM =

P|J|=|I|∇IJ∆IJ.

Si J 6= I entonces, en αIJ hay una columna j /∈ M1 y por lo tanto j ∈ Mq con 1 < q.Luego, por definicion de matriz triangular, ∀i ∈ I = M1 se tiene que αij = 0. O sea, lacolumna j es cero en αIJ e independientemente de la biyeccion que se escoja para calcu­lar el deteminante tenemos ∇IJ = 0. Luego, detαMM = ∇II∆II = detαM1M1

detαM0M0 .La matriz M0 es triangular por bloques con un bloque menos y por hipotesis de inducciondetαM0M0 =

Qt

i=2 detαMiMi.

Ejercicio 78 ¿Cuales de las siguentes matrices son triangulares?

A =

⎛⎝ a 0 0

1 b 0

1 1 c

⎞⎠B =⎛⎝ a 1 1

0 b 1

0 0 c

⎞⎠C =⎛⎝ a 1 1

0 b 0

0 1 c

⎞⎠ [131]

Ejercicio 79 Sean M = 1, . . . , 5 y αMM una matriz triangular por los bloques M1 =

1, 2,M2 = 3 yM3 = 4, 5. ¿Cual es el aspecto de αMM en forma grafica? [131]

La expansion generalizada de Laplace en forma grafica

Ahora, precisaremos los signos de las biyecciones en la expansion generalizada de La­place cuando la matriz esta dada en forma grafica. Como esto es util solo para calcular el

Page 116: Algebra Lineal

110 Capıtulo 4. Determinantes

determinante de matrices concretas y hacerlo ası es por lo general extremadamente inefi­ciente y complicado, recomiendo omitir en una primera lectura lo que resta de esta seccion.

Si N = 1, . . . , n entonces, entre dos cualesquiera subconjuntos I, J ⊆ N del mismocardinal hay una biyeccion natural que conserva el orden. Para esto, introduscamos la nota­cion m1,m2, . . . ,mt< para senalar que ∀p ∈ 2, . . . , t se tiene que ip−1 < ip. Ahora, siI = i1, . . . , it< y J = j1, . . . , jt< entonces, la biyeccion es φ1 : I 3 ip 7→ jp ∈ J. Tam­bien, tenemos una biyeccion natural entre los complementos de I y J. Para esto sean K =N\I = k1, . . . , ks< y L = N\J = `1, . . . , `s< y definamosφ2 : K 3 kp 7→ `p ∈ L. Luego,para cualesquiera subconjuntos I, J ⊆ N del mismo cardinal la permutacion φJI = φ1 ∪ φ2cumple lo necesario para calcular el signo de un sumando de la expansion generalizada deLaplace, o sea φJI (I) = J y φJI (N\I) = N\J.

Observese, que la biyeccion φ1 es la natural de renglones a columnas que se obtiene sien una matriz αNN tachamos todos los renglones con ındices en K y todas las columnas conındices en L. De la misma manera φ2 es la biyeccion de renglones a columnas si tachamostodos los renglones con ındices en I y todas las columnas con ındices en J.

Calculemos el signo deφJI. Al estudiar la expansion (normal) de Laplace en forma grafica

(j, j− 1, · · · , i+ 1, i) si j > i(j, j+ 1, · · · , i− 1, i) si j < i

vimos que si I = i y J = j entonces, φJI = φji es

el ciclo que se muestra a la derecha y por lo tantosgnφji = (−1)

i+j (la regla del “tablero de ajedrez”).

sgnφJI = sgnφj1i1 sgnφJ\j1I\i1

.

Prueba. Sea θ =¡φJI¢−1 φJ\j1

I\i1. Tenemos que demostrar que sgnθ = (−1)

i1+j1 . Para

(kp, kp+1, · · · , kq−1, i1) si p < q(kp−1, kp−2, · · · , kq, i1) si p > qId si p = q

esto, recordemos que K = N\I = k1, . . . , ks< y L = N\J = `1, . . . , `s< . Sea p el menorındice tal que i1 < kp y sea q el menor ındice tal que j1 < `q (es admisible que p = s+1 y/o

q = s + 1). Usando la definicion de θ calculamosque esta permutacion es igual a la del recuadro a laizquierda. Luego, θ es siempre un ciclo de longitud|p− q|+ 1 y por lo tanto sgnθ = (−1)p+q.

Como i1 y j1 son los elementos mas pequenos de I y J respectivamente entonces, tenemosque k1, . . . , kp−1, i1< = 1, . . . , p− 1, p y `1, . . . , `q−1, j1< = 1, . . . , q− 1, q y deaquı finalmente, p = i1 y q = j1.

Iterando este resultado obtenemos sgnφJI = sgnφj1i1 sgnφj2i2 · · · sgnφjtit . Observese queαir jr son las entradas en la diagonal de la submatriz αIJ de αNM . Luego, para hallar sgnφJI loque hay que hacer es multiplicar los signos de la regla del tablero de ajedrez de los elementosen la diagonal de αIJ. Tambien se puede hacer, calculando la paridad de

Pi∈I i+

Pj∈J j.

Ejemplo. Calculemos el determinante de una matriz αNN del recuadro⎛⎜⎜⎝4 5 1 1

1 2 3 2

4 5 2 3

1 2 3 4

⎞⎟⎟⎠ a la izquierda haciendo la expansion generalizada de Laplace por el con­junto I del segundo y cuarto renglones. Tenemos que recorrer todos lossubconjuntos J de dos columnas.

Page 117: Algebra Lineal

111Seccion 4.5 El rango de una matriz

Observese, que si la columna 4 no esta en J entonces la matriz αIJ tiene dos renglones

J = 1, 4 J = 2, 4µ− +

− +

¶ µ+ +

+ +

¶iguales por lo que todos los sumandos correspondientes en la expansion seran cero. Ademas,para J = 3, 4 la matriz αN\I N\J tiene dos renglones iguales por lo que tambien el corres­pondiente sumando es cero. Solo nos quedan dos sumandoscuando J = 1, 4 y cuando J = 2, 4. Para ellos podemosextraer del tablero de ajedrez las submatrices del recuadro ala derecha y multiplicando los signos en las diagonales obte­nemos sgnφ1,4I = −1 y sgnφ2,4I = 1. Luego, por la expansion generalizada de Laplace eldeterminante de nuestra matriz es igual a¯

2 2

2 4

¯ ¯4 1

4 2

¯−

¯1 2

1 4

¯ ¯5 1

5 2

¯= 4× 4− 2× 5 = 6

donde usamos las barras verticales para ahorrar espacio al denotar los determinantes.

4.5 El rango de una matriz

En esta seccion introduciremos las bases de una matriz como las submatrices mas grandescon determinante diferente de cero. Demostraremos que las bases de una matriz definen yestan definidas por las bases de los espacios de columnas y renglones de la matriz. Esteresultado es central en la teorıa de matrices y es por ejemplo, el fundamento de los diversosmetodos de calculo del conjunto de soluciones de un sistema de ecuaciones lineales.

Espacios de columnas y renglones

Al subespacio deKN generado por los renglones de la matriz αMN se le llama espacio derenglones de la matriz. Aquı tenemos un pequeno problema: es posible que halla renglonesiguales y los conjuntos no distinguen elementos iguales. Por esto, diremos que un conjuntode renglones es LI si ellos son distintos dos a dos y es LI en el espacio de renglones dela matriz. Un conjunto de renglones distintos dos a dos que es una base del espacio derenglones lo llamaremos base de los renglones de αMN . Analogamente se define el espaciode columnas de una matriz, los conjuntos de columnas LI y las bases de las columnas.

Matrices no singulares

Antes que nada recoleccionaremos en un solo resultado todo lo que hemos probado paralas matrices no singulares.

Caracterizacion de Matrices No Singulares

Para cualquier matriz cuadrada A lassiguientes afirmaciones son equivalentes:1. A tiene inversa, 3. los renglones de A son LI,2. A es no singular, 4. las columnas de A son LI.

Page 118: Algebra Lineal

112 Capıtulo 4. Determinantes

Prueba. La implicacion 1⇒2 es el resultado 4.20. La implicacion 2⇒1 es el resultado4.21. La equivalencia 1⇔4 es el resultado 3.20. De aquı, 2⇔4 y como los determinantes nocambian por transposicion obtenemos 2⇔3.

Lema de aumento de matrices no singulares

El siguiente resultado es la parte mas importante de las demostraciones de los que lesiguen. Su demostracion es clasica e ingeniosa. Este resultado es en cierta manera analogoal lema de aumento de conjuntos LI que vimos en el Capıtulo 2.

Lema de Aumento de Submatrices No Singulares

Sea αIJ una submatriz cuadrada no singular de αMN . Seam ∈M\Ital que el conjunto de renglones indexado por I ∪ m es LI.Entonces, existe n ∈ N tal que la matriz αI∪m J∪n es no singular.

Prueba. Denotemos Bn = αI∪m J∪n. Al absurdo, supongamos que ∀n ∈ N\J se cumple

Bn =

µαIJ αInαmJ αmn

¶que detBn = 0.. Si n ∈ J entonces, denotemos por Bn la matriz αI∪m J a la que artifi­cialmente le agregamos otra columna n. En este caso Bn tiene dos columnas iguales y porlo tanto tambien detBn = 0. Para cualquier n, podemos pensar la matriz Bn graficamentecomo se muestra en el recuadro. Sean Bin los cofactores de lasentradas de la ultima columna en la matriz Bn. Observemos queen la definicion de los Bin no estan involucradas las entradas dela ultima columna. Luego, Bin no depende de n y podemos denotar Bin = βi ∈ K. De laexpansion de Laplace por la ultima columna en la matriz Bn obtenemos:

0 = detBn =Xi∈M

αinBin =Xi∈M

αinβi.

Como esto es valido ∀n ∈ N concluimos que βMαMN = 0N . Como βm = detαIJ 6= 0 estosignifica que los renglones de αMN estan en una combinacion lineal nula con coeficientes notodos nulos. Esto contradice la hipotesis de que los renglones son LI.

Bases de una matriz

Ya estamos listos para definir las bases y el rango de una matriz. Sea αMN una matriz.Entre las submatrices no singulares de αMN tenemos la relacion de contencion

(αI0J0 ⊆ αIJ)⇔ (I0 ⊆ I y J0 ⊆ J)Una base de αMN es una submatriz no singular maximal por contencion. Para las bases deuna matriz se cumple una propiedad analoga a la de las bases de los espacios vectoriales.

Dos bases cualesquiera de una matriz tienen el mismo orden.

Prueba. Sea αMN una matriz. Sea r el orden mas grande de sus bases. Sea αKL una base

Page 119: Algebra Lineal

113Seccion 4.5 El rango de una matriz

de orden r. Si el conjunto de renglones indexado por K en la matriz αMN fuera LD entoncesexistirıa una combinacion lineal βKαKN = 0N con βK 6= 0K y por lo tanto βKαKL = 0L loque contradecirıa que por ?? el conjunto de renglones indexado por K en la matriz αKL esLI. Luego, la dimension del espacio de renglones de αMN es al menos r.

Sea αIJ una base cualquiera. Debemos probar que |I| = r. Supongamos |I| < r. Como ladimension del espacio de renglones de αMN es al menos r entonces, existe m /∈ I tal queel conjunto de renglones indexado por I ∪m en αMN es LI. Por el Lema de Aumento deSubmatrices No Singulares (4.28) existe una columna n tal que detαI∪m J∪n 6= 0 y estocontradice que αIJ es una base de αMN .

Al orden comun de todas las bases de una matriz se le llama rango de la matriz. En otraspalabras, el rango de αMN es el maximo natural r tal que αMN tiene una submatriz cuadradade orden r y de determinante no nulo.

Teorema del rango

El siguiente resultado es una de las implicaciones de la Caracterizacion de las Basesde una Matriz (4.32) que demostraremos mas adelante. El lector no debe olvidar que portransposicion este resultado y el que le sigue tambien son validos para las columnas.

Si αIJ es una base de αMN entonces, el conjunto de renglonesindexado por I es una base del espacio de renglones de αMN .

Prueba. Sea αIJ una base de αMN y denotemos por A = αiN | i ∈ I el conjunto derenglones indexado por I. Para ver que A es una base de los renglones observese primeroque |A| = |I| ya que si este no fuera el caso la matriz αIJ tendrıa dos renglones iguales y estono puede ser ya que detαIJ 6= 0.

SiA no fuera LI existirıa una combinacion lineal βIαIN = 0N con βI 6= 0I y por lo tantoβIαIJ = 0J lo que contradecirıa que por ?? el conjunto de renglones indexado por J en lamatriz αIJ es LI. Luego, A es LI. Necesitamos probar que A es LI maximal. Si esto no fueracierto entonces, existirıa m ∈ M\I tal que el conjunto de renglones indexado por I ∪m esLI. De aquı, por el Lema de Aumento de Submatrices No Singulares (4.28) encontrarıamosuna columna n tal que detαI∪m J∪n 6= 0 y esto es un absurdo ya que las bases de una matrizson maximales por contencion.

Teorema del Rango de una Matriz

El rango de una matriz es igual a la dimension de su espacio de renglones.

Prueba. Sea r el rango de αMN . Existe una base αIJ de αMN tal que |I| = r. Por 4.30 elconjunto αiN | i ∈ I es una base de los renglones que tiene r vectores.

Una primera (pero importante y asombrosa) consecuencia del Teorema del Rango deuna Matriz (4.31) es que las dimensiones de los espacios de columnas y renglones de cual­

Page 120: Algebra Lineal

114 Capıtulo 4. Determinantes

quier matriz coinciden. Si el lector no se asombra lo debe pensar mejor. A primera vista, losespacios de columnas y de renglones de una matriz no tienen nada que ver uno con el otro.

Caracterizacion de las bases de una matriz

Ya estamos listos para demostrar el resultado que resume toda esta seccion.

Caracterizacion de las Bases de una Matriz

Una submatriz αIJ es una base de una matriz si y solo si el con­junto de renglones indexado por I es una base de los renglones y elconjunto de columnas indexado por J es una base de las columnas.

Prueba. SeaαIJ una submatriz deαMN . Ya probamos (4.30) que siαIJ es una base entonces,los renglones de αIN y las columnas de αMJ son bases. Recıprocamente, supongamos quelos renglones de αIN y las columnas de αMJ son bases. Por el Teorema del Rango de unaMatriz (4.31) el rango de las matrices αMN , αIN y αMJ es igual a r = |I| = |J|.

Por 4.30 el espacio de renglones de αMJ tiene dimension r. Por otro lado, como losrenglones de αIN son una base entonces, para cadam ∈ M\I el renglon αmN es una com­binacion lineal αmN = βIαIN de los renglones de αIN y por lo tanto cada subrenglon αmJes combinacion lineal αmJ = βIαIJ de los renglones de αIJ. Luego, los renglones de αIJ sonun generador del espacio de renglones de αMJ y como este espacio tiene dimension r = |I|concluimos que los renglones de αIJ son LI. De la Caracterizacion de Matrices No Singula­res (4.27) obtenemos que detαIJ 6= 0 o sea, αIJ es una matriz no singular de orden igual alrango y por lo tanto es una base de αMN .

4.6 Sistemas de ecuaciones lineales

Sea A = αNM una matriz y xM = xM1 una columna. El producto Xj∈M

αijxj = bide estas matrices es nuevamente una columna αNMxM1 = bN1 = bN. Sidesarrollamos este producto por la definicion de producto de matrices en­tonces obtenemos para cada i ∈ N la igualdad en el recuadro a la derecha.

Como ya es usual podemos interpretar la columna xM como un vector x en el espaciovectorialKM y a bN como un vector b en el espacioKN y en estas notaciones la igualdad seescribe en una forma mas simpleAx = b. Supongamos queA es una matriz fija. Si hacemosvariar x enKN entonces esta igualdad la podemos pensar como una TL deKM enKN. Comoes logico, si conocemos x entonces como sabemos multiplicar matrices hallamos b = Ax.Mas difıcil es el problema inverso, si se conoce b entonces, ¿como hallar x tal queAx = b?

A una igualdad de la forma Ax = b donde A y b son conocidos y x es incognitase le llama sistema de ecuaciones lineales. ¡Oh, gran confusion! ¿porque sistema? ¿por­que ecuaciones en plural si nada mas tenemos UNA?. La respuesta a estas preguntas no esgran misterio, es un problema historico. Cuando sobre la faz de la Tierra aun no vivıan las

Page 121: Algebra Lineal

115Seccion 4.6 Sistemas de ecuaciones lineales

matrices y los vectores, los humanos necesitaban encontrar unos numeritos xj tales que paracualquier i ∈ N se cumpla que

Pj∈M αijxj = bi. Observese que se necesitan encontrar |M|

numeritos. En el caso de que |N| = 1 se decıa que tenemos que resolver una ecuacion lineal.Para el caso |N| > 1 los numeritos xj deberıan de cumplir todas y cada una de las ecuacio­nes (para cada i ∈ N) y entonces, se decıa que se necesitaba resolver un sistema (conjunto,coleccion, cualquier cosa que signifique que hay muchas) de ecuaciones lineales. De hecho,para acercarnos mas a la verdad, debemos substituir en todo lo dicho los “se decıa” por “sedice” en presente. Luego, hay dos formas de ver los sistemas de ecuaciones lineales:

¨ Tenemos que encontrar |M| elementos del campo xj tales quepara cualquier i, se cumple la igualdad

Pj∈M αijxj = bi,

¨ Tenemos que encontrar un vector x ∈ KM tal que Ax = b.

Ambas formas son en esencia la misma ya que encontrar un vector x es lo mismo queencontrar todas sus coordenadas xj. Sin embargo, la elegancia de la segunda forma haceque nuestra manera de pensarlo sea mucho mas simple y sistematica (a costo de aprendersobre matrices y vectores). Por ejemplo, si ocurre que la matriz A es no singular entoncesmultiplicando porA−1 a la izquierda obtenemosAx = b⇒ A−1Ax = A−1b⇒ x = A−1b

y como ya sabemos encontrar la matriz inversa y sabemos multiplicar matrices la soluciondel sistema de ecuaciones lineales esta a la mano. Esto no significa que ya sepamos resolvertodos los sistemas de ecuaciones lineales ya que para que una matriz sea no singular senecesita primero que sea cuadrada y que ademas el determinante sea diferente de cero.

Regla de Cramer

Sea Ax = b un sistema de ecuaciones lineales. A la matriz A se le llama matriz del

A =

µ1 2 3

4 5 6

¶,b =

µ7

8

¶A (2) =

µ1 7 3

4 8 6

¶sistema y al vector b lo llamaremos vector de coeficien­tes libres. Denotaremos por A (j) la matriz obtenida de lamatriz del sistema substituyendo la j­esima columna por elvector de coeficientes libres. Un ejemplo de esta substitu­cion es el de la derecha.

Regla de Cramer

Si la matriz A es no singular entonces, la j­esimacoordenada xj del vector x es igual al determi­nante de A (j) dividido entre el determinante de A.

xj =detA (j)detA

Prueba. SeaαNM es una matriz no singular. Ya observamos que en este caso necesariamentex = α−1

NMb. Denotemos por βij las entradas de α−1NM entonces, tenemos xj = βjNbN. Por

4.21 tenemos que βjN = α∗Nj/ detαNM y de aquı xj detαNM = bNα∗Nj. Para terminar la

demostracion basta observar que la expresion a la derecha de la igualdad es la expansion deLaplace de A (j) por la columna j.

Page 122: Algebra Lineal

116 Capıtulo 4. Determinantes

Gabriel Cramer (Suiza 1704­1752) publico su famosa regla en el artıcu­lo “Introduccion al analisis de las curvas algebraicas” (1750). Esta sur­gio del deseo de Cramer de encontrar la ecuacion de una curva plana quepasa por un conjunto de puntos dado. El escribe su regla en un apendicedel artıculo y no da prueba alguna para ella. Este es uno de los orıgeneshistoricos del concepto de determinante. Es curioso (y educativo) ver conque palabras Cramer formula su regla:

“Uno encuentra el valor de cada indeterminada formando nfracciones el comun denominador de las cuales tiene tantos terminoscomo las permutaciones de n cosas.”

Cramer continua explicando como se calculan estos terminos como productos de ciertoscoeficientes de las ecuaciones y como se determina el signo. El tambien senala como losnumeradores de las fracciones se pueden encontrar substituyendo ciertos coeficientes de losdenominadores por los coeficientes libres del sistema. Para nosotros, con mas de dos siglosde ventaja, es mucho mas facil. Las “n fracciones” son detA (j) / detA y el “comun deno­minador” es detA (que tiene tantos sumandos como las permutaciones de n cosas). La Reglade Cramer (4.33) tiene fundamentalmente un interes historico por ser uno de los orıgenes delconcepto de determinante. Es necesario recalcar que esta regla solo funciona para el caso deque la matriz es no singular. O sea, cuando en el sistema se tienen tantas incognitas comoecuaciones y el determinante de la matriz del sistema no es nulo.

Existencia de soluciones

Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas:

¨ ¿Existe una solucion?¨ ¿Como encontrar una solucion en el caso de que exista?¨ ¿Como encontrar TODAS las soluciones?

La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz nosingular: la solucion existe, es unica y se halla por la Regla de Cramer. Ahora responderemosdefinitivamente y para todos los casos la primera pregunta. Pero primero, introduciremosunas notaciones que utilizaremos en toda esta seccion.

Si A y B son dos matrices con los mismos conjuntos de ındices de los ren­ABglones entonces denotaremos como en el recuadro de la derecha a la matriz cuyas

columnas son las de A y las de B. La matriz [A|B] la podemos pensar como el resultado dela operacion que a la matriz A se le agregan las columnas de B. (A las operaciones de estetipo se les llama “concatenacion” en las ciencias de la computacion).

Por otro lado, Si A y B son dos matrices con los mismos conjuntos de ındices deAB

las columnas entonces denotaremos como en el recuadro de la izquierda a la matrizcuyos renglones son los de A y los de B.

Page 123: Algebra Lineal

117Seccion 4.6 Sistemas de ecuaciones lineales

Ahora, demos una definicion. Si Ax = b es un sistema de ecuaciones lineales entonces lamatriz ampliada del sistema (denotada por [A|b]) es la matriz que se obtiene de la matrizdel sistema anadiendo el vector columna de coeficientes libres b.

Teorema de Existencia de Soluciones

El sistema Ax = b tiene una solucion si y solo si el rango de lamatriz del sistema coincide con el rango de la matriz ampliada.

Prueba. Por definicion de rango siempre se tiene que rankA ≤ rank [A|b] . Que coincidanes equivalente por el Teorema del Rango de una Matriz (4.31) a queb sea combinacion linealde las columnas de A. El que b sea combinacion lineal de las columnas de A es equivalentea la existencia de escalares xj tales que xNαiN = bi o sea a que Ax = b tenga solucion.

Eliminacion de ecuaciones dependientes

Lema de Eliminacion de Ecuaciones Dependientes

Sea I el conjunto de ındices de una base de renglones de la ma­triz ampliada [αMN |bM ]. Entonces, el conjunto de soluciones deαMNxN = bM es exactamente el mismo que el de αINxN = bI.

Prueba. Como αMNxN = bM tiene mas ecuaciones que αINxN = bI entonces cada solu­cion de αMNxN = bM es solucion de αINxN = bI.

Recıprocamente, sea xN tal que αINxN = bI ym ∈M\I. El renglon [αmN |bm ] es com­

αmN = λIαINbm = λIbI

binacion lineal de los indexados por I. Luego existen escalares λi tales quese cumplen las igualdades a la derecha. Multiplicando la primera igualdadpor xN y usando la definicion de xN obtenemos αmNxN = λIαINxN =

λIbI = bm y por lo tanto xN satisface todas las ecuaciones del sistema αMNxN .

Otra manera, mas algorıtmica, de ver este lema es que si tenemos un sistema de ecua­ciones αMNxN = bM y un renglon de este sistema es combinacion lineal de los demasentonces, debemos eliminar la ecuacion correspondiente a este renglon. El Lema de Eli­minacion de Ecuaciones Dependientes (4.35) nos garantiza que esta operacion no altera elconjunto de soluciones. Repitiendo esta operacion una cierta cantidad de veces, obtenemosuna matriz ampliada con renglones LI.

El nucleo y la imagen de una matriz

Sea αMN una MN­matriz. Ella es la matriz de la TL f : KN 3 xN 7→ αMNxN ∈ KM .Luego, podemos definir la imagen de la matriz αMN como ImαMN = Im f y el nucleo dela matriz αMN como KerαMN = Ker f. Pasemos ahora a analizar la imagen. Por definicionde imagen tenemos ImαMN = βM | ∃xN αMNxN = βM. O sea, ImαMN es el conjunto

Page 124: Algebra Lineal

118 Capıtulo 4. Determinantes

de vectores βM tales que el sistema de ecuaciones lineales αMNxN = βM tiene al menos unasolucion. Tenemos αMNxN =

Pi∈N αMixi que es una combinacion lineal de las columnas.

Luego, ImαMN es el subespacio generado por las columnas de la matriz αMN . Ademas, siγN es una solucion de αMNxN = βM entonces, 3.29 (pagina 89) nos dice que el conjuntode todas sus soluciones es el subespacio afın γN + KerαMN . Resumamos todo lo dicho en4.36 para referencias futuras.

¨ El subespacio KerαMN es el conjunto de soluciones de αMNxN = 0M .¨ El subespacio ImαMN es el generado por las columnas de αMN .¨ Si γN es una solucion de αMNxN = βM entonces, el conjunto de todassus soluciones es el subespacio afın γN +KerαMN .

Bases del subespacio afın de soluciones

Ahora nos disponemos a dar la solucion general de los sistemas de ecuaciones lineales.Sea αMNxN = bM un sistema de ecuaciones. De 4.36 las soluciones del sistema αMNxN =bM es un subespacio afın deKN . Este subespacio es γN+KerαMN donde γN es una soluciondel sistema y KerαMN es el subespacio de soluciones deαMNxN = 0M . Luego, nuestra tareaes encontrar unaN­ada solucion y encontrar KerαMN dando una base de este subespacio.

Sea αIJ una base de la matriz del sistema αMN . Si αIJ no es una base de la matrizampliada [αMN |bM ] entonces, por el Teorema de Existencia de Soluciones (4.34) el sistemade ecuaciones no tiene solucion y en este caso no hay nada que hacer. Luego, podemossuponer que αIJ es una base de la matriz ampliada. Por la Caracterizacion de las Bases deuna Matriz (4.32) el conjunto αiN | i ∈ I es una base de los renglones y de aquı por el Lemade Eliminacion de Ecuaciones Dependientes (4.35) nuestro sistema de ecuaciones tiene lasmismas soluciones que el sistema αINxN = bI.

Este sistema de ecuaciones es equivalente al del recuadro a la αIJxJ + αIKxK = bI

α−1IJ bI0K

izquierda donde K = N\J. La ventaja aquı, es que por 4.21 la matrizαIJ tiene inversa y por lo tanto podemos despejar xJ. Para encontrar una solucion de este

nuevo sistema pongamos xK = 0K y despejando obtenemos xJ = α−1IJ bI. Esto

quiere decir que la N­ada γN del recuadro a la izquierda es una solucion denuestro sistema original de ecuaciones αMNxN = bM .

Para encontrar una base del KerαMN podemos substituir xK por los vecto­−α−1

IJ αIkδKk

−α−1IJ αIKIKK

res de la base canonica deKK en la ecuacionαIJxJ+αIKxK = 0I y despejar xJ.Las K­adas de la base canonica son las columnas de la matriz identidad IKK .

Denotemos la k­esima columna de IKK por δKk. Despejandoobtenemos xJ = −α−1

IJ αIKδKk = −α−1IJ αIk. Luego los vectores en el recuadro

de arriba a la derecha, que son precisamente las columnas de la matriz ΓNKdel recuadro a la izquierda, estan en el nucleo de la matriz αMN .

Page 125: Algebra Lineal

119Seccion 4.7 Metodo de eliminacion de Gauss

Las columnas de la matriz ΓNK sonuna base del subespacio KerαMN .

Prueba. El rango de ΓNK es |K| ya que IKK es una base de ella. Evidentemente las columnasson LI. Ya observamos que cada columna de ΓNK esta en el subespacio KerαMN . El rango deΓNK es |K| ya que IKK es una base de ella y evidentemente sus columnas son LI. Necesitamosprobar que las columnas son un generador de KerαMN .

Sabemos que |K|+ |J| = |N| y de 4.36 obtenemos |J| = dim ImαMN . Como la imagen yel nucleo tienen dimensiones complementarias (3.25) entonces, |K| = dimKerαMN . Ası, elsubespacio generado por las columnas de ΓNK esta contenido en el KerαMN y tiene la mismadimension que KerαMN . Por 2.17 (pagina 52) estos espacios coinciden.

Como las combinaciones lineales de las columnas de una matriz se obtienen multipli­cando por vectores a la derecha, en la suposicion de αMNxN tiene al menos una solucion,podemos resumir todo lo expuesto en el siguiente resultado:

Solucion General de un Sistema de Ecuaciones Lineales

El conjunto de soluciones de αMNxN = bM es igual al subespacio afın¯∙−α−1

IJ αIK

IKK

¸λK +

∙α−1IJ bI

0K

¸λK ∈ KK

°⊆ KN

donde αIJ es una base de αMN y K = N\J.

En particular, la nulidad (la dimension del nucleo) de cualquier matriz es igual a sunumero de columnas menos su rango.

4.7 Metodo de eliminacion de Gauss

La idea del metodo de eliminacion de Gauss es realizar ciertas transformaciones de lasmatrices que no cambian lo que se pretende calcular y que convierte a las matrices en otrascon muchas entradas iguales a cero. Este es el metodo mas universal y eficiente (al menosmanualmente) para calcular los determinantes, el rango, el nucleo, las matrices inversas yotras cosas que aun no hemos estudiado. Aquı, estudiaremos brevemente este metodo.

Hace diez anos (1995) hubiera sido inconcebible impartir un curso general de AlgebraLineal sin desarrollar con todo detalle la eliminacion de Gauss. Sin embargo, con el crecientedesarrollo de las computadoras personales y el software matematico, cada vez mas los meto­dos de calculo se hacen importantes solo para los especialistas en desarrollo de software ypara los investigadores que pretenden mejorarlos y/o adaptarlos a nuevos problemas.

Sucede algo parecido con el metodo de calculo de las raices cuadradas de los numerosque se estudia en la ensenansa media. En un mundo con calculadoras, la fraccion de lapoblacion humana interesada en dominar este metodo es realmente muy pequena. Es mucho

Page 126: Algebra Lineal

120 Capıtulo 4. Determinantes

mas importante saber que es la raız cuadrada que saber como calcularla.

Transformaciones elementales

Sea αMN una matriz. Sean αiN , αjN dos renglones de αMN y λ ∈ K un escalar. Deno­temos βjN = λαiN + αjN y sea βMN la matriz obtenida de αMN reemplazando el renglonαjN por la N­ada βjN . A la operacion que dados αMN , i, j y λ obtenemos βMN se le llamatransformacion elemental de los renglones. Otra manera util de pensar las transformacio­nes elementales de los renglones es que en la matriz αMN al renglon αjN le sumamos elrenglon αiN multiplicado por λ. De forma analoga, se definen las transformaciones ele­mentales de las columnas. Una transformacion elemental es de renglones o de columnas.

Sea αMN una matriz y αij una entrada. Si αij 6= 0 entonces,haciendo a lo mas |M| − 1 transformaciones elementales delos renglones, podemos obtener una matriz βMN tal que en lacolumna βMj todas las entradas excepto βij son iguales a cero.

Prueba. Si k ∈M\i entonces, hacemos la transformacion ele­βkN =

−αkj

αijαiN + αkNmental de los renglones del recuadro a la derecha. En la colum­

na βMj de la nueva matriz la unica entrada que se modifico esβkj = −αkjα

−1ij αij +αkj = 0. De que |M\i| = |M|− 1 se concluye la prueba. El “a lo mas”

de nuestra tesis es porque si αkj es a priori igual a cero entonces, no es necesario realizar latransformacion correspondiente al renglon k.

A la operacion descrita en la prueba de la proposicion anterior la llamaremos diagona­lizacion de la columna αMj mediante la entrada αij. Analogamente se define la diagonali­zacion del renglon αiN mediante la entrada αij, la diferencia principal es que en este casousamos transformaciones elementales de las columnas.

Calculo de determinantes

Las transformaciones elementales no cambian los determinantes.

Prueba. Sean αMM , βMM y γMM matrices que se diferencian solo en el renglon indexadopor j para el cual se tiene que βjM = λαiM + αjM y γjM = αiM . Como el determinante esun funcional lineal de los renglones tenemos detβMM = λ detγMM + detαMM y como lamatriz γMM tiene dos renglones iguales entonces, detβMM = detαMM .

De 4.40 vemos que las diagonalizaciones de renglones y columnas tampoco cambianlos determinantes. Despues de diagonalizar una columna (un renglon), usamos la expansionde Laplace por esa columna (ese renglon) y reducimos el calculo de nuestro determinanteal calculo de un solo cofactor, que es un determinante de una matriz de orden menor en

Page 127: Algebra Lineal

121Seccion 4.7 Metodo de eliminacion de Gauss

uno. Solo hay que tener cuidado de usar los signos del tablero de ajedrez. Observese que elnumero total de transformaciones usadas es a lo mas 1+ 2+ · · ·+ (n− 1) = n (n− 1) /2.

Ejercicio 80 Demuestre que el numero de operaciones en el campo usadas para calcular eldeterminante de una matriz de orden n por el metodo de eliminacion de Gauss es:

sumas productos divisiones(n+ 1)n (n− 1) /3 (n− 1)

¡n+ n2 + 3

¢/3 n (n− 1) /2

[131]

Bases, rango, nucleos y sistemas de ecuaciones lineales

Las bases y el rango de una matriz dependen exclusivamente de los determinantes de sussubmatrices y por lo tanto no son afectados por las transformaciones elementales. Sin em­bargo, las trasformaciones elementales de las columnas cambian los nucleos y el subespacioafın solucion de un sistema de ecuaciones lineales. Sin embargo para las transformacioneselementales de los renglones la situacion es diferente.

Las transformaciones elementales de los renglones de la matriz ampliada nocambian el subespacio afın solucion de un sistema de ecuaciones lineales.

Prueba. Sea αMNxN = bM un sistema de ecuaciones lineales. Sea βMNxN = cM otrosistema que se diferencia solo en la ecuacion j para la cual se tiene βjN = λαiN + αjN ycj = λbi + bj. Si γN es una solucion del primer sistema entonces, βjNγN = λαiNγN +αjNγN = λbi + bj = cj por lo que γN es una solucion del segundo sistema. Si γN es unasolucion del segundo sistema entonces, αjNγN = βjNγN − λαiNγN = cj − λbi = bj por loque γN es una solucion del primer sistema.

De este proposicion se deduce inmediatamente que la diagonalizacion de columnas de lamatriz ampliada no cambia el subespacio afın de soluciones.

Ahora pasemos a describir como calcular la base, el rango, el nucleo o el subespacio afınsolucion mediante la eliminacion de Gauss. Sea [αMN |bM ] la matriz ampliada de un sistemade ecuaciones lineales. Si lo que se pretende es hallar la base, el rango o el nucleo de unamatriz entonces podemos ignorar la columna bM .

Pongamos I = J = ∅. Los conjuntos I y J los pensaremos como “cajas” a las que leagregaremos ındices de los renglones y las columnas mediante el siguiente algoritmo:

1. Encontramos αij 6= 0 tal que i /∈ I y j /∈ J. Si no existe terminamos.2. Diagonalizamos la columna αMj mediante la entrada αij.3. Agregamos i a la “caja” I y j al la “caja” J. Regresamos al paso 1.

Despues de terminar este algoritmo obtenemos varias cosas: Primero, una nueva matrizampliada [βMN |dM ]. Segundo, dos conjuntos I ⊆ M y J ⊆ N. Tercero, cada elemento deI y J tienen un numero que indica en que iteracion del algoritmo fueron incluidos en ellos,

Page 128: Algebra Lineal

122 Capıtulo 4. Determinantes

esto no es mas que una biyeccion φ : I → J tal que βij 6= 0 si y solo si φ (i) = j .Cuarto, denotemos K = M\I y L = N\J. Quinto, para cualquier k ∈ K el renglon βkNes nulo ya que si n ∈ J entonces, βkn se hizo cero al diagonalizar la columna αMn y si sin ∈ L entonces, el que se cumpliera βkn 6= 0 contradecirıa el criterio de parada de nuestroalgoritmo. Sexto, la submatriz βIJ es una base de βMN ya que su determinante es igual(salvo signo) a

Qi∈I βiφ(i) y es distinto de cero. Ademas, cualquier submatriz de βMN que

contenga a βIJ tiene un renglon cero y por lo tanto tiene determinante cero.La nueva matriz ampliada [βMN |dM ] la podemos visualizar grafica­µ

βIJ βIL dI0KJ 0KL dK

¶mente como en el recuadro a la izquierda. La submatriz βIJ es unabase de βMN y el numero |I| es el rango de βMN . Por 4.40, αIJ es una

base de la matriz αMN y el rango de αMN es |I| y con esto terminan nuestros problemas si loque queremos es hallar el rango o una base de una matriz.

Si queremos resolver el sistema, entonces necesitamos que βIJ sea tambien base de lamatriz ampliada y esto es equivalente a dK = 0K. O sea, si dK 6= 0K entonces, el sistemano tiene soluciones y si dK = 0K entonces, usando el Lema de Eliminacion de EcuacionesDependientes (4.35) obtenemos el sistema equivalenteβIJxJ+βILxL = dI con las ecuacionesindexadas por I.

Ahora haremos dos cosas mas. Primero, reordenaremos las ecuaciones de este ultimo sis­tema mediante la biyeccion φ : I→ J y de esta manera las ecuaciones estaran indexadas porJ. Esto no afecta las soluciones y obtenemos un sistema equivalente β0JJxJ+β

0JLxL = d

0J don­

de la nueva matriz β0JJ es diagonal. Segundo, para cada j ∈ J multiplicaremos por el escalar1/β0jj a la ecuacion β0jJxJ+β

0jLxL = d

0j. Haciendo esto, el sistema no cambia sus soluciones y

β0JJ se convierte en la matriz identidad, β0JL se convierte en alguna matriz γJL y d0J se convier­te en alguna J­ada hJ. Ası, finalmente obtenemos un nuevo sistema xJ + γJLxL = hJ cuyassoluciones son lasN­adas xN cuyas coordenadas en L son arbitrarias y sus coordenadas en Jestan determinadas por la formula xJ = hJ − γJLxL.

Como las unicas transformaciones elementales que hemos aplicado son de los renglo­nes entonces, por 4.41 las soluciones que hemos hallado son tambien soluciones de nuestrosistema original de ecuaciones lineales.

Solucion de ecuaciones matriciales, matriz inversa

Si tenemos varios sistemas de ecuaciones lineales αMNxN1 = bM1, . . . ,αMNxN` = bM`todos con la misma matriz del sistema αMN entonces, podemos denotar L = 1, . . . , `

y escribirlos todos en la forma αMNxNL = bML. Esta ecuacion matricial tiene la matrizampliada [αMN |bML] y podemos aplicarle a esta matriz la eliminacion de Gauss para resolvertodos nuestros sistemas al mismo tiempo. Esto lo podremos hacer porque en la eliminacionde Gauss no se reordenar columnas y solo se aplican transformaciones elementales a losrenglones, ası que no nos importa cuantas columnas halla despues de la barra vertical.

En particular, si M = N entonces, la unica solucion posible (si existe) a la ecuacionmatricial αMMxMM = IMMserıa xMM = α−1

MM . Esta es la forma en que con el metodo deeliminacion de Gauss se calculan las matrices inversas.

Page 129: Algebra Lineal

123Seccion 4.7 Metodo de eliminacion de Gauss

Ejercicio 81 Si el lector desea aprender el metodo de eliminacion de Gauss entonces, nobasta con leer esta seccion. Es necesario plantearse sistemas de ecuaciones lineales y resol­verlos siguiendo los pasos antes expuestos.

Page 130: Algebra Lineal

124

Page 131: Algebra Lineal

Ejercicio 1 (Seccion 1.1 pagina 2) La suma y el producto estan bien definidas en N, Z,Q, R y C. La resta en Z, Q, R y C. La division en Q, R y C. La exponenciacion es mascomplicada ya que aunque esta bien definida en N no esta bien definida en Z, Q y R ya

que¡2−1 = 1

2/∈ Z¢,³21/2 =

√2 /∈ Q

´y³(−1)

1/2= i /∈ R

´. Por otro lado, la exponencia­

cion si esta bien definida en R+ (los mayores que cero). Para ver esto. usamos las formulas(p/q)

a= pa/qa, ap/q = q

√ap, (lımi→∞ ai)b = lımi→∞ abi y finalmente si c = lım

i→∞ aientonces bc = lımi→∞ bai . Con ellas reducimos la prueba a demostrar que n

√m es un re­

al para cualesquiera (diferentes de cero) naturales n y m. Esto ultimo es equivalente a verque la funcion f (x) = xn −m alcanza el valor cero. Como f (x) es continua, f (1) ≤ 0 yf (m) ≥ 0 esto necesariamente tiene que ocurrir. No es difıcil ver, que la funcion y = ax

es estrictamente creciente en la variable x por lo que esta tiene una funcion inversa log aydefinida en R+. Las operaciones maximo comun divisor y mınimo comun multiplo estandefinidas para los naturales (y polinomios).

Ejercicio 2 (Seccion 1.1 pagina 2) Una operacion unaria en el conjunto A es una funcionde A en A. Por ejemplo para cada entero x hay otro entero −x. De esta manera la operacionx 7→ −x es una operacion unaria. Otros ejemplos comunes son el hallar el complemento deun conjunto o el hallar el complejo conjugado de un numero complejo.

Ejercicio 3 (Seccion 1.1 pagina 2) El area del triangulo con lados a, b y c no es una opera­cion ternaria en R ya que no para cualesquiera a, b y c existe un triangulo con lados de esaslongitudes.

Ejercicio 4 (Seccion 1.1 pagina 2) La formula (a+ b) (x+ y) se expresa en notacion sufijacomo ab+ xy+×.

Ejercicio 5 (Seccion 1.1 pagina 3) La suma, el producto, el maximo comun divisor el mıni­mo comun multiplo y el maximo son operaciones conmutativas. Las demas no lo son.

Ejercicio 6 (Seccion 1.1 pagina 3) Ya vimos en el texto que la exponenciacion no es asocia­tiva. Observemos que 4 = 4− (2− 2) 6= (4− 2)−2 = 0 por lo que la resta no es asociativa.Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la division no es asociativa. Tampocoes asociativa el logaritmo. El resto de las operaciones si son asociativas.

Ejercicio 7 (Seccion 1.1 pagina 4) La resta no tiene elemento neutro ya que de a − e = a

se sigue que e = 0 pero por otro lado 0 − a = −a 6= a. Lo mismo ocurre con la division.La operacion de exponenciacion no tiene elemento neutro ya que e1 = 1 ⇒ e = 1 pero

Page 132: Algebra Lineal

126 Soluciones de ejercicios selectos

12 = 1 6= 2. Lo mismo ocurre con el logaritmo. El neutro de la suma es el cero, el neutro delproducto es el uno. El 1 tambien es el neutro para el mınimo comun multiplo. La operacionde maximo comun divisor no tiene neutro.

Ejercicio 8 (Seccion 1.1 pagina 5) Es importante senalar que el inverso tiene sentido solosi hay neutro. El inverso de a para la suma es −a, para el producto es 1

a. Aunque el mınimo

comun multiplo tiene neutro 1, esta operacion no tiene inversos.

Ejercicio 9 (Seccion 1.1 pagina 5) Fijemonos en un conjunto U y en el conjunto de todoslos subconjuntos de U que denotaremos por 2U . En 2U estan bien definidas las operacionesde union e interseccion de conjuntos. Estas operaciones cumplen las propiedades requeridascomo se puede observar en los dos siguientes diagramas de Venn.

A

B

C

A ∩ (B ∪ C) == (A ∩ B) ∪ (A ∩ C)

A

B

C

A ∪ (B ∩ C) == (A ∪ B) ∩ (A ∪ C)

Ejercicio 14 (Seccion 1.2 pagina 9) Supongamos que√n es un racional. Decomponiendo

su numerador y denominador en factores primos obtenemos que√n = pn11 p

n22 . . . p

ntt para

ciertos naturales primos p1p2 . . . pt y ciertos numeros enteros n1, n2, . . . , nt. Pero entonces,n = p2n11 p2n22 . . . p2ntt y por lo tanto ∀i ∈ 1, ..., t 2ni ≥ 0. Luego, todos los ni sonnaturales lo que significa que

√n es natural.

Ejercicio 15 (Seccion 1.2 pagina 9) Tenemos 1 <√2 < 2 y por lo tanto

√2 no es natural.

Por el ejercicio anterior, no es racional.

Ejercicio 16 (Seccion 1.2 pagina 9) Siempre podemos medir un segmento de recta concada vez mas precision (al menos teoricamente). Cada medicion nos da un numero racional.Luego, la longitud del segmento es un lımite de racionales por lo que es un real.

Ejercicio 20 (Seccion 1.3 pagina 12) Por 1.1.4 sabemos que f (0) = 0 y f (1) = 1. Si f (a) =0 y a no fuera el cero de A entonces tendrıamos 1 = f (1) = f

¡aa−1

¢= f (a) f

¡a−1

¢=

0f¡a−1

¢= 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0. Luego, si f (x) = f (y)

entonces, f (x− y) = 0 y por lo tanto x = y.

Ejercicio 23 (Seccion 1.4 pagina 16) El mınimo numero de elementos en un campo es 2, yaque al menos se necesita un neutro para la suma 0 y como el campo sin el cero es un grupopara el producto, necesitamos un neutro multiplicativo. Por otro lado Z2 es un campo condos elementos

Page 133: Algebra Lineal

127Soluciones de ejercicios selectos

Ejercicio 24 (Seccion 1.4 pagina 16)La tabla de multiplicar en Z5 es la derecha. Luego el elemento in­

• 0 1 2 3 40 0 0 0 0 01 0 1 2 3 42 0 2 4 1 33 0 3 1 4 24 0 4 3 2 1

verso de 1 es 1, el elemento inverso de 2 es 3, el elemento inversode 3 es 2 y el elemento inverso de 4 es 4. Observese que en la tablade multiplicar de Z5\0 en cada columna y en cada renglon nos en­contramos con todos los elementos posibles. Esto es una propiedadde las operaciones binarias de los grupos. De hecho, un conjuntocon una operacion binaria asociativa y con elemento neutro es ungrupo si y solo si su tabla de multiplicar cumple esta propiedad.

Ejercicio 25 (Seccion 1.4 pagina 16) Sea p primo. Si x ∈ Z∗p = Zp\0 entonces al naturaln mas pequeno tal que xn = 1 lo llamaremos orden de x. En este caso todos los elementosde hxi =

©1, x, x2 . . . xn−1

ªson diferentes y la funcion f : (hxi , •) 3 xi 7→ i ∈ (Zn,+) es

un isomorfismo de grupos. Luego, lo que hay que probar es que en Z∗p existe un elemento deorden p− 1. Efectivamente:

1. Observemos que el numero de elementos de orden n no puede ser mayor que n ya queel polinomio xn − 1 no puede tener mas de n raices.

2. Veamos que si n es el orden de x entonces xm = 1 si y solo sim es un multiplo de n.Efectivamente sim = kn+ r con r < n entonces xm = (xn)k xr = xr ∈ hxi y por lotanto (xm = 1)⇔ (r = 0).

3. Un caso particular de (2) es que si x y y son elementos de ordenn ym respectivamenteentonces, el orden de xy es el mınimo comun multiplo de n ym.

4. Para cualquier x ∈ Z∗p el orden n de x es un divisor de p − 1. Efectivamente, sihxi = Z∗p entonces, n = p − 1 y terminamos. Si no, entonces existe y1 /∈ hxi y elconjunto y1 hxi =

©y1, y1x, . . . y1x

n−1ª

tiene n elementos y es disjunto con hxi. Sihxi∪y1 hxi = Z∗p entonces 2n = p−1 y terminamos. Si no, entonces existe y2 /∈ hxi∪y1 hxi y el conjunto hxi∪y1 hxi∪y2 hxi puede ser o no igual Z∗p. En algun momento,tenemos que terminar ya que Z∗p es finito y obtener que hxi∪y1 hxi∪ · · ·∪yt hxi = Z∗py por lo tanto tn = p− 1.

5. De (2) y (4) obtenemos que, para cualquier x ∈ Z∗p se cumple que xp−1 = 1.6. Sea qn11 . . . q

ntt la descomposicion en factores primos de p− 1 y denotemos ri = q

nii .

7. De (1) obtenemos que el numero de elementos de orden (p− 1) /q1 es cuando mas(p− 1) /q1 < p− 1. Luego, existe a1 tal que a(p−1)/q11 6= 1.

8. Sea b1 = a(p−1)/r11 . Veamos que el orden de b1 es r1. Tenemos br11 = a

p−11 = 1 y

por (2) el orden de b1 es un divisor de r1 = qn11 . Si suponemos que b

qm1

1 = 1 dondem < n1 entonces, por (2) cualquier multiplo k de qm1 es tal que bk1 = 1. En particular,para k = qn1−11 tenemos 1 = bk1 = a

(p−1)/q11 lo que contradice la definicion de a1.

9. Como el mınimo comun multiplo de r1, . . . , rt es p−1 entonces, por (3) y (8) el ordendel producto b1 · · ·bt es p− 1 con lo que se comprueba la existencia de un elementode orden p− 1.

Page 134: Algebra Lineal

128 Soluciones de ejercicios selectos

Ejercicio 27 (Seccion 1.5 pagina 18) No, porque t no es un elemento del campo al contrario,t es un numero natural. Lo que quiere decir tx es x+ · · ·+ x , t veces.

Ejercicio 28 (Seccion 1.5 pagina 18) De que a = −a obtenemos que

0 = a+ a = 1a+ 1a = (1+ 1)aComo todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0. Si lacaracterıstica del campo es diferente de 2 entonces, 1 + 1 6= 0 por lo que la afirmacion delejercicio es cierta. Si la caracterıstica del campo es 2 entonces, 1 + 1 = 0 y por lo tantoa = −a para cualquier elemento del campo.

Ejercicio 29 (Seccion 1.7 pagina 24) Idea: todo lo demostrado para polinomios se traducetal cual para los enteros. La unica diferencia es que en lugar de usar el concepto de grado deun polinomio hay que usar el concepto de valor absoluto de un entero.

Ejercicio 30 (Seccion 1.7 pagina 26) Si i < k entonces la suma es vacıa y por lo tanto escero. Si i = k entonces, hay un solo sumando en el cual i = j = k y este sumando es uno.Supongamos i > k. Haciendo los cambios de variables t = j− k y n = i− k obtenemos

iXj=k

(−1)j−k

µj

k

¶µi

j

¶=

nXt=0

(−1)t (n+ k) !

k!t! (t− n) !=

µn+ k

k

¶ nXt=0

(−1)t

µn

t

¶y esta ultima expresion es cero ya que

Pn

t=0 (−1)t¡n

t

¢es el binomio de Newton de (x− 1)n

evaluado en x = 1.

Ejercicio 32 (Seccion 1.8 pagina 28) Las raices del polinomio zn − 1 son xk = cosk2πn+

i sink2πn

para k ∈ 0, . . . , n− 1. Tenemos

xkxm = cos

µ(k+m)

n

¶+ i sin

µ(k+m)

n

¶= cos `

n+ i sin `

n= x`

donde ` = (k+m)modn. Para el producto, estas raices forman un grupo isomorfo a Zn.

Ejercicio 33 (Seccion 1.8 pagina 29) Sean a, b y c tres lados de un triangulo. Por simetrıasolo tenemos que probar que |a− b| ≤ c. Supongamos que a ≥ b entonces por la desigual­dad del triangulo b+ c ≥ a y de aquı c ≥ a− b. Si por el contrario b ≥ a entonces por ladesigualdad del triangulo a+ c ≥ b y de aquı c ≥ b− a.

Ejercicio 34 (Seccion 1.8 pagina 31) Para usar°°¡1− tk¢p (z0)°° = ¡1− tk¢ kp (z0)k.

Ejercicio 35 (Seccion 1.9 pagina 32) La propiedad 1 es inmediata de la definicion. Para lapropiedad 2 vemos

(a+ bi) + (c+ di) = (a+ c) + (b+ d) i =

= (a+ c)− (b+ d) i = (a− bi) + (c− di) = (a+ bi) + (c+ di)Finalmente, para probar la propiedad 3 vemos que

(a+ bi) (c+ di) = (ac− bd) + (ad+ bc) i =

= (ac− bd)− (ad+ bc) i = (a− bi) (c− di) = (a+ bi) (c+ di)

Page 135: Algebra Lineal

129Soluciones de ejercicios selectos

Ejercicio 36 (Seccion 1.10 pagina 34) Tenemos ab = ba por lo que (a, b) ∼ (a, b) lo quesignifica que la relacion es reexiva. De ad = bc obtenemos cb = da. Esto significa quesi (a, b) ∼ (c, d) entonces (c, d) ∼ (a, b) por lo que la relacion es simetrica. Si ad = bc ycf = de entonces adcf = bcde por lo que af = be. Esto significa que si (a, b) ∼ (c, d) y(c, d) ∼ (e, f) entonces (a, b) ∼ (e, f) por lo que la relacion es transitiva.

Ejercicio 37 (Seccion 1.10 pagina 36) El campo de fracciones Z2 (x) contiene a Z2 y por lotanto es de caracterıstica 2. Este campo tiene evidentemente un numero infinito de elementos.

Ejercicio 38 (Seccion 1.10 pagina 36) El campo de fracciones de un campo es el mismo.

Ejercicio 39 (Seccion 2.1 pagina 38)El triangulo abc es semejante al triangulo uvw de hecho son con­

a

b c

u

w v

gruentes porque ac = uw (lados opuestos de un paralelogramo tie­nen la misma longitud). Luego bc = wv y por lo tanto la coordenadaen x del vector−→au es igual a la de−→awmas bc. La prueba para la otracoordenada es igual.

Ejercicio 40 (Seccion 2.1 pagina 38) Tecnicamente hablando no ya que en el Capıtulo 1definimos una operacion binaria como una funcion A × A → A y la multiplicacion de unescalar por un vector es una funcion del tipo B × A → A. Pero si es una operacion binariaen el sentido de que tiene dos argumentos.

Ejercicio 41 (Seccion 2.1 pagina 38) En la expresion α (βa) se utiliza un solo tipo deoperacion (la de un escalar por un vector). En la expresion (αβ)a se utilizan dos operacionesdiferentes primero la del producto de escalares y despues la de un escalar por un vector.

Ejercicio 43 (Seccion 2.2 pagina 39) Si α 6= 0 entonces tiene inverso y por lo tantoαa = 0⇒ a = α−1αa = α−10 = 0

Ejercicio 44 (Seccion 2.2 pagina 39) El mınimo numero de elementos en un espacio vecto­rial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Y efectivamenteun conjunto formado por un solo elemento es un espacio vectorial sobre cualquier campodefiniendo α0 = 0 para cualquier α en el campo.

Ejercicio 46 (Seccion 2.3 pagina 47) Supongamos que x ∈ hN ∪ yi\ hNi. Entonces, existeuna combinacion lineal x = αyy +

Pi∈N αii. Tenemos que αy 6= 0 (ya que x /∈ hNi).

Luego, despejando y obtenemos que y ∈ hN ∪ xi.

Ejercicio 47 (Seccion 2.4 pagina 48) Solo en la prueba de que 2⇒4 al despejar a.

Ejercicio 48 (Seccion 2.4 pagina 50) 1.­ El conjunto vacıo es LI y todo el espacio E esgenerador. Luego existe N tal que ∅ ⊆ N ⊆ E que es base. 2.­ Si M es LI entonces existeuna base N tal que M ⊆ N ⊆ E. 3.­ Si L es generador entonces existe una base N tal que

Page 136: Algebra Lineal

130 Soluciones de ejercicios selectos

∅ ⊆ N ⊆ L.

Ejercicio 49 (Seccion 2.4 pagina 52) SeaA una base deE. Como F es generador yA ⊆ F esLI entonces por el Teorema de Existencia de Bases (2.14) existe una baseB de F que contieneaA. De aquı tenemos dimE = |A| ≤ |B| = dimF. Esta prueba es valida independientementede si los cardinales de A y B son finitos o no.

Ejercicio 50 (Seccion 2.4 pagina 52) El conjunto de todos los polinomiosPaix

i tales quea0 = 0 es un subespacio de K [x] de la misma dimension que K [x].

Ejercicio 51 (Seccion 2.4 pagina 53) Es consecuencia directa del Desarrollo de Taylor(1.20) alrededor del punto x0.

Ejercicio 52 (Seccion 2.4 pagina 53) La diferencia entre el espacio de las (N×M)­adasy las NM­matrices es solo en las notaciones. Luego, el espacio de las NM­matrices tienedimension |N×M| = |N| |M|. Para cada pareja i, j con i ∈ N y j ∈ M hay una matriz eijen la base canonica la cual tiene su entrada ij igual a 1 y todas las demas igual a cero.

Ejercicio 53 (Seccion 2.5 pagina 54) SeanEf→ F

g→ G transformaciones lineales. Tenemosque f (g (x+ y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (λx)) = f (λg (x)) =λf (g (x)) y esto era todo lo que se querıa probar.

Ejercicio 56 (Seccion 2.6 pagina 61) 1.­ Es facil probar que la aplicacion E⊕F 3 (a,b) 7→(b,a) ∈ F⊕E es un isomorfismo canonico. 2.­ Conmutatividad. 3.­ El isomorfismo canoni­co es ((a,b) , c) 7→ (a, (b,c)) 7→ (a,b, c). 4.­ Si, la aplicacion E⊕ 0 3 (a,0) 7→ a ∈ Ees un isomorfismo canonico. Por esto podemos considerar que E⊕ 0 = E.

Ejercicio 57 (Seccion 2.6 pagina 61) Denotemos porS a todo el espacio. Como cada vectorse expresa como a+ b con a ∈ E y b ∈ F tenemos S = E + F. Supongamos quea 6= 0 ∈ E ∩ F entonces 0 = 0+ 0 = a− a lo que contradice que la descomposicionde 0 es unica. Luego E ∩ F = 0 y por lo tantoS = E⊕ F.

Ejercicio 66 (Seccion 3.4 pagina 79) Tomese x = (1, 0) , y = (0, 1) y z = (1, 1) . Tenemos(xy)z = 0 (1, 1) = (0, 0) y x (yz) = (1, 0) 1 = (1, 0) por lo que (xy)z 6= x (yz) .

Ejercicio 69 (Seccion 3.4 pagina 81)µ

cosα − sinαsinα cosα

¶Ejercicio 70 (Seccion 3.4 pagina 82) Para cualesquiera n ∈ N y k ∈ K tenemos

(αnMβML)γLk =Xl∈L(αnM · βMl)γlk =

Xl∈L

Xm∈M

αnmβmlγlk =

Xm∈M

αnmXl∈L

βmlγlk =Xm∈M

αnm (βmL · γLk) = αnM (βMLγLk)

Page 137: Algebra Lineal

131Soluciones de ejercicios selectos

Ejercicio 71 (Seccion 3.4 pagina 83) Las matrices de f, g y f g tienen que cumplir:µcos (α+ β) − sin (α+ β)

sin (α+ β) cos (α+ β)

¶=

µcosα − sinαsinα cosα

¶µcosβ − sinβsinβ cosβ

¶=

=

µcosα cosβ− sinα sinβ − cosα sinβ− sinα cosβcosα sinβ+ sinα cosβ cosα cosβ− sinα sinβ

¶y por lo tanto cos (α+ β) = cosα cosβ− sinα sinβ

sin (α+ β) = cosα sinβ+ sinα cosβ

Ejercicio 74 (Seccion 4.3 pagina 101) Denotemos γMM = αω(L)M y ηMM = βMθ(N).Sabemos que det (γMMηMM) = det (γMM) det (ηMM) y esto es todo lo que se necesitabaprobar.

Ejercicio 78 (Seccion 4.4 pagina 109) Las tres. Para la matrizA los bloques sonM1 = 1 ,

M2 = 2 yM3 = 3. Para la matriz B los bloques sonM1 = 3 , M2 = 2 yM3 = 3.Para la matriz C los bloques son M1 = 2 , M2 = 3 y M3 = 1 ya que α23 = α21 =

α31 = 0. Los determinantes de las tres matrices son iguales a abc.

Ejercicio 79 (Seccion 4.4 pagina 109)El aspecto es el del recuadro a la derecha. Aquı hemos denotado ∗ ∗

∗ ∗0

0

0 0

0 0

∗ ∗ ∗ 0 0

∗ ∗∗ ∗

∗∗

∗ ∗∗ ∗

por ∗ las entradas que pueden ser diferentes de cero. Las entradascon 0 son las que obligatoriamente tienen que ser cero. Ademas,hemos dividido con lineas los tres bloques de la matriz. El de­terminante de una matriz de este tipo es igual al producto de losdeterminantes de sus tres celdas diagonales.

Ejercicio 80 (Seccion 4.7 pagina 121) Tenemos que diagonalizar una columna en una ma­triz de orden i para i ∈ n, . . . , 2 y al final multiplicar n elementos del campo. En cadadiagonalizacion de una columna en una matriz de orden i se utilizan i− 1 transformacioneselementales. En cada transformacion elemental de una matriz de orden i se utiliza una divi­sion, i productos e i sumas. Luego, el numero de divisiones es

Pn

i=2 (i− 1) = n (n− 1) /2,el numero de sumas es

Pn

i=2 i (i− 1) = (n− 1)n (n+ 1) /3 y el numero de productos esn− 1+

Pn

i=2 i (i− 1) = (n− 1)¡n2 + n+ 3

¢/3.

Page 138: Algebra Lineal

132

Page 139: Algebra Lineal

Algebra. Espacio vectorial con un productode vectores asociativo, distributivo, con ele­mento neutro y que conmuta con el productopor escalares. . . . . . . . . . . . . . . . . . . . . . 74, 82, 96

Algebra conmutativa. Algebra en la cual elproducto de vectores es conmutativo . . . . 74

Anillo. Conjunto condos operaciones binarias denotadas por + y• que es grupo abeliano para la suma, que elproducto es asociativo con elemento neutroy distributivo respecto a la suma . . 7, 12, 74

Anillo conmutativo. Anillo en el cual elproducto es conmutativo . . 7, 14, 21, 22, 34

Argumento de un complejo.El angulo que forma el vector

−→0z con el eje

real del plano complejo . . . . . . . . . . . . . . . . . . 27Asociatividad. Propiedad de algunas

operaciones binarias que consiste en quea (b c) = (a b) c

para cualesquiera elementos a, b y c delconjunto en el cual esta definida la opera­cion . . . . . . . . . . . . . . . . . . . . 3, 13, 19, 22, 73, 82

Asociatividad del producto por escalares.Axioma de espacio vectorial:(βa) = (αβ)a . . . . . . . . . . . . . . . . . . . . . . . . . . 39

Automorfismo. Endomorfismo biyectivo . 13Base. Conjunto de vectores que es generador y

LI. Conjunto generador minimal. ConjuntoLI maximal . . . . . 50, 54, 58, 66, 76, 83, 111

Base canonica.El conjunto deN­adas ei | i ∈ N donde laj­esima coordenada de ei es el delta de Kro­necker δij . . . . . . . . . . . . . . . . . . . . . . . . . 52, 81, 85

Base de las columnas. Conjuntode columnas diferentes que son una base delespacio de columnas . . . . . . . . . . . . . . . . . . . .111

Base de los renglones. Conjunto

de renglones diferentes que son una base delespacio de renglones . . . . . . . . . . . . . . . . . . . .111

Base de una matriz.Submatriz no singular maximal por conten­cion. Todas las bases de una matriz tienen elmismo orden . . . . . . . . . . . .112, 118, 120, 121

Binomio de Newton.Formula para expandir (x+ y)n . . . . . 20, 26

Cadena.Subconjunto de un conjunto ordenado queesta totalmente ordenado. . . . . . . . . . . . . . *, 66

Cambio de ındices.Biyeccion mediante la cual los ındices deuna N­ada (o columnas, o renglones) obtie­nen nuevos nombres. Es la operacion en queuna biyeccion ω : N → L se le aplica a lascolumnas de una matriz αMN para obtenerla matriz βML = αMω(N) que cumple queβij = αiω−1 (j). Analogamente se definenlos cambios de ındices de los renglones .100

Campo. Anillo conmutativo enel cual todo elemento diferente de cero tieneinverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8, 15, 16

Campo algebraicamente cerrado.Campo en el cual todo polinomio de gra­do al menos uno tiene una raız. Campo elcual los polinomios irreducibles son todosde grado uno . . . . . . . . . . . . . . . . . 10, 27, 33, 56

Campo de fracciones. Entrelas fracciones de un dominio de integridadse define la suma y el producto exactamen­te de la misma manera que se definen estasoperaciones en Q. Para estas operaciones elconjunto de fracciones es un campo . . . . . 35

Campo ordenado. Campo con una relacionde orden en el cual todo elemento es com­parable con el cero. Los elementos mayores

Page 140: Algebra Lineal

134 cam – con

que cero se les llama positivos y los menoresque cero negativos. Los axiomas que debecumplir la relacion de orden son:1. El opuesto de un positivo es negativo,2. El opuesto de un negativo es positivo,3. La suma de positivos es positiva,4. El producto de positivos es positivo.Los campos R y Q estan ordenados. Cual­quier campo ordenado tiene que ser de ca­racterıstica cero. Ademas, C no se puede or­denar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 9, 101

Campo primo. Campo cuyo unico subcampoes el mismo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

Caracterıstica de un campo.Es cero si el campo contiene como sub­campo a Q. Es igual al numero primo psi el campo contiene como subcampo aZp . . . . . . . . . . . . . . . . . 18, 36, 94, 98, 101, 109

Cerradura lineal. El conjun­to de todas las combinaciones lineales de unconjunto de vectores . . . . . . . . . . . . . 46, 55, 58

Ciclo. Permutacionσ del grupo simetrico de N que cambia unconjunto x0, . . . , xn−1 ⊆ N segun la reglaσ (xi) = xi+1modn y deja todos los demaselementos deN fijos . . . . . . 92, 97, 103, 110

Ciclos disjuntos. Ciclos talesque los conjuntos de elementos que ellos nodejan fijos no se intersectan . . . . . . . . . . . . . . 92

Clases de equivalencia. Si ≈ es unarelacion de equivalencia en A entonces, lasclases de equivalencia son los subconjuntosde A para los cuales a ≈ b si y solo si a yb estan en la misma clase . . . . . . . . . *, 63, 67

Cociente. Al efectuar la division con resto deun elemento p de un anillo conmutativo (Z,K [x]) entre otro q obtenemos la igualdadp = cq + r. Al elemento c se le llama co­ciente de la division de p entre q . . . . . . . . 22

Codominio de una funcion. Seaf : A→ B una funcion. Al conjunto B se lellama codominio de la funcion f . . . . . 11, 86

Coeficiente principal. El coeficiente diferentede cero de un polinomio que multiplica a la

potencia mas grande de la variable . . . . . . 21Coeficientes de un polinomio.

(vease polinomio) . . . . . . . . . . . . . . . . . . . . . . . . 21Cofactor. De la entrada αij es el escalar

sgnω detαN\iω(N\j)donde ω es cualquier permutacion de N talque ω (j) = i . . . . . . . . . . . . . . . . . . . . . . . . . . . .102

Columna de una matriz. Dada una matrizαNM y j ∈M a laN­adaαNj (j esta fijo, loselementos de N varıan) se le llama j­esimacolumna de la matriz αNM . . . . . . . . . . 43, 79

Combinacion lineal. Los vectores dela forma

Pi∈N αii (donde solo un numero

finito de los ai es diferente de cero) . 45, 58Complemento algebraico. Cofactor . . .102Composicion de funciones.

Operacion entre dos funciones que consisteen aplicar primero una funcion y despues laotra . . . . . . . . . . . . . . . . . . . . . . . 13, 54, 73, 81, 91

Conjunto acotado inferiormente.Conjunto que tiene una cota inferior. . *, 31

Conjunto acotado superiormente.Conjunto que tiene una cota superior . . . . . *

Conjunto generador. Conjuntode vectores cuya cerradura lineal es todo elespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47, 54

Conjunto inductivamente ordenado.Conjunto ordenado no vacıo dentro del cualcada cadena tiene cota superior . . . . . . . . . . 66

Conjunto LD. Acronimo de conjuntolinealmente dependiente . . . . . . . . . . . . . . . . . 48

Conjunto LI. Acronimo de conjuntolinealmente independiente . . . . . . . . . . . . . . . 48

Conjunto linealmente dependiente.Conjunto de vectores que no es LI . . . . . . . 48

Conjunto linealmente independiente.Conjunto de vectores A tal que ∀a ∈ A secumple que hA\ai 6= hAi. . . . . . . . . . .48, 111

Conjunto ordenado. Conjunto en el cualesta definida una relacion de orden . . . *, 66

Conjunto totalmente ordenado.Conjunto ordenado en el cual dos elementoscualesquiera son comparables . . . . . . . . . . . . *

Conmutatividad. Propiedad de algunas

Page 141: Algebra Lineal

135con – ecu

operaciones binarias que consiste en quea b = b a

∀ elementos a y b del conjunto en el cualesta definida la operacion . . . . . . . . . . . . . . . . . 3

Contraccion. Homotecia cuyo escalar es unreal mayor que 0 y menor que 1 . . . . . . . . . 70

Coordenada. De la n­ada (a1, a2, ..., an) esalguno de los ai. De laN­ada aN es algunode los ai para i ∈ N . . . . . . . . . . . . . . . . . . . . . 39

Coordinatizacion.Dada una base N de F, es el isomorfismoF 3

Pi∈N αii 7→ αN ∈ KN . . . . . . . 55, 83

Cota inferior.Una cota inferior de un subconjuntoA de unconjunto ordenado B es un elemento b de Btal que cualquier elemento de A es mayor oigual que B . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 31

Cota superior. Una cota superior de un sub­conjuntoA de un conjunto ordenado B es unelemento b de B tal que cualquier elementode A es menor o igual que B . . . . . . . . . . *, 66

Delta de Kronecker.Funcion δij de dos variables que toma valor1 si i = j y toma valor 0 si i 6= j . 26, 82, 96

Desarrollo de Taylor.Expresion de una funcion como serie de po­tencias f (x) =

Pai (x− x0)

i. El coefi­ciente de la serie ai es la i­esima derivadade f evaluada en el punto x0 . . . . . . . . . 26, 31

Determinante. El determinante de αNN esPσ∈SN sgnσ

Qi∈N αiσi . . . . . . .95, 20, 120

Determinante de un OL.Determinante de su matriz en una base. Nodepende de la base escogida . . . . . . . . . . . .107

Diagonalizacion de un renglon.Transformacion de una matriz que consisteen lograr que en un renglon todos las entra­das excepto una se hagan cero mediante unaserie de transformaciones elementales de lascolumnas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .120

Diagonalizacion de una columna.Transformacion de una matriz que consis­te en lograr que en una columna todos lasentradas excepto una se hagan cero median­

te una serie de transformaciones elementalesde los renglones . . . . . . . . . . . . . . . . . . . . . . . . .120

Diagrama. Reperesentaciongrafica de una familia de conjuntos y de fun­ciones entre ellos mediante la utilizacion deechas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

Diagrama conmutativo. Diagrama en el cualcualesquiera dos caminos dirigidos (que si­guen el orden de las echas) de un conjuntoa otro representan dos descomposiciones dela misma funcion como composicion de lasfunciones de las echas de los caminos . 85

Dilatacion. Homotecia cuyo escalar es un realmayor que 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

Dimension.El cardinal de cualquier base 51, 59, 64, 87

Dimension de un subespacio afın. Si E esuna traslacion del subespacio E entonces ladimension de E es la dimension de E . . . . 64

Distributividad. Relacion de una operacionbinaria ¦ con respecto a otra que consisteen que las igualdades

a ¦ (b c) = (a ¦ b) ¦ (a ¦ c)(b c) ¦ a = (b ¦ a) (c ¦ a)

se cumplen para cualesquiera elementos a,b y c del conjunto en el cual esta definida laoperacion . . . . . . . . . . . . . . . . . . . . . . 5, 19, 73, 82

Distributividad del producto por escalares.Axioma de espacio vectorial: α (a+ b) =αa+ αb y (α+ β)a =αa+βa . . . . . . . 39

Divisor. Para dos elementos p yq de un anillo con division se dice que q esun divisor de p si el resto de la division de pentre q es cero. . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

Dominio de integridad.Anillo conmutativo en el cual el producto deelementos diferentes de cero es diferente decero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 18, 35

Dominio de una funcion. Sea f : A→ B unafuncion. Al conjunto A se le llama dominiode la funcion f . . . . . . . . . . . . . . . . . . . . . . . . 11, 86

Ecuacion lineal. Ecuacion αNxN = βNdonde lasN­adas αN y βN son conocidos yel vector xN es incognito . . . . . . . . . . . . . . .114

Page 142: Algebra Lineal

136 ecu – fun

Ecuacion matricial. Ecuacion AX = Bdonde la matrices A y B son conocidas y lamatriz X es incognita. . . . . . . . . . . . . . . . . . . .122

Elemento maximal.Elemento tal que cualquier otro no es mayorque el . . . . . . . . . . . . . . . . . . . . . . . . . *, 49, 66, 112

Elemento minimal. Elemento tal quecualquier otro no es menor que el. . . . . *, 49

Elementos comparables. Dos elementos a yb de un conjunto ordenado para los cuales oa ¹ b o b ¹ a o los dos . . . . . . . . . . . . . . *, 50

Endomorfismo. Morfismo cuyo dominio ycodominio coinciden . . . . . . . . . . . . . . . . . . . . . 13

Entension lineal de una funcion. Extensionque es transformacion lineal. Si la funciontiene como dominio una base, entonces laextension lineal existe y es unica . . . . . . . . 76

Entrada de una matriz.Coordenada de unaNM­ada . . . . . . . . . . . . 43

Epimorfismo. Morfismo sobreyectivo . . . 13Escalar. Elemento del cam­

po (¡la escala!) sobre el cual esta definido elespacio vectorial . . . . . . . . . . . . . . . . . . . . . 37, 38

Espacio cociente. SiE es un subespacio de F entonces, el espa­cio cociente F/E es el conjunto de todos lossubespacios afines paralelos a E dotado conla suma de subespacios afines y el productode subespacios afines por escalares . . 65, 88

Espacio de columnas. El espacio generadopor las columnas de una matriz . . . . . . . . .111

Espacio de renglones. El espacio generadopor los renglones de una matriz . . . . . . . . .111

Espacio vectorial. Grupo abelianocon un producto por escalares distributivo,asociativo y con neutro. . . 39, 56, 62, 65, 73

Extension de una funcion.Si f es una restriccion de g entonces g esuna extension de f . . . . . . . . . . . . . . . . . . . . . . . . 75

Factor de un polinomio. Divisor de grado almenos 1 de un polinomio . . . . . . . . . . . . . . . . 22

Factor propio.Factor monico diferente al polinomio . . . 25

Forma polar de un complejo.

Es la expresion r (cosϕ+ i sinϕ) donde res el modulo de z y ϕ es el argumento dez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

Formula multinomial. Formu­la para expandir la n­sima potencia de unasuma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

Fraccion. Pareja de elementos de un dominiode integridad (por ejemploK (x) o Z) que sedenota por a/b. Dos fracciones a/b y c/dse consideran iguales si ad = bc . . . . . 34, 8

Funcion. Informalmente es una reglao procedimiento mediante el cual para cadaelemento de un conjunto a podemos obtener(calcular) otro unico elemento f (a) de otroconjunto y que llamamos la imagen de amediante la funcion f. Formalmente, unafuncion f : A→ B es un subconjunto delproducto cartesiano f ⊆ A× B que cumpleque para cualquier a ∈ A existe una unicapareja (a, b) ∈ f. . . . . . . . . . . . . . . . . . . . . . . . . . . *

Funcion antipodal. La funcion x 7→ −x . 70Funcion biyectiva. Funcion inyectiva. y

sobreyectiva . . . . . . . . . . . . . . . . . . . . . . *, 91, 100Funcion continua. Funcion continua en todos

los puntos de su dominio. . . . . . . . . . . . . . . . . 28Funcion continua en un punto. La fun­

cion f es continua en z0 si ∀ε > 0 ∃δ tal quekz− z0k < δ⇒ kf (z)− f (z0)k < ε . . . 28

Funcion de evaluacion.De un polinomio p (x) es la funcion:

p : K 3 b 7→ p (b) ∈ K. . . . . . . 23Funcion identidad. La que a todo elemento

le corresponde el mismo . . . . . . . . . . . . . . . . . 70Funcion inversa.

La inversa de una funcion f : A→ B es unafuncion g tal que f g = IdB y g f = IdA .Una funcion tiene inversa si y solo si esta esbiyectiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 54

Funcion inyectiva. Cada elemento de laimagen tiene una unica preimagen. . . . *, 87

Funcion nula. La que a todo elemento lecorresponde el cero . . . . . . . . . . . . . . . . . . . . . . 70

Funcion racional.Fraccion de dos polinomios . . . . . . . . . . . . . . 36

Page 143: Algebra Lineal

137fun – mat

Funcion sobreyectiva. Funcion tal que suimagen coincide con su codominio . . . *, 88

Funcional. Funcion de un espacio vectorialen su campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . .104

Funcional bilineal.Funcional lineal en sus dos variables . . .104

Funcional lineal.Funcional que es una TL . . . . . . . . . . . . . . . .104

Funcional lineal en una variable.Funcion de muchas variables con imagenesen un campo que para cualesquiera valoresfijos de las demas variables determina unfuncional lineal de la variable que se tra­ta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .104

Funcional multilineal.Funcional lineal en todas sus variables .104

Grado de un polinomio. La potencia ma­yor de la variable con coeficiente diferentede cero. Si el grado es cero el polinomio esun elemento del campo. No esta definido elgrado del polinomio cero . . . . . . . . . . . . . . . . 21

Grupo. Conjunto con una ope­racion binaria asociativa que tiene elementoneutro y en el cual todo elemento tiene in­verso . . . . . . . . . . . . . . . 7, 11, 13, 16, 66, 75, 91

Grupo abeliano. Grupo en el cual laoperacion es conmutativa . . . . . . . . . . . . . . . . . 7

Grupo alternante.El subgrupo (del grupo simetrico) de todaslas permutaciones pares . . . . . . . . . . . . . . . . . . 94

Grupo general lineal. El grupo de auto­morfismos de un espacio vectorial. El grupode operadores lineales no singulares . . . . . 75

Grupo simetrico.El grupo de todas las permutaciones con laoperacion de composicion . . . . . . . . . . . . . . . 91

Homotecia. Transformacionlineal que consiste en la multiplicacion porun escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

Ideal. Subconjunto I de un anillo A tal que1. ∀p, q ∈ I p+ q ∈ I,2. ∀p ∈ I ∀r ∈ A rp ∈ I . . . . . . . . . . . . . 23

Ideal principal. Ideal formado por todos losmultiplos de un polinomio . . . . . . . . . . . . . . . 24

Idempotencia. Propiedad de una funcion queconsiste en que f f = f2 = f . . . . . . . . . . . 46

Igualdad de Moivre. Formula para calcularla n­esima potencia de un numero complejoen forma polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

Imagen de un elemento. (vease: Funcion) . *Imagen de una funcion. El conjunto de los

elementos del codominio que tienen algunapreimagen. Se denota por Im f . . . . . . . . *, 86

Imagen de una matriz.La imagen de su transformacion lineal.Su espacio de columnas . . . . . . . . . . . . . . . . .118

Infimo.El maximo de las cotas superiores . . . . *, 31

Infimo de un conjunto de reales.El numero maximo x tal que x ≤ a paracualquier a ∈ A. Para el ınfimo x de Asiempre existe una sucesion ak de elemen­tos de A cuyo lımite es x . . . . . . . . . . . . . . . . . 32

Inmersion. Restriccion de la funcionidentidad a un subconjunto . . . . . . . . . . 71, 86

Inverso. De un elemento a para la operacionbinaria es un elemento b que cumple quea b = b a = e para cualquier elemen­to a del conjunto en el cual esta definida laoperacion. Si un elemento tiene inverso en­tonces este es unico. En los anillos y camposes el inverso para el producto . . . . . . . . . . . . . 5

Isomorfismo. Morfismo biyec­tivo. La inversa de cualquier isomorfismo estambien un isomorfismo . . . . . . . . . . . . . 12, 60

Isomorfismo canonico. Isomorfismo cu­ya construccion no depende de escoger algo(una base, un complementario, etc.) . 60, 65

Isomorfismo de espacios vectoriales.Transformacion lineal biyectiva . . . . . 54, 77

Isomorfismo lineal.Isomorfismo de espacios vectoriales . . . . . 54

Lımite de una sucesion.La sucesion zk tiene lımite z si ∀ε > 0 ∃Ntal que ∀k > N kzk − zk < ε . . . . . . . . . . . . 30

Lınea.Subespacio afın de dimension uno. . . 64, 45

Matriz. Es unaNM­ada o sea un conjunto

Page 144: Algebra Lineal

138 mat – mor

indexado por dos conjuntos . . . . . . . . . . . . . . 43Matriz ampliada.

Del sistema Ax = b es la matriz [A|b] .117Matriz cuadrada. Matriz con la misma

cantidad de columnas y renglones . .101, 83Matriz de cambio de base.

Escogidas dos bases V y N de un espaciovectorial la matriz αNV cuyas columnas sonlos coeficientes de las expresiones de la ba­se V como combinacion lineal de la baseN.O sea, para cualquier v ∈ V se cumple quev =

Pi∈N αivi. Si βV son las coordenadas

de un vector en la base V entonces αNVβVson las coordenadas del mismo vector en labaseN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

Matriz de permutacion. La matrizque se obtiene al permutar las columnas olos renglones de la matriz identidad. Matrizque tiene exactamente un 1 en cada renglony columna y todas las demas entradas soncero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

Matriz de una transformacion lineal.Escogidas una base N en el dominio y otraM en el codominio de una TL f la matrizαMN cuyas columnas son los coeficientesde las expresiones de las imagenes de la ba­seN como combinacion lineal de la baseM.O sea, para cualquier j ∈ N se cumple quef (j) =

Pi∈M αiji . . . . . . . . . . . . . . . 81, 78, 84

Matriz del sistema. La matriz A del sistemade ecuaciones lineales Ax = b . . . . . . . . .115

Matriz diagonal. Matriz αMM en la cual sii 6= j entonces, αij = 0 . . . . . . . . . . . . . . . . .109

Matriz diagonal por bloques. Matriz αMMen la cual hay una particion del conjunto deındicesM1 ∪ · · · ∪Mt =M y que αij = 0si i y j pertenecen a bloques diferentes .109

Matriz identidad.La matriz INN cuyas entradas son el deltade Kronecker: unos en la diagonal y cerosen el resto de las entradas. La matriz de latransformacion lineal identidad . . . . . . 82, 96

Matriz inversa. La matriz cuadrada αMNes la inversa de βNM si βNMαMN = INN

y αMNβNM = IMM . Si ambos N yM sonfinitos entonces, basta comprobar una de lasdos igualdades. Una matriz cuadrada tieneinversa si y solo si su determinante es dife­rente de cero. . . . . . . . .82, 106, 111, 118, 122

Matriz singular. Matriz cuadrada condeterminante igual a cero . . . . 101, 111, 115

Matriz triangular.Matriz triangular por bloques en la cual cadabloque es de cardinalidad 1 . . . . . . . . . . . . .109

Matriz triangular inferior. Matriz αMMen la cual M = 1, . . . ,m y tal que en surepresentacion grafica todas las entradas porencima de la diagonal son cero . . . . . . . . .109

Matriz triangular por bloques. Matriz αMMen la cual hay una particion del conjunto deındicesM1 ∪ · · · ∪Mt =M y que αij = 0si i ∈Mp , j ∈Mq y p < q . . . . . . . . . . . .109

Matriz triangular superior. Matriz αMMen la cual M = 1, . . . ,m y tal que en surepresentacion grafica todas las entradas pordebajo de la diagonal son cero . . . . . . . . . .109

Maximo. El maximo deun subconjunto A de un conjunto ordenadoB es una cota superior que pertenece aA. Siexiste entonces, el maximo es unico . . . . . . *

Mınimo. El mınimo deun subconjunto A de un conjunto ordenadoB es una cota inferior que pertenece a A. Siexiste entonces, el mınimo es unico . . *, 31

Modulo de un complejo. La longitud delvector

−→0z en el plano complejo . . . . . . . . . . 27

Monomorfismo. Morfismo inyectivo . . . 13Monotonıa. Propiedad de una

funcion de un conjunto ordenado a otro queconsiste en que x ≤ y⇒ f (x) ≤ f (y) . . 46

Morfismo. Es una funcion f : A→ B quecumple que f (x y) = f (x) • f (y) donde es una operacion definida en A y • es unaoperacion definida en B . . . . . . . . . . . . . . 10, 53

Morfismo de anillos.Funcion entre dos anillos que es morfismopara la suma y para el producto . . . . . . . . . . 12

Morfismo de campos.

Page 145: Algebra Lineal

139mor – pol

Funcion entre dos campos que es morfismopara la suma y para el producto . . . . . . . . . . 12

Morfismo de espacios vectoriales.Funcion f de un espacio vectorial a otro so­bre el mismo campo que es un morfismo delos grupos abelianos de vectores y que cum­ple f (αa) = αf (a) para cualquier vectora y cualquier escalar α . . . . . . . . . . . . . . . . . . 54

Morfismo de grupos.Morfismo cuyo dominio y codominios songrupos . . . . . . . . . . . . . . . . . . . . . . . . . . .11, 91, 100

Multiplicidad de una raız. El elemento delcampo α es una raız de multiplicidad n delpolinomio p si n es el mayor natural tal quep es un multiplo de (x− α)n . . . . . . . . . . . . 23

Multiplo. Para dos elementos p yq de un anillo con division se dice que p esun multiplo de q si ∃c tal que p = cq . . . 22

n­ada. Elemento (a1, a2, ..., an) delproducto cartesiano An . . . . . . . . . . . . . . . . . . 39

N­ada. Funcion en una notaciondiferente, αN : N 3 i→ αi ∈ A. AN se lellama el conjunto de ındices y a las αi se lellaman coordenadas . . . . . . . . . . . . .41, 80, 118

Neutro.De una operacion binaria es un elemento eque cumple que ae = ea = a para cual­quier a del conjunto en el cual esta definidala operacion. Si una operacion tiene neutroentonces este es unico . . . . . . . . . . . . . . . . . . . . . 4

Nucleo de un morfismo. El el casode grupos la preimagen del neutro. Para ani­llos y espacios vectoriales la preimagen delcero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

Nucleo de un polinomio.La coleccion de sus raices. Cada raız apare­ce tantas veces como su multiplicidad . . . 23

Nucleo de una matriz. El nucleo de sutransformacion lineal. El conjunto solucionde un sistema de ecuaciones con vector decoeficientes libres igual a cero . . . . 118, 121

Nucleo de una TL. La preimagen del cero 86Nucleo trivial. Nucleo igual a 0 . . . . . 87Nulidad de una matriz.

La dimension de su nucleo . . . . . . . . . . . . . .119OL. Acronimo de operador lineal . . . . . 74Operacion binaria.

Funcion mediante la cual para cualesquierados elementos a y b de un conjunto A po­demos encontrar otro elemento de A que esel resultado de la operacion . . . . . . . . . . . . . . . 2

Operador lineal. Transformacion lineal de unespacio en si mismo . . . . . . . . . . . . . . . . . . . . . . 74

Operador singular. OL no biyectivo . . . 75Opuesto. El inverso de un elemento de un

anillo o campo respecto a la suma . . . . . . . . 7Orden de un ciclo. El numero de elementos

que un ciclo no deja fijos. . . . . . . . . . . . . . . . . 92Orden de una matriz.

El numero de renglones y columnas de unamatriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . .101

Permutacion. Biyeccion de un conjunto finitoen si mismo . . . . . . . . . . . . . . . . . . . . . . . . . . 91, 99

Permutacion de las columnas. Esla operacion en que una permutacion ω sele aplica a las columnas de una matriz αMNpara obtener la matriz βMN = αMω(N) quecumple que βij = αiω−1 (j) . . . . . . . . . . . . . . 97

Permutacion de los renglones . Esla operacion en que una permutacion ω sele aplica a los renglones de una matriz αMNpara obtener la matriz βMN = αω(M)N quecumple que βij = αω−1 (i)j . . . . . . . . . . . . . . 97

Permutacion impar. Permutacionque se descompone en la composicion de unnumero impar de transposiciones . . . . . . . . 94

Permutacion par. Permutacionque se descompone en la composicion de unnumero par de transposiciones . . . . . . . . . . . 94

Plano.Subespacio afın de dimension dos . . . 64, 45

Polinomio. Expresionformal

Pni=0 aix

i donde los coeficientes aison elementos de un campo . . . . . . . . . . . . . . 21

Polinomio irreducible. Polinomio monico degrado al menos 1 sin factores propios . . . 25

Polinomio monico. Polinomio cuyocoeficiente principal es 1 . . . . . . . . . . . . . . . . . 25

Page 146: Algebra Lineal

140 pre – sop

Preimagen de un elemento.Sea b un elemento del codominio de f. Lapreimagen de b es el conjunto de todos x endominio tales que f (x) = b. . . . . . . . . . . *, 86

Producto de matrices.Si αMN y βNL son dos matrices entoncesγML = αMNβN,L es la matriz cuyas en­tradas son los productos escalares canonicosγij = αiNβNj de los renglones de αMN porlas columnas de βNL . . . . . . . . . . . . . . . . . 79, 98

Producto de un escalar por una funcion.Si en el codominio de f esta definido un pro­ducto por escalares entonces λf es la fun­cion tal que (λf) (a) = f (λa) . . . . . . . . . . . 72

Producto de un vector por una matriz. Esla combinacion lineal de los renglones de lamatriz cuyos coeficientes son las coordena­das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

Producto de una matriz por un vector. Esla combinacion lineal de las columnas de lamatriz cuyos coeficientes son las coordena­das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

Producto escalar. Producto bilineal de dosvectores cuyo resultado es un escalar . . . . 79

Producto escalar canonico.Producto escalar definido en KN como:αNβN =

Pi∈N αiβi . . . . . . . . . . . . . . . . . . . . 79

Proyeccion. Si C = A× B entonces,la funcion f : c = (a, b) 7→ a se le llamaproyeccion de C aA a lo largo de B. En par­ticular, nosotros la usamos en el caso de queE = F⊕G (¡la suma directa es un productocartesiano!). En este caso las proyeccionesson TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71, 86

Punto. Subespacio afın de dimension cero 64Raız de un polinomio. Elemento del

campo en el cual la funcion de evaluaciondel polinomio toma valor cero . . . . . . . . . . . 23

Rango de una matriz. El orden de sus bases.La dimension de su espacio de columnas.La dimension de su espacio de renglones.La dimension de su imagen . . . . . . . 113, 121

Regla del tablero de ajedrez. Regla mediantela cual se hallan los signos de los cofactores

de una matriz en forma grafica. El signo delcofactor de αij es (−1)i+j . . . . . . . . . . . . . .103

Relacion antisimetrica.Si a ≈ b y b ≈ a entonces, a = b . . . . . . . *

Relacion de equivalencia. Relacionsimetrica, reexiva y transitiva. . . . . . . . *, 63

Relacion de orden. Relacion antisimetrica,reexiva y transitiva . . . . . . . . . . . . . . *, 66, 112

Relacion en un conjunto. Subconjunto delproducto cartesiano A×A = A2 . . . . . . . . *

Relacion reexiva.Para todo a se tiene a ≈ a . . . . . . . . . . . . . . . . *

Relacion simetrica. (a ≈ b)⇒ (b ≈ a) . *Relacion transitiva.

Si a ≈ b y b ≈ c entonces, b ≈ a . . . . . . . *Renglon de una matriz. Dada una matriz

αNM e i ∈ N a la M­ada αiM (i esta fi­jo, los elementos de M varıan) se le llamai­esimo renglon de la matriz αNM . . 43, 79

Resto. Al efectuar la division con restode un elemento p de un anillo conmutativo(Z, K [x]) entre otro q obtenemos la igual­dad p = cq + r. Al elemento r se le llamaresto de la division de p entre q . . . . . 22, 14

Restriccion de una funcion.Una funcion f : A0 → B se le llama restric­cion de g : A→ B si A0 ⊆ A y para cual­quier a ∈ A0 se cumple f (a) = g (a) . . . 75

Serie. Expresion formal deltipo

P∞i=0 aix

i. A los elementos del campoai se le llaman coeficientes de la serie. . . 40

Signo de una permutacion.Funcion que a cada permutacion le hace co­rresponder 1 si esta es par y −1 si esta esimpar. El signo es un morfismo del gruposimetrico en el grupo multiplicativo 1,−1de cualquier campo. El nucleo del signo esel grupo alternante si el campo es de carac­terıstica diferente de dos . . . . . . . . . . . . . . . . . 94

Sistema de ecuaciones lineales.Ecuacion Ax = b donde la matriz A yel vector b son conocidos y el vector x esincognito . . . . . . . . . . . . . . . . . . . . . . . . . . . .114, 89

Soporte. De una funcion f es

Page 147: Algebra Lineal

141sub – vec

el conjunto de elementos del dominio cuyaimagen es diferente de cero. De una N­adaes el conjunto de ındices cuyas coordenadasson diferentes de cero. De una combinacionlineal es el conjunto de sumandos con coefi­ciente diferente de cero . . . . . . . . . . 41, 45, 56

Subanillo. Subconjunto de un anillo quees un anillo para las mismas operaciones delanillo mas grande . . . . . . . . . . . . . . . . . . . . . . . . 16

Subcampo. Subconjunto deun campo que es un campo para las mismasoperaciones del campo mas grande . . 16, 42

Subespacio. Subconjuntode un espacio vectorial que es a su vez es­pacio vectorial para las mismas operacionesque las de todo el espacio . . . . 44, 57, 61, 86

Subespacio afın.Traslacion de un subespacio .63, 72, 89, 118

Subespacio generado. Cerradura lineal . . 46Subespacios afines paralelos.

Dos subespacios afines son paralelos si unoes traslacion del otro . . . . . . . . . . . . . . . . . . . . . 63

Subespacios complementarios.Dos subespacios cuya suma es todo elespacio y cuya interseccion es el ori­gen. . . . . . . . . . . . . . . . . . . . . . . . 61, 63, 65, 71, 86

Subgrupo. Subconjuntode un grupo que es un grupo para la mismaoperacion del grupo mas grande . . . . . . . . . 16

Submatriz. Dada una matriz αNM a cualquiermatriz αN0M0 tal queN0 ⊆ N yM0 ⊆M sele llama submatriz de αNM . . . . . . . . .43, 112

Sucesion. Elemento (a0, a1, ..., an, ...) delconjunto AN de funciones f : N→ A . . . 40

Sucesion acotada.La sucesion zk es acotada si existe un realM tal que ∀k kzkk ≤M . . . . . . . . . . . . . . . . . 30

Sucesion convergente.Una sucesion que tiene lımite . . . . . . . . . . . . 30

Suma de conjuntos.Si A y B son conjuntos y entre sus elemen­tos hay una operacion de suma entonces:A+ B = a+ b | a ∈ A y b ∈ B . . . . . . 58

Suma de funciones.Si en el codominio mutuo de f y g esta defi­

nida una suma entonces f + g es la funciontal que (λ+ g) (a) = f (a) + g (a) . . . . . 72

Suma directa de espacios. El produc­to cartesiano de los subespacios con la sumadefinida por coordenadas y tambien el pro­ducto por escalares. Si la interseccion de dossubespacios tiene dimension cero entonces,la suma directa de ellos es canonicamenteisomorfa a la suma . . . . . . . . . . . . . . . . . . . . . . . 59

Supremo. El mınimo de las cotas inferiores *Tensor de exponente n. Un conjunto

indexado por n conjuntos de ındices . . . . 43TL. Acronimo de transformacion lineal . . 69Transformacion elemental. Transformacion

de una matriz que es la base del metodo deGauss. Una transformacion elemental de losrenglones consiste el sumarle a un reglonotro multiplicado por un escalar. Analoga­mente se definen las transformaciones ele­mentales de las columnas . . . . . . . . . . . . . . .120

Transformacion lineal. Morfismo deespacios vectoriales . . . . . . . . . . . . . . 54, 69, 76

Transformacion lineal de una matriz.Dada la matriz αMN es la funcion:KN 3 βN → αMNβN ∈ KM . . . . . . . . . . . 80

Transposicion. Ciclo de orden dos . . . . 92Transpuesta. Matriz que se obtiene de otra

intercambiando los subındices de sus entra­das, o sea si A = αNM y AT = B = βMNentonces αij = βji . . . . . . . . . . . . . . . . . . . . . . . 97

Traslacion de un conjunto de vectores.SiA es un conjunto de vectores y x otro vec­tor entonces A+ x es la traslacion de A conel vector x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

Vector. Elemento de un espacio vectorial. EnRn son los segmentos dirigidos del origen aun punto del espacio . . . . . . . . . . . . . . . . . 37, 38

Vector columna.Matriz con una sola columna . . . . . . . . . . . . 80

Vector de coeficientes libres. Elvector b del sistema de ecuaciones linealesAx = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .115

Vector renglon.Matriz con un solo renglon . . . . . . . . . . . . . . 80

Page 148: Algebra Lineal

142 vec – vec

Page 149: Algebra Lineal

∀ Para todo.∃ Existe.∃! Existe y es unico.P⇒ Q Si P entoncesQ.

P implicaQ.P es suficiente paraQ.

P⇐ Q P solo si Q.P es necesario paraQ.

P⇔ Q P si y solo siQ.P yQ son equivalentes.P es necesario y suficiente paraQ.

b ∈ B b pertenece a B.B 3 b B contiene a b.A ⊆ B A es subconjunto de B.A ⊇ B A es sobreconjunto de B.A Ã B A es subconjunto propio de B.

O sea, A ⊆ B y A 6= B.A ! B A es sobreconjunto propio de B.

O sea, A ⊇ B y A 6= B.A∪B La union de A y B.A∩B La interseccion de A y B.A\B La resta de conjuntos. El conjunto

de los elementos de A que no per­tenecen a B.

A×B El producto cartesiano de dos con­juntos. El conjunto de todas las pa­rejas (a, b) con a ∈ A y b ∈ B.

2A El conjunto de todos los subcon­juntos del conjuntoA. El conjuntode todas las funciones

f : A→ 0, 1.An El producto cartesiano de A con­

sigo mismo n veces. El conjuntode todos las n­adas (a1, . . . , an)donde todos los ai estan en A.

AN El conjunto de todas las funcionesf : N → A. El conjunto de todoslas N­adas aN donde ∀i ∈ N elelemento ai pertenece aA. SiN =1, . . . , n entonces AN = An.

0 El vector cero. El origen de coor­denadas.

0 Cero es elemento neutro para lasuma de un anillo o campo.

1 Uno es el elemento neutro para elproducto de un anillo o campo.

−1 Menos uno es el opuesto de 1 enun anillo o campo.

INN Matriz identidad.IdN La funcion identidad. La permuta­

cion identidadℵ0 El cardinal de N.

K Un campo arbitrario.Kn El espacio de las n­adas.KN El espacio de lasN­adas.K [x] El algebra de polinomios en la va­

riable x con coeficientes en K.K [[x]] El algebra de series en la variable

x con coeficientes en K.K (x) El campo de funciones racionales

en x con coeficientes en K.

N El conjunto de los naturales.Z El anillo de los enteros.Zn El anillo de restos modulo n.

Para n primo Zn es un campo.Q El campo de los racionales.R El campo de los reales.C El campo de los complejos.SN El grupo simetrico deN.AN El grupo alternante deN.

Page 150: Algebra Lineal

144 Notaciones

A−N Las permutaciones impares deN.

f : A→ B

Una funcion que tiene dominio Ay codominio B.

f : A 3 a 7→ f (a) ∈ BUsada para denotar funciones con­cretas por ejemplo,

f : R 3 a 7→ a2 ∈ R+es la funcion con dominio R y co­dominioR+ que a cada real le hacecorresponder su cuadrado.

pmodq El resto de la division de p entreq. Esta bien definido en cualquieranillo con division. Por ejemplo,en los numeros enteros y en lospolinomios con coeficientes en uncampo.

n! El factorial del naturaln. Se definecomo n! = 1× 2× · · · × n.

|A| El cardinal del conjunto A. Puedeser finito o infinito.

kzk El modulo del numero complejo z.hNi La cerradura lineal de N. El con­

junto de todas las combinacioneslineales deN.

lım zk El lımite de la sucesion zk.dimE La dimension de E.sgnπ El signo de la permutacion π.detA El determinante de la matriz A.Im f La imagen de la funcion f.Ker f El nucleo del morfismo f.

A+B La suma de dos conjuntos de vec­tores.

λA El producto de un escalar por un

conjunto de vectores.A+x El conjunto de vectores A trasla­

dado mediante el vector x. Si A esun subespacio entonces, es un sub­espacio afın.

E⊕F La suma directa de dos espacios.Si E y F son subespacios que seintersectan solo en el origen enton­ces es canonicamente isomorfa a lasuma de E y F.

αMN Una matriz cuyos renglones estanindexados por M y cuyas colum­nas estan indexadas porN.

αij La entrada αij de una matriz αMN .αiN El i­esimo renglon de la matriz

αNM .αMj La j­esima columna de la matriz

αNM .αMω(N) Si ω es una permutacion de N,

es la matriz αMN cuyas columnasestan permutadas mediante ω. Siω : N→ L es una biyeccion, es lamatriz cuyas columnas estan inde­xadas por Lmediante el cambio deındices ω.

αω(M)N Lo mismo que el anterior pero pa­ra los renglones

α∗ij El cofactor de la entradaαij de unamatriz cuadrada.

A∗ La matriz de cofactores de A.AT La matriz transpuesta de A.[A|B] La matriz cuyas columnas son las

de A y las de B.£A

B

¤La matriz cuyos renglones son losde A y los de B.

Page 151: Algebra Lineal

145Notaciones

Alfabeto gotico

A B C D E F G H I J K L MA B C D E F G H I J K L M

N O P Q R S T U V W X Y ZN O P Q R S T U V W X Y Z

a b c d e f g h i j k l ma b c d e f g h i j k l m

n o p q r s t u v w x y zn o p q r s t u v w x y z

Alfabeto caligrafico

A B C D E F G H I J K L MA B C D E F G H I J K L M

N O P Q R S T U V W X Y ZN O P Q R S T U V W X Y Z

Alfabeto griego

A B Γ ∆ E Z H Θ I

α β γ δ ² ε ζ η θ ϑ ι

alfa beta gamma delta epsilon zeta eta zita iota

K Λ M N Ξ O Π P Σ

κ κ λ µ ν ξ o π ρ σ

kappa lamda mu nu xi omicron pi ro sigma

T Υ Φ X Ψ Ω

τ υ φ ϕ χ ψ ω

tau upsilon fi chi psi omega

Page 152: Algebra Lineal

146

Page 153: Algebra Lineal

Capıtulo 1

1. Defina los siguientes conceptos:• Operacion binaria.• Propiedad conmutativa.• Propiedad asociativa.• Propiedad distributiva.• Elemento neutro.• Elemento inverso.

2. En cualquier campo 0x = 0.3. Defina los siguientes conceptos:• Grupo y grupo abeliano.• Anillo y anillo conmutativo.• Campo.

4. Defina los morfismos.5. Los morfismos preservan las operaciones bi­

narias.6. Los morfismos preservan la conmutatividad.7. Los morfismos preservan la asociatividad.8. Los morfismos preservan el neutro.9. Los morfismos preservan el inverso.10. Los morfismos preservan la distributividad.11. La inversa de un isomorfismo es un isomor­

fismo.12. Defina la suma y el producto en Zn .13. (Zn,+, •) es un anillo conmutativo.14. Todo campo es un dominio de integridad.15. Zn es un dominio de integridad si y solo sin es primo.

16. Todo dominio de integridad finito es uncampo.

17. Un campo primo o es Q o es Zp para ciertonumero primo p.

18. Un campo cualquiera no puede contener dossubcampos primos diferentes.

19. Defina la caracterıstica de un campo.20. En un campo de caracterıstica t para cual­

quier elemento x se cumple que tx = 0 .21. Demuestre la formula del binomio de New­

ton en base a la formula multinomial.

Capıtulo 2

1. Definicion de espacio vectorial.2. ¿Que es una n­ada? ¿Que es una N­ada?

¿Cual es su conjunto de ındices? ¿ Que sonsus coordenadas?

3. ¿Que es una NM­matriz? ¿Que es una en­trada, renglon, columna?

4. Definicion de subespacio.5. Los subespacios son los conjuntos cerrados

para la suma y el producto por escalares.6. La union de subespacios no es un subespa­

cio.7. La interseccion de subespacios es un subes­

pacio.8. Definicion de combinacion lineal y sus co­

eficientes.9. El conjunto de todas las combinaciones li­

neales de un conjunto de vectores es un su­bespacio.

10. Los siguientes tres conjuntos de vectores co­inciden:• El conjunto de todas las combinacioneslineales de A.• La interseccion de todos los subespaciosque contienen a A.• El subespacio mas pequeno que contienea A.

11. Propiedades basicas de la cerradura lineal:• incremento,• monotonıa,• idempotencia.

12. Todo sobreconjunto de un conjunto genera­dor es generador.

Page 154: Algebra Lineal

148 Guıa de estudio

13. Teorema de caracterizacion de conjuntos LI.14. Todo subconjunto de un conjunto LI es LI.15. Lema de aumento de un conjunto LI.16. Teorema de caracterizacion de bases.17. Teorema de existencia de bases.18. Propiedad del cambio de las bases.19. Dos bases cualesquiera de un espacio vecto­

rial tienen el mismo cardinal.20. Si E es un subespacio de F y dimE =

dimF <∞ entonces, E = F.21. Describa las bases canonicas de los espacios

vectoriales KN y K [x].22. La inversa de un isomorfismo lineal es un

isomorfismo lineal.23. Un isomorfismo transforma conjuntos LI en

conjuntos LI, conjuntos generadores en con­juntos generadores y bases en bases.

24. Describa el isomorfismo de coordinatiza­cion en una base.

25. Dos espacios vectoriales sobre un mismocampo son isomorfos si y solo si tienen lamisma dimension.

26. Todo espacio vectorial finito dimensional esisomorfo a Kn .

27. hE ∪ Fi = a+ b | a ∈ E, b ∈ F28. La igualdad modular (incluye la demostra­

cion del lema).29. Si E y F son subespacios tales que E ∩ F =0 entonces la funcion

E⊕ F 3 (a,b) 7→ a+ b ∈ E + Fes un isomorfismo de espacios vectoriales.

30. Que es un isomorfismo canonico. Demues­tre que E ⊕ F y F ⊕ E son canonicamenteisomorfos.

31. Todo subespacio tiene complementario.32. Si E y F son dos subespacios complemen­

tarios entonces cada vector x se expresa deforma unica como x = a+ b donde a ∈ Ey b ∈ F.

33. Defina los subespacios afines.34. ¿Que es el paralelismo de subespacios afi­

nes?35. Todo subespacio afın es paralelo a un solo

subespacio.

36. Dos diferentes subespacios afines paralelosno se intersectan

37. ¿Que es el espacio cociente? ¿Cuales sonsus operaciones?

38. Cualquier subespacio complementario a Eintersecta al subespacio afın (E + x) en unsolo punto.

Capıtulo 3

1. Definicion de transformacion lineal.2. Toda TL transforma subespacios en subes­

pacios.3. Toda TL de un espacio de dimension 1 es

una homotecia.4. Definicion de proyeccion. Toda proyeccion

es una TL.5. El producto de un escalar por una TL es una

TL.6. La suma de dos TLs es una TL.7. La composicion de TLs es una TL.8. Propiedades de la composicion de TLs: aso­

ciatividad, distributividad y conmutatividadcon el producto por escalares.

9. Definicion de Algebra. De tres ejemplos dealgebras. ¿Que es el grupo general lineal?

10. Las extensiones lineales son TLs.11. Las TLs estan predeterminadas por sus va­

lores en una base.12. Si N es una base de E entonces, la funcion

que a cada TL h ∈ Hom (E,F) le hace co­rresponder su restriccion hN ∈ FN es unisomorfismo de espacios vectoriales.

13. Una TL es un isomorfismo si y solo si su res­triccion a una base es inyectiva y la imagende esta restriccion es una base.

14. Propiedades del producto escalar canonicodeN­adas conmutatividad, distributividad yconmutatividad con el producto por escala­res.

15. Definicion del producto de matrices.16. ¿Cual es la TL definida por una matriz?.

¿Cual es la matriz de una TL?17. La matriz de la composicion de dos TLs es

igual al producto de las matrices de las TLs.

Page 155: Algebra Lineal

149Guıa de estudio

18. Defina las matrices de cambio de base.19. La N­ada de las coordenadas de un vector

en la base nueva se obtiene multiplicando lamatriz de cambio de base por la V­ada de lascoordenadas del vector en la base vieja.

20. Sea f : E→ F una TL. Sean B y C matricesde cambio de base en E y F respectivamen­te. Si A es la matriz de f en las bases viejasentonces CAB−1 es la matriz de f en las ba­ses nuevas.

21. Definicion de nucleo e imagen de una TL.22. La imagen y el nucleo son subespacios.23. Si K es un subespacio complementario a

Ker f entonces, la restriccion de f a K es unisomorfismo.

24. Una TL es injectiva si y solo si su nucleo estrivial.

25. Sean E y F dos espacios tales que dimE =dimF < ∞. Una TL de E a F es inyectivasi y solo si es sobreyectiva.

26. Los subespacios afines paralelos a Ker f sonprecisamente los conjuntos de vectores enque la funcion f es constante.

Capıtulo 4

1. Si |M| = |N| entonces, los grupos simetri­cos SM y SN son isomorfos.

2. El numero de permutaciones de un conjuntocon n elementos es n!.

3. Toda permutacion es composicion de ciclosdisjuntos.

4. Toda permutacion es composicion de trans­posiciones.

5. Definicion de permutaciones pares e impa­res. Definicion del signo.

6. Pruebe que sgn (π ρ) = sgnπ sgnρ y quesgnπ−1 = sgnπ.

7. Definicion de determinante de una matriz.Regla del triangulo para los determinantesde orden 3.

8. Si una matriz tiene una columna o un ren­glon nulo entonces, su determinante es cero.

9. El determinante de la matriz identidad es 1.10. El determinante no se altera al transponer

una matriz.11. Al permutar las columnas o los renglones de

una matriz con la permutacionω el determi­nante se altera por un factor igual a sgnω.

12. Si una matriz tiene dos columnas iguales en­tonces, su determinante es cero.

13. Si φ y ϕ son dos cambios de ındices de NenM entonces, se cumple la igualdad:detαMφ(N) = sgn

¡φ ϕ−1

¢detαMϕ(N).

14. Definicion de matriz no singular.15. Definicion de cofactores de una entrada de

una matriz. Pruebe que los cofactores no de­penden del cambio de ındices usado paracalcular el determinante.

16. Teorema de expansion de Laplace.17. Definicion de funcional multilineal18. El determinante es un funcional multilineal

de los renglones.19. detA−1 = (detA)−1.20. A−1 = A∗T / detA.21. El determinante de un OL no depende de la

base que se use para calcularlo.22. Enuncie la expansion generalizada de La­

place23. El determinante de una matriz triangular por

bloques es igual al producto de los determi­nantes de sus bloques.

24. Enuncie la caracterizacion de matrices nosingulares.

25. Lema de aumento de submatrices no singu­lares.

26. Dos bases cualesquiera de una matriz tienenel mismo orden.

27. Si αIJ es una base de αMN entonces, el con­junto de los renglones indexados por I esuna base del espacio de renglones de αMN .

28. Teorema del rango de una matriz.29. Regla de Cramer.30. Teorema de existencia de soluciones.31. Lema de eliminacion de ecuaciones depen­

dientes.32. Describa el procedimiento general de solu­

cion de los sistemas de ecuaciones linenea­les.

Page 156: Algebra Lineal

150 Guıa de estudio

33. Definicion de transformacion elemental.Definicion de diagonalizacion de una co­lumna.

34. Las transformaciones elementales no cam­bian los determinantes.

35. Las transformaciones elementales de losrenglones de la matriz ampliada no cambian

el subespacio afın solucion de un sistema deecuaciones lineales.

36. Describa el metodo de eliminacion de Gausspara resolver un sistema de ecuaciones li­neales.

37. ¿Como se halla la matriz inversa usando elmetodo de eliminacion de Gauss?