Download - Algebra Lineal.pdf

Transcript
Page 1: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 1/232

´Algebra LinealVolumen I

Transformaciones lineales

Jorge Luis Arocha

version compilada el

27 de noviembre de 2014

Page 2: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 2/232

Jorge Luis Arocha PerezInstituto de MatematicasUniversidad Nacional Autonoma de MexicoMexico D.F. 04510

BibTeX:

@textbookArochaLA

AUTHOR = Arocha, Jorge L.TITLE = \’Algebra Lineal

YEAR = 2014NOTE = Available at combinatoria.matem.unam.mx

Mathematics Subject Classification 2010: 00—01, 12—01, 15—01

c°2014 Jorge Luis Arocha PerezPermitida la reproduccion para uso individual y no comercial.Todos los demas derechos estan reservados.

Page 3: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 3/232

IntroduccionEste libro lo escrib ı como texto basico para el curso de “Algebra Lineal” para estu-

diantes de Licenciatura que he impartido por muchos anos en la Facultad de Cienciasde la Universidad Nacional Autonoma de Mexico.

Se presupone que los estudiantes hayan cursado ya las materias de “Algebra su-perior” y “Geometr ıa Anal ıtica” o sea tengan ciertos conocimientos sobre matrices,

vectores, polinomios, numeros complejos, etc.El objetivo es desarrollar el algebra lineal sobre campos arbitrarios pero se hace

enfasis en los reales, los complejos y los residuos modulo un numero primo. Despues deuna introduccion corta a la teor ıa de campos se estudian los espacios vectoriales, lastransformaciones lineales, los determinantes y finalmente los teoremas de descomposi-cion de operadores.

Por ahora, aqu ı no hay practicamente nada de transformaciones bilineales, produc-tos escalares, espacios duales, ortogonalidad, tensores etc. En mis planes esta escribir

un segundo volumen o aumentar este libro con cap ıtulos sobre estos temas.El material desarrollado es demasiado para un semestre y usualmente yo imparto en

un semestre los cap ıtulos I–IV (aquellas secciones que no estan marcadas como avan-zadas). Un segundo semestre podr ıa comenzar con las secciones de polinomios sobrecampos, continuar con la descomposicion de operadores lineales y terminar con aque-los temas que ya senale, faltan aquı. Otras secciones las escrib ı porque me parecieron

un buen material de lectura complementaria para los alumnos curiosos.Una particularidad de la exposicion es que para m ı, las matrices no tienen orden, por

ejemplo, las matrices de cambio de base estan naturalmente indexadas por conjuntosde vectores y los conjuntos de vectores no tienen un orden natural. Como resultado deesto este libro es fundamentalmente conceptual y no computacional.

El libro es inusualmente colorido y visualmente agresivo. La razon de esto es quecuando estaba en el papel de alumno yo prefer ıa estudiar por las libretas de notas demis companeras de clase. Se me hac ıa muy facil memorizar la imagen completa de unapagina llena de rayas, flores, corazones etc. y dentro de todo esto, las matematicas. Ladea es que cada pagina luzca visualmente diferente. He tratado dentro de lo posible,

ograr esto.Los caracteres de matematicas estan en un color diferente. El texto y las seccionesavanzadas estan marcados con un birrete. Uso unos lentes para marcar aquello queel lector no debe dejar pasar. Errores comunes que cometen los que no est an familia-rizados con el material estan marcados con calaveras. Los teoremas estan resaltadosvisualmente, etc.

Se incluyen mas de un centenar de ejercicios. Los ejercicios mas notables consistenen material adicional que un estudiante de matematicas o fısica debe conocer tarde o

temprano. Las soluciones de los ejercicios no rutinarios se dan al fi

nal del libro.He compilado un glosario de terminos que es a la vez un ındice del libro y undiccionario de los conceptos introducidos y/o usados.

Incluyo una gu ıa de estudio. De esta gu ıa yo escojo las preguntas para los examenes.Esto representa una ventaja enorme para los estudiantes ya que una de las dificultades

Page 4: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 4/232

IV

mas importantes de ser estudiante es comprender que es lo que se espera de ellos.Finalmente, quiero agradecer a mis colegas Javier Bracho, Francisco Larrion y Omar

Antol ın que han influenciado de una u otra manera a esclarecer mis ideas sobre eltema y que contribuyeron substancialmente a hacer de este, un libro mejor. Muchosde mis estudiantes mas notables han encontrado errores en mis notas de clase, mi

agradecimiento a todos ellos.

Jorge L. ArochaMexico D.F. Octubre de 2014

Page 5: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 5/232

Cap ıtulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos in-versos (4). Distributividad (5). El algebra “abstracta”(5).

1.2 Numeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (8). Reales (8).Complejos (9).

1.3 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Morfismos de grupos (10). Morfismos de anillos (11). Isomorfismos (12). Com-

posicion de morfismos (13).1.4 Campos de restos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

El anillo de los enteros modulo n (14). Dominios de integridad (15). El campode los enteros modulo p (16).

1.5 Campos primos. Caracterıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17Campos primos (17). Caracter ıstica (19).

1.6 Aritmetica de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19Multiplos y exponentes enteros (19). Asociatividad general (20). Distributividad

general (20). Formula multinomial (20). La expansion de ΠΣα ij (21).*1.7 Anillos con division . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

Quaterniones (23). Caso finito (24).

Cap ıtulo 2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.1 El plano cartesiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.2 Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28El espacio de n-adas Kn (29). El espacio de polinomios K [x ] (30). El espaciode sucesiones KN (30). El espacio de series K [[x ]] (30). El espacio de funciones

KN (30). El espacio de N-adas KN (31). El espacio de N-adas finitas KN

(31). Subcampos (32). El espacio de N-adas de vectores EN (32). El espacio deNM-matrices KNM (32). El espacio de tensores (33).

2.3 Subespacios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34Union e interseccion de subespacios (34). Combinaciones lineales (35). Cerra-dura lineal (36).

2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37Conjuntos generadores (38). Conjuntos linealmente independientes (38). Bases(39). Dimension (41). Bases canonicas (43).

2.5 Clasificacion de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44Isomorfismos lineales (44). Coordinatizacion (45). Clasificacion (46). Camposde Galois (46). Como pensar en espacios vectoriales (47).

2.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

Page 6: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 6/232

VI Contenido

Subespacios de Rn (48). Suma de conjuntos y subespacios (49). La igualdadmodular (49). Suma directa (50). Isomorfismo canonico entre la suma y la sumadirecta. (51). Subespacios complementarios (52). Espacios vectoriales versusconjuntos (53).

2.7 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54Subespacios afines (54). El espacio cociente (56). El isomorfismo con los com-

plementarios (56).*2.8 El espacio af ın . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

La regla del paralelogramo (58). Cerradura af ın (58). Generadores e indepen-dencia (59). Bases afines (59).

*2.9 El caso de dimension infinita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61El Lema de Zorn (61). Existencia de bases (61). Cardinales (62). Equicardina-lidad de las bases (63).

Cap ıtulo 3 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

3.1 Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65Imagenes de subespacios (65). Homotecias (66). Inmersiones (67). Proyecciones(67).

3.2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 68El espacio vectorial de las transformaciones lineales (68). Composicion de trans-formaciones lineales (69). El algebra de operadores lineales (70). El grupo ge-neral lineal (71).

3.3 Extensiones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71Extensiones y restricciones (71). El isomorfismo entre FN y Mor (E, F) (73). Un

criterio de isomorfismo (73).3.4 Coordinatizacion de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . 74

El producto escalar canonico (75). El producto de matrices (76). Productos dematrices y vectores (76). La transformacion lineal de una matriz (77). La matrizde una transformacion lineal (77). Composicion de TLs y producto de matrices(78). Matrices inversas (79).

3.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80Cambios de base en un espacio vectorial (80). Cambios de base en el espaciode transformaciones lineales (81). Cambios de base en el espacio de operadores

lineales (82).3.6 El nucleo y la imagen de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

Definiciones (82). Transformaciones lineales con nucleo trivial (83). Descompo-sicion de transformaciones lineales (83). Un criterio de isomorfismo (84). Des-composicion canonica de transformaciones lineales (85).

*3.7 Trasformaciones semilineales y coalineaciones . . . . . . . . . . . . . . . . . . . . . . 86Trasformaciones semilineales reales (86). Propiedades de las transformacionessemilineales (87). Automorfismos semilineales. (87). Coalineaciones (88). Es-tructura de las coalineaciones (90).

Cap ıtulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

4.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93El grupo simetrico (93). Ciclos y orbitas (94). El grupo alternante (95). El signode una permutacion (97).

Page 7: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 7/232

VIIContenido

4.2 Determinantes. Propiedades basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97Definicion de los determinantes (98). Determinantes de matrices pequenas (98).El determinante de la identidad (99). Matrices con filas nulas (100). El deter-minante de la transpuesta (100). El determinante del producto (100). Matricescon filas iguales (101). Matrices de permutaciones (102). Permutaciones de co-lumnas y renglones (103).

4.3 Expansion de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104Cambios de ındices (104). Complementos algebraicos (106). La expansion de undeterminante por sus renglones (106). La expansion de Laplace en forma grafica(107). Multinearidad de los determinantes (108). La inversa de una matriz (110).El determinante de un operador lineal (111).

*4.4 La expansion generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112Matrices diagonales y triangulares por bloques (113). La expansion generalizadade Laplace en forma grafica (114).

4.5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116Matrices no singulares (116). Espacios de columnas y renglones (116). Lema deaumento de matrices no singulares (118). Bases de una matriz (118).

4.6 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119Regla de Cramer (120). Existencia de soluciones (122). Eliminacion de ecuacio-nes dependientes (122). El nucleo y la imagen de una matriz (123). Bases delsubespacio af ın de soluciones (123).

4.7 Metodo de eliminacion de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124Transformaciones elementales (124). Ejemplo (125). El caso general (126). So-

lucion de ecuaciones matriciales, matriz inversa (127).

Cap ıtulo 5 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

5.1 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129Suma y producto de polinomios (129). La funcion de evaluacion (130). Divisionde polinomios (131). Divisibilidad (131). Factores y raices (133). Ideales depolinomios (134). Unicidad de la factorizacion en irreducibles. (135). El conjuntoordenado de polinomios monicos (136). Desarrollo de Taylor (137).

*5.2 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

Forma polar. Igualdad de Moivre (139). Continuidad (140). L ımite de sucesionescomplejas (141). Teorema de Gauss (142).

5.3 Factorizacion de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . . 144Caso Complejo (144). Caso real (144).

*5.4 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . . 146Campos de fracciones (146). Funciones racionales (147).

Cap ıtulo 6 Descomposicion de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . 149

6.1 Suma directa de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149Subespacios invariantes, componentes irreducibles (150). Ejemplos en dimension2 (152). Las matrices y los subespacios invariantes (152).

6.2 Polinomios de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

Page 8: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 8/232

VIII Contenido

El morfismo de K [x ] en End (E) (154). La subalgebra K [h ] (155). El polinomiomınimo (155). El per ıodo de un vector (156). Anuladores (157). Propiedadesdel per ıodo. (157).

6.3 Subespacios radicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158Nucleos de polinomios de operadores lineales (158). Operadores lineales radi-cales (159). Componentes radicales (160). Existencia de un vector de per ıodo

maximo (161).6.4 Subespacios cıclicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

h -combinaciones (162). Conjuntos h -generadores (162). Subespacios cıclicos(163). Conjuntos h -independientes (164). h -bases (165).

6.5 Descomposicion en subespacios c ıclicos radicales. . . . . . . . . . . . . . . . . . . 166El espacio cociente por un subespacio invariante (166). Polinomios y el espaciocociente (167). El per ıodo en el espacio cociente (168). Existencia de h -bases(169). Unicidad de la descomposicion (170). Estructura de los operadores cıclico-radicales (173).

6.6 Polinomio caracterıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174Rectas invariantes (174). El polinomio caracter ıstico de un operador lineal (174).El polinomio caracter ıstico y el polinomio m ınimo (176).

6.7 Formas normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178Forma normal de Jordan (179). Forma normal real (180). Forma normal canoni-ca (182).

Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213

Guıa de estudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217

Page 9: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 9/232

IX

El algebra es la oferta hecha por el Diablo a los matematicos.El Diablo dice:

“Yo te dare a ti esta poderosa maquinaria que responder´ a cualquier pregunta que tu quieras.Todo lo que se necesita que tu hagas es entregarme tu alma:

dame la geometr´ ı a y tendr´ as esta maravillosa m´ aquina”

...el dano a nuestra alma esta ah ı,porque cuando usted pasa a hacer calculos algebraicos,

esencialmente usted deja de pensar...

Sir Michael Atiyah

La forma correcta de leer las matematicas consiste en primeroleer las definiciones de los conceptos y las afirmaciones de los teoremas; luego,

poner el libro a un lado y tratar de descubrir por si mismo las pruebas adecuadas.

Si los teoremas no son triviales, el intento puede fallar,pero es probable que de todas maneras sea instructivo.

Para el lector pasivo un computo rutinario y un milagro de creatividad,se leen con la misma facilidad, y mas tarde, cuando deba depender de s ı mismo,

se dara cuenta de que se fueron tan facilmente como vinieron.El lector activo, que se ha enterado de lo que no funciona,

entiende mejor la razon del exito del metodo del autor,

y despues encontrar a las respuestas que no est´ an en los libros...

Paul Halmos

Page 10: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 10/232

X

Page 11: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 11/232

ampos

apítulo primero

l objeto del algebra lineal es el estudio de los espacios vectoriales. Estosespacios son estructuras algebraicas cuyos objetos son de dos tipos los vectoresy los escalares. Las operaciones definidas en los espacios vectoriales son la

suma y resta de vectores, la suma resta multiplicacion y division de escalares y lamultiplicacion de escalares por vectores. La mayor ıa de los temas estudiados en esteibro no dependen del conjunto de escalares y el lector puede casi siempre considerar

que los escalares son los reales R y que el espacio vectorial es el espacio “geometrico”comun Rn.

Sin embargo, como esta teor ıa no depende (al menos en gran parte) del conjunto deescalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matematicasy las ciencias naturales) es conveniente elevar un paso el nivel de abstraccion y pensar

que el conjunto de escalares es un campo arbitrario K .El primer objetivo de este cap ıtulo es dar al lector un conocimiento basico de lo

que es un campo. Esto se pretende lograr por tres medios: dando la de finicion formal,estudiando algunas propiedades (como la caracter ıstica) de los mismos, viendo que lasreglas usuales de manipulacion de formulas en un campo no se diferencian esencialmentede las formulas en los reales y sobre todo, dando los ejemplos fundamentales de campos.

1.1 Operaciones binarias

Sea A un conjunto. Una operacion binaria es una funcion del producto cartesianoA × A en A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A

se le hace corresponder un tercer elemento de A. Demos algunos ejemplos sencillos:

1) a + b suma 5) ab exponenciacion2) a − b resta 6) loga b logaritmo3) ab producto 7) mcd (a, b) max comun divisor4) a

b division 8) mcm (a, b) mın comun multiplo

Lo primero que observamos de los ejemplos anteriores es que no hemos de finidoen cual conjunto esta definida la operacion. Esto no es correcto formalmente, as ı por

Page 12: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 12/232

2 Cap ıtulo 1. Campos

ejemplo la division es una operacion que no esta definida en el conjunto de los numerosenteros. Sin embargo el lector podra facilmente encontrar los conjuntos en los cualesestos ejemplos son operaciones binarias.

E jercicio 1 ¿En cuales conjuntos las operaciones 1-8 estan correctamente definidas?

E jercicio 2 ¿Que es una operacion unaria? De ejemplos. [185]

E jercicio 3 Dados tres numeros reales a, b, c definamos A (a,b,c) como el area deltriangulo con lados a, b y c. ¿Es esta una operacion ternaria en R? [185]

Lo segundo que debemos de observar, es la variedad de notaciones usadas pararepresentar las operaciones binarias. Sobre todo, son complicadas las notaciones de laoperaciones 4-6. Lo que tienen en comun, es que no nos alcanza una l ınea de s ımbo-os para escribirlas. Necesitamos subir y/o bajar ademas de movernos de derecha azquierda. O sea, necesitamos dos dimensiones para escribirlas.

Quiza sea mas ilustrativo, poner un ejemplo mas complejoπ /4R

0

¡a sin x + b sin x

2

¢dx

de notacion dos-dimensional. La integral en el recuadroa la izquierda esta bien definida para cualesquiera valoresreales a, b y por lo tanto es una operacion binaria en R.

Mas sencillos son los ejemplos de notaciones lineales 1-3,7-8. En realidad, para lasnotaciones lineales solo hay tres posibilidades:

(a, b) notacion prefi ja o funcionala b notacion operacional(a, b) notacion sufi ja

Las operaciones 1-3 estan en notacion operacional y las operaciones 7-8 estan ennotacion prejija. La notacion sufi ja es util sobre todo en la programacion de compilado-res para lenguajes de computadoras (tales como pascal o C++) ya que frecuentementeo mas facil es decirle a una computadora “toma el numero a”, “toma el numero

b”,“sumalos” y no hacerlo de otra manera.

E jercicio 4 La notacion sufi ja para a (b + c) /2 es bc+a×2÷ . ¿Cual sera la notacionsufi ja para la expresion (a + b) (x + y)? [185]

Cualquier intento, de tratar de unificar las notaciones usadas en la comunicacionentre humanos, solo llevarıa a confusiones mucho peores. Sin embargo, tenemos laibertad de escoger una notacion unificada para las operaciones binarias abstractas que

definamos. De una vez, postularemos que siempre usaremos la notacion operacionalpara definir operaciones binarias abstractas.

Recalquemos que una operacion “abstracta” no significa nada mas que es una ope-racion que puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2.

Page 13: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 13/232

3Seccion 1.1 Operaciones binarias

Despues, tempranamente en el estudio de las matematicas, la expresion a + b significaque a un numero a (no se sabe cual) le sumamos un numero b (tampoco se sabe cual).Ahora, la expresion a + b significara que a un objeto a (numero, polinomio, matriz,quien sabe que) le “sumamos” (no se sabe lo que quiere decir “suma”) un objeto b (delque tampoco se sabe mucho).

Conmutatividad

¿Es 3+2 igual a 2+3? Sı. ¿Es 32 igual a 23? No. Una operacion binaria∀a, b ∈ A

a b = b a denotada por y definida en el conjunto A se dice que es conmuta-

tiva si se cumple la propiedad en el recuadro a la izquierda. Ser o noconmutativa es la propiedad mas sencilla que diferencia las operaciones binarias.

E jercicio 5 ¿Cuales de las operaciones 1-9 son conmutativas? [185]

Asociatividad

¿Que quiere decir 2 + 3 + 5? ¿Acaso debemos sumar 2 + 3 y al resultado sumarle 5?¿No sera que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ningunadiferencia entre los dos procedimientos. Este hecho se expresa como (2 + 3) + 5 =

2 + (3 + 5) .

Una operacion binaria denotada por

y definida en el∀a,b,c ∈ Aa (b c) = (a b) c

conjunto A se dice que es asociativa si se cumple la pro-piedad en el recuadro de la derecha.

Los estudiantes preuniversitarios se encuentran por pri-mera vez con la dificultad de una operacion no asociativa en el caso de la operacion deexponenciacion. A esta temprana edad es muy necesario insistir que la expresion 223

es ambigua porque 2(23) = 256 6= 64 =¡

22¢3

.

E jercicio 6 ¿Cuales de las operaciones 1-9 son asociativas? [185]

La asociatividad de una operacion es una propiedad crucial. Sin esta propiedad, elmanejo algebraico de una operacion se complica bastante.

Es mas, gracias a ella podemos introducir la notacion de la operacion11P

n=1

an“repetida”. Si tenemos 11 elementos a1, a2, . . . , a11 entonces, para denotara suma a1 + a2 + · · · + a11 podemos usar la notacion (mucho mas comoda)

que se muestra en el recuadro a la derecha. Esta notacion no requiere de la

conmutatividad de la operacion “suma” gracias a que los ındices tienen un orden ysabemos cual elemento debe ir primero y cual despues.

Si tenemos que la operacion es no solamente asociativa sino tambien conmutativaentonces podemos ser mas generosos con esta notacion.

Page 14: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 14/232

4 Cap ıtulo 1. Campos

Supongamos que aρ, a`, aκ , a9 y a∇ son elementos de un conjunto con unaPn∈N

an suma asociativa y conmutativa. Entonces la suma de estos (¡no importa elorden!) la podemos denotar por la expresion en el recuadro a la izquierda,

donde N es el conjunto de ındices ρ,κ , `, ∇, 9.

Si la operacion binaria definida no se llama “suma” sino “producto”, entonces es

usual, en lugar de usar la letra griega P (sigma mayuscula), usar la letra griega Q (pimayuscula). Podemos, en este caso, usar la primera o segunda notacion dependendiendode si nuestro producto es conmutativo o no.

Elementos neutros

La suma de numeros naturales tiene un elemento especial y unico: el cero. Supropiedad definitoria es que cualquier numero sumado con cero da el mismo numero.

La misma propiedad la tiene el uno con respecto al producto de numeros naturales.Para una operacion binaria denotada por y definida en el ∀a ∈ A

a e = e a = aconjunto A se dice que e ∈ A es un elemento neutro si estecumple la propiedad en el recuadro.

Una operacion binaria no puede tener mas de un elemento neutro. Efectivamente,sean e y e0 elementos neutros. Por ser e neutro, tenemos e e0 = e0. Por ser e0 neutro,tenemos e e0 = e. De estas dos igualdades obtenemos e = e0.

E jercicio 7 ¿Cuales de las operaciones 1-9 tienen neutro? [185]

Los elementos neutros juegan un papel importante en las notaciones para operacio-

Qi∈N

a i •

Qi∈M

a i =

Qi∈N∪M

a i

nes repetidas. Supongamos que tenemos un producto asociativo y conmutativo. Seanademas N y M dos conjuntos finitos y disjuntos de ındi-ces. Naturalmente, de la definicion se sigue la propiedaddel recuadro a la izquierda.

Pero ¿que pasa si alguno de los conjuntos de ındices (digamos M) es vac ıo? Siqueremos que esta propiedad se conserve entonces observamos queY

i∈N

ai •Yi∈∅

ai =Y

i∈N∪∅ai =

Yi∈N

ai

por lo que necesariamenteQ

i∈∅ ai tiene que ser el elemento neutro de nuestra operacion(si no hay neutro entonces estamos en problemas).

Es por esto, como el lector seguramente ya sabe, que la suma vac ıa de numeros es

gual a cero y el producto vac ıo de numeros es igual a uno.

Elementos inversos

Page 15: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 15/232

5Seccion 1.1 Operaciones binarias

Para cada numero entero a hay un unico numero −a tal que sumado con a da cero.

a b = b a = e

Generalizemos esta propiedad a operaciones binarias arbitrarias. Sea una operacionbinaria en el conjunto A con elemento neutro. Se dice que a ∈ A

tiene elemento inverso b si se cumple la propiedad en el recuadroa la izquierda.

Para cualquier operacion binaria asociativa el elemento inverso de otro es unico.Efectivamente si b y c son inversos de a entonces b = b e = b (a c) = (b a)c =e c = c o sea que b y c tienen que ser el mismo.

E jercicio 8 Describa los inversos en las operaciones 1-9. [185]

Distributividad

Frecuentemente nos encontramos con conjuntos en los cuales hay mas de una ope-racion binaria definida. El ejemplo mas sencillo son los naturales en los que sabemossumar y sabemos multiplicar. Estas dos operaciones estan relacionadas con la propiedadde que podemos sacar factor comun o sea ax + ay = a (x + y).

Sean y ¦ dos operaciones binarias definidas en el ∀a,b,c ∈ A

a ¦ (b c) = (a ¦ b) (a ¦ c)(b c) ¦ a = (b ¦ a) (c ¦ a)

conjunto A. Se dice que la operacion ¦ es distribu-tiva respecto a la operacion si se cumplen las dospropiedades en el recuadro a la derecha.

Que ¦ sea distributiva respecto a no es lo mismo que sea distributivarespecto a ¦. Por ejemplo, en los naturales el producto es distributivo conrespecto a la suma: a (b + c) = (ab) + (ac) y sin embargo, la suma de

naturales no es distributiva respecto al producto: a + (bc) 6= (a + b) (a + c).

E jercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distribu-

tivas una con respecto a la otra. [185]

El algebra “abstracta”

Filosoficamente, el concepto de “abstraccion” es la propiedad, que tiene el pensa-miento humano, de que podemos fi jarnos solamente en ciertas propiedades “esenciales”de un objeto o fenomeno, y olvidarnos de las restantes.

La abstraccion es imprescindible para el lenguaje. El concepto “silla” nos permi-

te reconocer una silla, independientemente si esta es de madera, de hierro, plastica,grande, comoda, con tres, cuatro o cinco patas etc. Casi cada palabra del espanol (yde cualquier idioma) representa un concepto abstracto, sea esta verbo, sustantivo oadjetivo.

Page 16: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 16/232

6 Cap ıtulo 1. Campos

La ciencia lleva este nivel de abtraccion a un nivel aun mayor. Parte de este co-nocimiento cient ıfico, pasa al conocimiento publico. Baste recordar conceptos como:velocidad, volumen, higiene, ADN, penicilina, electron, metal, colesterol, triangulo,etc. Algunos de los mencionados, son muy antiguos, otros surgieron hace muy poco.Sin embargo, la mayorıa de estos conocimientos queda solamente en manos de los

especialistas en la materia.Con las matematicas pasa igual. No hace falta saber que la suma de naturales es unaoperacion binaria conmutativa para saber que 2 + 3 = 3 + 2. Sin embargo, el conceptode “operacion” y que estas operaciones pueden cumplir o no ciertas propiedades esrelativamente “nuevo”.

En la primera mitad del siglo XX, progresivamente, la comunidad matematica sefue dando cuenta de las ventajas del pensamiento algebraico en el lenguaje de opera-ciones abstractas. Tanto fue el entusiasmo, que muchos, en un principio, le llamaron a

esta forma de pensar “Algebra moderna”. Otros aun mas entusiastas le llamaron “Ma-tematica moderna”. En la actualidad este lenguaje es parte intr ınseca e indivisible delpensamiento en matematicas y cualquier calificacion de “moderna” suena muy tonta.

Otros, por otro lado, prefierieron referirse a esta forma de pensar como “Algebraabstracta”. Esto, en mi opinion, aunque mas moderado, tampoco tiene ningun senti-do. Toda algebra es abstracta, de hecho, todas las matematicas son abstractas. Estoyconvencido de que, el tiempo se encargara de acabar con todos estos calificativos.

1.2 Numeros

En esta seccion repasaremos los principales tipos de numeros que el lector ya co-noce: naturales, enteros, racionales, reales y complejos. Esto nos dara la posibilidad dentroducir las definiciones mas basicas del algebra: grupos, anillos y campos.

Naturales

Hay una frase famosa que dice “Dios hizo los natu-ab = a + ... + a | z b veces

= b + ... + b | z a veces

rales y el hombre todo lo demas”. El conjunto de losnumeros naturales N = 0,1,2,... es el conjunto de

os cardinales de los conjuntos finitos. En N hay dos operaciones binarias bien definidas:a suma y el producto. De hecho, el producto es una operacion derivada de la suma y la

suma solo se puede definir en terminos de conjuntos. Por ejemplo, a + b es el cardinalde la union de dos conjuntos finitos y disjuntos uno de cardinal a y otro de cardinal b.

Como la union de conjuntos es asociativa tambien lo es la suma de naturales. De ladefinicion se obtiene que el producto de naturales tambien es asociativo. Tanto la sumacomo el producto son conmutativos. La suma tiene elemento neutro 0 y el productotiene elemento neutro 1. El producto es distributivo respecto a la suma.

Page 17: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 17/232

7Seccion 1.2 Numeros

Enteros

Ningun elemento deN salvo el cero tiene inverso para la

−b + a = c ⇔ a = b + c

−b + (−a) = − (a + b)

suma. Para lograr la existencia de inversos inventamos losnumeros negativos Z− = −1,−2,−3, ... y en el conjuntoZ = N

∪Z− de los numeros enteros definimos la suma co-

mo la operacion conmutativa definida por las propiedadesen el recuadro a la derecha.

Grupos

Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada

G1) la operacion es asociativaG2) tiene elemento neutro

G3) todo elemento tiene inverso

elemento tiene inverso. O sea, los enteros dan elprimer ejemplo de grupo. A un conjunto no vac ıocon una operacion binaria se le llama grupo si se

cumplen los tres axiomas G1-G3. Alos grupos cuya operacion es conmutativa se les llama abelianos en ho-nor al matematico noruego Niels Henrik Abel (1802-1829). Abel fue elque resolvio el problema algebraico mas importante de su epoca. De-mostro, que no existen formulas en radicales para resolver las ecuacionespolinomiales de grado 5 o mayor (a diferencia de las ecuaciones de grado≤ 4 para las cuales si hay formulas generales). Al momento de encontraresta demostracion, el problema ya duraba varios siglos sin resolverse.

Abel murio a los 26 anos a causa de una neumon ıa.

Anillos

La operacion de producto de naturales se extiende facilmen-a (−b) = − (ab)

(−a) b = − (ab)(−a) (−b) = ab

te al conjunto de los enteros mediante las reglas en el recuadro.Nuevamente el producto es asociativo,conmutativo y distributivocon respecto a la suma. O sea los enteros tambien dan el primerejemplo de anillo.

Un conjunto A no vac ıo con dos opera- A1) (A, +) es un grupo abelianoA2) • es asociativaA3) • es distributiva con respecto a +

A4) • tiene elemento neutro

ciones binarias + y • se le llama anillo sise cumplen los axiomas en el recuadro a laderecha. Si el anillo es tal que la operacion •es conmutativa entonces se dice que tenemosun anillo conmutativo.

En un anillo al neutro para la suma se le llama cero y se denota por 0. Al neutropara el producto se le llama uno y se denota por 1. Al inverso de un elemento con

respecto a la suma de un elemento se le llama su opuesto. Al inverso con respecto alproducto de un elemento se le llama inverso multiplicativo o simplemente inverso asecas.

Observemos que si a es un elemento de un anillo entonces a • 0 = a • 0 + a − a =

Page 18: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 18/232

8 Cap ıtulo 1. Campos

a • (0 + 1) − a = a − a = 0. De la misma manera vemos que 0 • a = 0. Si 1 = 0

entonces, a = 1 • a = 0 • a = 0 por lo que el anillo consta de un solo elemento. Paradescartar esta trivialidad supondremos siempre que 1 6= 0. De aqu ı se desprende que 0

no puede tener inverso ya que 0 = a • 0 = 1 es una contradiccion.En cualquier anillo −a denota al opuesto de a y a−1 (si existe) denota al inverso de

a. Como 1 × 1 = 1 tenemos 1

−1

= 1. Tambien (−

1)

−1

=−

1 ya que si a =−

1 entonces0 = a (a + 1) = aa + a por lo que aa = −a o sea, (−1) (−1) = 1. Luego, en todoanillo 1 y −1 tienen inversos. En Z ningun elemento salvo 1 y −1 tiene inverso.

Normalmente en la definicion de anillo no se pide el axioma A4. En este caso, a los anillosque tienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo deanillo no unitario es el conjunto de todos los enteros pares. Con el objetivo de simplificar,para nosotros todos los anillos son unitarios.

Racionales

Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio-

a

b =

c

d ⇔ a • d = c • b

nes y con ellas el conjunto de numeros racionales Q. Una fraccion es un par ordenadode numeros enteros denotado por a/b donde b 6= 0. Dosfracciones son iguales cuando se cumple la igualdad en elrecuadro. Los numeros racionales Q son las fracciones con

a relacion de igualdad as ı definida. Los enteros son parte de los racionales por cuantopodemos identificar cada numero entero a ∈ Z con la fraccion a/1.

La suma y el producto de numeros racionales se de- a

b +

c

d =

a • d + c • b

b • da

b •

c

d =

a • c

b • d

finen por las igualdades en el recuadro. Nuevamente losracionales con la suma forman un grupo abeliano y otravez el producto es asociativo, conmutativo, tiene ele-mento neutro y es distributivo con respecto a la suma.Sin embargo, ahora todo elemento diferente de cero tie-ne inverso multiplicativo. O sea los racionales nos dan el primer ejemplo de campo.

Un conjunto K no vac ıo con dos operacionesC1) (K, +) es un grupo abelianoC2) (K\0, •) es un grupo abelianoC3) • es distributiva con respecto a +

binarias + y • se le llama campo si se cum-plen los tres axiomas C1-C3. Un campo es unanillo conmutativo en la cual todo elementodiferente de cero tiene inverso multiplicativo.

E jercicio 10 Si es una operacion en A entonces, en A2 esta definida la operacionpor coordenadas (x, y) (x0, y0) = (x x0, y y0). Pruebe que si (A, ) es un grupoentonces ¡A2,

¢ es un grupo, si (A, +, •) es un anillo entonces, ¡A2, +, •¢ es tambien

un anillo.E jercicio 11 Sea (K, +, •) un campo. Como K es un anillo entonces, por el ejercicioanterior,

¡K2, +, •

¢ tambien es un anillo. ¿Sera K2 un campo? [186]

Page 19: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 19/232

9Seccion 1.2 Numeros

Reales

Dicen que cuando Pitagoras (Samos 569-475 A.C.) descubrio que

1

1

√ 2

√ 2 6=

p

q

a longitud de la hipotenusa de un triangulo rectangulo con cate-tos de longitud uno no es un numero racionalquedo horrorizado. A nosotros nos parece esto

una exageracion. Sin embargo, si nos ponemosen el lugar de Pitagoras comprenderemos queen aquel momento era inconcebible que existannumeros que no sean cociente de dos enteros.La pintura a la izquierda es un detalle del fres-co de Rafael “La escuela de Atenas” en la cualsupuestamente, se muestra a Pitagoras.

Sigamos a Pitagoras y probemos que efectivamente√

2 no es un racional. Para esto

denotemos por kak2 el numero de veces que el natural a se divide entre 2. Tenemos√ 2 = p

q ⇒ °°2q2

°°2

=°° p2

°°2⇒ 1 + 2 kqk2 = 2 k pk2 lo que es una contradiccion ya que

un numero impar no puede ser igual a uno par.

E jercicio 12 Sea n un natural. Pruebe que√

n es un natural o no es racional. [186]

E jercicio 13 Basandose en el anterior de otra prueba de que√

2 no es racional. [186]

Esto motiva la construcion de los numeros reales R. La construcion de los reales esun proceso complicado y se han descubierto muchas formas de formalizar esta constru-cion siendo la mas popular la de las cortaduras de Dedekind. Para nuestros propositosbasta una definicion menos formal y mas intuitiva: un numero real es simplemente unımite de racionales. Las propiedades de la suma y producto de racionales se traspasan

facilmente a los reales usando las propiedades del l ımite de sucesiones. De esta maneraobtenemos nuestro campo principal (R, +, •) . El campo de los reales se destaca porquees ordenado (siempre podemos decidir si un numero real es mayor, menor o igual a

cero) y porque es cerrado (el l´ımite de reales si existe es un real). Por otro lado, noes un factor a despreciar el hecho de que el espacio en que vivimos es (o al menos nos

parece que es) R3.

E jercicio 14 Pruebe que la longitud de un segmento de recta es un numero real.186]

ComplejosEn 1546 Gerolamo Cardano publico su libro “Ars Magna” en el cual dio metodos

(basados en parte en el trabajo de otros matematicos) para el calculo de las raicesde los polinomios de grado 3 y 4. Estos metodos, a veces requerıan el extraer raices

Page 20: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 20/232

10 Cap ıtulo 1. Campos

cuadradas de numeros negativos, incluso cuando el resultado final era un numero real.Rafael Bombelli estudio este asunto en detalle y es considerado como el descubridor deos numeros complejos.

Para lograr que todos los polinomios tengan raices(a + bi) + (a0 + b0i) =

(a + a0) + (b + b0) i

nventamos el imaginario i =√ −1 y definimos que un

numero complejo es algo de la forma a + bi donde a, b ∈R. La suma y el producto de complejos se definen por lasformulas en los recuadros a la derecha y abajo a la izquierda.

Las propiedades de la suma y el producto se despren-(a + bi) × (a0 + b0i) =

(aa0− bb0) + (ab0 + a0b) i

den inmediatamente de sus definiciones y es facil com-probar que (C, +, •) es un anillo conmutativo. Paraver que es un campo, observamos que (a + bi)−

1=

¡a2 + b2

¢−1

(a − bi). La principal propiedad que hace que para muchas cosas el cam-

po C sea el mas simple es que el (a diferencia de R) es algebraicamente cerrado,o sea que todo polinomio de grado n > 0 con coeficientes en complejos tiene n raicescomplejas.

1.3 Morfismos

En las matematicas cada vez que se estudian ciertos objetos, es necesario tambien

estudiar las funciones entre ellos, que “preservan” las propiedades de dichos objetos.En esta seccion estudiaremos las funciones entre conjuntos con operaciones binarias.

Morfismos de grupos

Sean y • operaciones binarias definidas en los conjuntos A y B respectivamente.Una funcion f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementosde A se cumple que f (a1 a2) = f (a1) • f (a2).

Todo mor fi smo conserva las propiedades fundamentales de las operaciones binarias. M´ as precisamente, si f : (A, ) → (B, •) es un mor fi smo entonces,

1. • es una operaci´ on binaria dentro de la imagen de f.

2. Si es conmutativa entonces • es conmutativa en la imagen de f.

3. Si es asociativa entonces • es asociativa en la imagen de f.

4. Si e es neutro de entonces f (e) es neutro de • en la imagen de f.

5. Si a0 es inverso de a en A entonces f (a0) es inverso de f (a) en B.

Prueba. Sean b1, b2 y b3 elementos cualesquiera en la imagen de f. Existen a1, a2 ya3 en A tales que f (ai) = bi para i ∈ 1,2,3. Como f es un morfismo, obtenemos lagualdad b1 • b2 = f (a1) • f (a2) = f (a1 a2) (*)

Page 21: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 21/232

11Seccion 1.3 Morfismos

que prueba la primera afirmacion. Si es conmutativa entonces, usando (*) obtenemos

b1 • b2 = f (a1 a2) = f (a2 a1) = b2 • b1

por lo que • es tambien conmutativa. Si es asociativa entonces, usando (*) obtenemos(b1 • b2) • b3 = f (a1 a2) • f (a3) = f ((a1 a2) a3) == f (a1 (a2 a3)) = f (a1) • f (a2 a3) = b1 • (b2 • b3)

y por lo tanto • es asociativa en la imagen de f. Si e es neutro de la operacion entonces, b1 • f (e) = f (a1) • f (e) = f (a1 e) = f (a1) = b1

f (e) • b1 = f (e) • f (a1) = f (e a1) = f (a1) = b1

por lo que f (e) es el neutro de • en la imagen de f. Sea a0 el inverso de a en A entonces,f (a) • f (a0) = f (a a0) = f (e)f (a0) • f (a) = f (a0 a) = f (e)

de lo que concluimos que f (a0) es el inverso de f (a).

E jercicio 15 Justifique todas las igualdades utilizadas en la prueba de 1.1.

¿Y porque siempre dentro de la imagen de f y no en todo B? La respuesta es queo unico que sabemos de B esta dado por el morfismo. Aquellos elementos de B que

no tienen preimagen no los podemos enlazar con los de A y por lo tanto no podemosdecir nada de ellos. De aqu ı en lo adelante a la imagen de cualquier funcion f (y enparticular de un morfismo) la denotaremos por Im f.

Si (A, ) es un grupo entonces (Im f, •) es un grupo.

Prueba. Por 1.1.1 • es una operacion binaria en Im f. Por 1.1.3 esta operacion esasociativa. Por 1.1.4 esta operacion tiene elemento neutro. Por 1.1.5 cada elementob = f (a) ∈ Im f tiene su inverso f (a0) donde a0 es el inverso de a en A. Esto completaa prueba de todos los axiomas de grupo.

Recordemos que si f : A → B es una funcion entonces al conjunto A se le llamadominio de f y al conjunto B codominio de f. Si el dominio y el codominio de unmorfismo son grupos entonces se dice que este es un morfismo de grupos.

E jercicio 16 Construya un morfismo inyectivo de (R, +) en (R, •). ¿Cual es la imagende este morfismo? ¿Es esta imagen un grupo?

Morfi

smos de anillos¿Y que pasa con la distributividad? ¿Tambien se conserva? El primer problema que

tenemos que resolver es que en la distributividad estan involucradas dos operaciones.Sean (A, +, •) y (B, +, •) dos conjuntos cada uno con dos operaciones binarias. Ob-

Page 22: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 22/232

12 Cap ıtulo 1. Campos

servese que estas son cuatro operaciones distintas pero hemos usado estas notacionesporque el trabajar con cuatro s ımbolos diferentes ya es demasiada confusion.

Una funcion f : A → B se le llama morfismo si para cualesquiera a1 y a2 ele-mentos de A se cumple que f (a1 + a2) = f (a1) + f (a2) y f (a1 • a2) = f (a1) • f (a2).Recalquemos que el “y” quiere decir que se tienen que cumplir las dos propiedades. O

sea, si hay dos operaciones entonces, se requiere que la funcion sea morfi

smo para cadauna de ellas.

Si • es distributiva con + en A entonces,• es distributiva con + en la imagen de f.

Prueba. Sean x, y, z ∈ A tales que f (x) = a, f ( y) = b y f (z ) = c. Tenemosa • (b + c) = f (x) • (f ( y) + f (z )) = f (x) • f ( y + z ) = f (x • ( y + z )) =

= f (x • y + x • z ) = f (x • y) + f (x • z ) = f (x) • f ( y) + f (x) • f (z ) = a • b + a • cy esto prueba la tesis.

Si el dominio y el codominio de un morfismo son anillos entonces se dice que estees un morfismo de anillos. Si el dominio y el codominio de un morfismo son camposentonces se dice que este es un morfismo de campos.

E jercicio 17 Demuestre que si (A, +, •) es un anillo y f : A

→ B es un morfismo

entonces, (Im f, +, •) es un anillo. Demuestre que lo mismo ocurre para los campos.E jercicio 18 Pruebe que si f : A → B es un morfismo de anillos y A es un campoentonces f es inyectivo. En particular todo morfismo de campos es inyectivo. [186]

Isomorfismos

A los morfismos biyectivos se les llama isomorfismos. Esto se aplica tanto pa-ra conjuntos con una como tambien con dos operaciones binarias. Ası que tenemossomorfismos de grupos, de anillos y de campos. Para cada isomorfismo f existe una

funcion inversa f−1. ¿Cuando sera f−1 un morfismo? La respuesta es que siempre.

La inversa de un isomor fi smo es un isomor fi smo.

Prueba. Sea f : (A, ) → (B, •) un isomorfismo. Sean b1, b2 cualesquiera elementosde B. Denotemos a1 = f−1 (b1) y a2 = f−1 (b2). Tenemos

f−1 (b1 • b2) = f−1 (f (a1) • f (a2)) = f−

1 (f (a1 a2)) = a1 a2 = f−1 (b1) f−1 (b2)

que es lo que se requer ıa demostrar. Si el isomorfismo involucra dos operaciones binariasentonces el mismo argumento aplicado a las dos operaciones, nos da la prueba de latesis.

Page 23: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 23/232

13Seccion 1.3 Morfismos

Ahora podemos aplicar 1.1 en los dos sentidos. Si f : (A, ) → (B, •) es un isomor-fismo entonces de que • es conmutativa implica que es conmutativa y en conclusion es conmutativa si y solo si • es conmutativa. Lo mismo ocurre con la asociativi-dad, con la existencia de neutros e inversos y para el caso de dos operaciones con ladistributividad. O sea que tiene exactamente las mismas propiedades de •.

Pero no solo son operaciones parecidas sino que son en cierto sentido la misma.Para convencernos de esto supongamos que conocemos la operacion y conocemos elsomorfismo f pero no sabemos nada de la operacion •. ¿Podremos calcular b1 • b2? La

respuesta es s ı, lo podemos calcular por la identidad b1 • b2 = f¡

f−1 (b1) f−1 (b2)¢

.Rec ıprocamente, se define de forma unica por la operacion • y el isomorfismo f

mediante la identidad a1 • a2 = f−1 (f (a1) f (a2)). En conclusion ambas operacionesse definen una a otra.

Para que el lector comprenda mejor eso de que

u v

u u v

v v u

• 1 −1

1 1 −1

−1 −1 1

y • son la misma operacion veamos un ejemplo.Sea A el conjunto de letras u, v y B el conjunto deos numeros 1,−1. Definamos las operaciones y •

mediante las tablas del recuadro a la derecha.El lector debe observar que la segunda tabla es la tabla usual de multiplicacion de

enteros. Ademas, para obtener la segunda tabla de la primera lo unico que necesitamoses cambiar por • , u por 1 y v por −1. Esto lo que quiere decir, es que la funcionu 7

→1 , v 7

→−1 es un isomorfismo de (A, ) en (B, •). El lector puede ver que ambas

tablas son en esencia la misma, solamente que las notaciones para los elementos y laoperacion estan cambiadas.

Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entoncesse dice que ellos son isomorfos. Etimologicamente, la palabra “isomorfo” significa que“tienen la misma forma”. En forma intuitiva, que ellos sean isomorfos quiere decirque los dos son iguales con la salvedad de que podemos cambiar las notaciones de loselementos y las operaciones.

Ciertos tipos de morfismos tienen nombres especiales. A los morfismos sobreyectivosse les llama epimorfismos, a los injectivos se les llama monomorfismos. A los mor-fismos de un conjunto en si mismo se les llama endomorfismos y a los endomorfismosbiyectivos se les llama automorfismos.

En otras ramas de las matematicas tambien se definen morfismos e isomorfismos. Sin em-bargo no siempre es suficiente la biyectividad para definir los isomorfismos. Por ejemplo,en topolog ıa los morfismos son las funciones continuas. Pero la inversa de una biyeccion

continua no siempre es continua. Por esto, un isomorfismo de espacios topologicos hay que definirlocomo una biyeccion continua cuya inversa es continua.

Composicion de morfi

smosSean A, B y C tres conjuntos y f : A → B , g : B → C dos funciones. A la funcion

g f : A → C definida por (g f) (a) = g (f (a)) se le llama la composicion de f cong. A partir de ahora el s ımbolo solo lo utilizaremos para denotar la composicion de

Page 24: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 24/232

14 Cap ıtulo 1. Campos

funciones. Observese el orden en que escribimos las funciones ya que la composicion defunciones no es conmutativa.

La composici´ on de funciones es asociativa.

Prueba. Sean f : A → B , g : B → C y h : C → D tres funciones. Por definicion decomposicion para cualquier a ∈ A tenemos

(h (g f)) (a) = h ((g f) (a)) = h (g (f (a))) = (h g) (f (a)) = ((h g) f) (a)

que es lo que se quer ıa probar

Ahora, supongamos que en A, B y C hay definidas operaciones binarias. Entoncesf, g y g f pueden ser morfismos o no. Sin embargo, si f y g lo son entonces f g

tambien lo es.

Las composici´ ones de mor fi smos son mor fi smos.

Prueba. Denotemos las operaciones en A, B y C con el mismo s ımbolo •. Como f yg son morfismos tenemos (g f) (a • b) = g (f (a • b)) = g (f (a) • f (b)) = g (f (a)) •g (f (b)) = (g f) (a) • (g f) (b) que es lo que se necesitaba probar.

E jercicio 19 Pruebe que el conjunto de los automorfismos de un conjunto con una odos operaciones binarias es un grupo con respecto a la composicion de funciones.

E jercicio 20 Sean f y g dos funciones. Pruebe que si g f es la identidad entonces,f es inyectiva y g es sobreyectiva. [186]

1.4 Campos de restos

Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muyconocidos por el lector. Es imprescindible, para dar una intuicion saludable de lo quees un campo, introducir otros que no sean tan usuales. En esta seccion presentaremosciertos campos que tienen un numero finito de elementos. Para construirlos, usaremosas propiedades de los morfismos de la seccion anterior.

El anillo de los enteros modulo n

Sea n un numero natural mayor que 1. Para un entero

b = (a + b) mod na¡ b = (ab) mod na la notacion a mod n significa el resto de la division de aentre n. O sea, el menor natural k tal que existe un enterot para los cuales a = k + tn. Por definicion a mod n ∈ Zn = 0,1,...,n − 1 y en Zn

hay naturalmente definidas dos operaciones binarias como se muestra en el recuadro.

Page 25: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 25/232

15Seccion 1.4 Campos de restos

E jercicio 21 Construya las tablas de sumar y multiplicar en Z2, Z3 y Z 4.

(Zn ,¢,¡) es un anillo conmutativo.

Prueba. Denotemos f : Z 3 a 7−→ a mod n ∈ Zn o sea f (a) def = a mod n. Observemos

que por definicion de las operaciones ¢ y ¡ se tiene que a¢ b = f (a + b) y a¡ b =

f (ab). Ademas, para cualesquiera x, y ∈ Z existen enteros p, q tales que x = f (x)+qn,y = f ( y) + pn y por lo tanto f (x) = f ( y) si y solo si x − y es multiplo de n.

Probemos que f : (Z, +) → (Zn,¢) es un morfismo. Tenemos que f (x) + f ( y) =x + y − (q + p) n y por lo tanto f (x) + f ( y) − (x + y) es multiplo de n. Luego,f (x + y) = f (f (x) + f ( y)) o lo que es lo mismo, f (x + y) = f (x)¢ f ( y) y esto prueba

que f es morfi

smo para la suma.Ahora probaremos que f : (Z, ·) → (Zn,¡) es un morfismo. Tenemos que f (x) f ( y) =x − qn) ( y − pn) = xy + (nqp − yq − xp) n y por lo tanto f (x) f ( y)−xy es multiplo

de n. Luego, f (xy) = f (f (x) f ( y)) o lo que es lo mismo, f (xy) = f (x) ¡ f ( y) y estoprueba que f es morfismo para el producto.

Como f es sobreyectiva, (Z, +, •) es anillo conmutativo y los morfismos preservanas propiedades de las operaciones, concluimos que (Zn,¢,¡) es tambien un anillo

conmutativo.

Hemos denotado la suma y el producto en Zn con los s ımbolos extranos¢ y ¡. El objetivo de esto fue el asegurarnos que en la demostracion delresultado anterior el lector no se confundiera con la suma y el producto

habitual de numeros enteros. De ahora en lo adelante no haremos mas esto. La sumaen Zn se denotara con el s ımbolo + y el producto, con la ausencia de s ımbolo alguno,o a lo mas, con un punto. Para poder hacer esto es necesario que el lector comprenda(muchas veces solo del contexto) en que sentido estamos utilizando estas notaciones.

Ası

por ejemplo, 2 + 3 = 5

si la suma es la habitual de enteros o es la de Z11 pero2 + 3 = 1 si la suma es la de Z 4.

Dominios de integridad

Despues de saber que (Zn , +, ·) es un anillo conmutativo, lo natural es preguntarnossi este es un campo. Lo unico que le falta a un anillo conmutativo para ser campo, es laexistencia de inversos para el producto. Veamos por ejemplo el caso de Z6. Aqu ı tenemos2 · 3 = 0. Que raro, el producto de dos numeros diferentes de cero es igual a cero. ¿Es

posible eso en un campo? Veremos que no.Un anillo conmutativo se le llama dominio de integridad si el producto elementos

distintos de cero es siempre diferente de cero. Sabemos que Z, Q, R y C son dominiosde integridad. Tambien, ya vimos que Z6 no es dominio de integridad.

Page 26: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 26/232

16 Cap ıtulo 1. Campos

Todo campo es un dominio de integridad.

Prueba. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdadpor el inverso multiplicativo de p obtenemos 0 = p−10 = p−1 pq = q. Luego, q = 0.

Luego, Z6 no es un campo. Este ejemplo se generaliza facilmente. Sea n = pq unadescomposicion en factores no triviales (ambos diferentes a 1) de n. Sabemos que p

y q estan en Zn y que pq = n = 0 mod n. Luego, si n es un numero compuesto (noprimo) entonces, Zn no es un dominio de integridad y por lo tanto no es un campo.

El campo de los enteros modulo p

Y ¿que pasa cuando p es primo?

Z p es un dominio de integridad.

Prueba. Sean x, y ∈ 1 , . . . , p − 1 . Si xy = 0 en Z p entonces xy = 0 mod p. Luego,en Z tenemos que xy = kp. Como p es primo entonces, p divide a x o a y pero estono puede ser ya que ambos son menores que p.

Este resultado no es suficiente para probar que Z p es un campo ya que hay dominiosde integridad que no son campos (por ejemplo Z). Nos hace falta el siguiente resultado.

Todo dominio de integridad fi nito es un campo.

Prueba. Sea A un dominio de integridad finito. Para ver que A es un campo solo hayque demostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrariono nulo de A. Denotemos por fa la funcion A 3 x 7→ ax ∈ A. Esta funcion es inyectivaya que (ax = ay)

⇒(a (x − y) = 0)

⇒(x − y = 0)

⇒x = y.

Como fa es una funcion inyectiva de un conjunto finito en si mismo es tambien so-breyectiva. Luego tiene que existir b tal que fa (b) = ab = 1. Como el producto esconmutativo, esto demuestra que a tiene inverso.

Como Z p es finito, concluimos inmediatamente que Z p es un campo si ysolo si p es un numero primo. Los campos Z p son los primeros ejemplosde campos que tienen un numero finito de elementos. A los camposfinitos se les lama campos de Galois en honor al matematico francesEvariste Galois (1811-1832). Al resolver el problema de encontrar cuales

ecuaciones polinomiales son solubles en radicales y cuales no, Galois defacto invento la Teor ıa de Grupos. Galois murio a los 20 anos en un

duelo provocado por asuntos amorosos y/o pol ıticos. El apellido Galois se pronunciaen espanol como “galua”

Page 27: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 27/232

17Seccion 1.5 Campos primos. Caracterıstica

E jercicio 22 Halle los inversos de los elementos no nulos de Z5. [186]

E jercicio 23 Demuestre que Z211 con las operaciones (a, b) + (x, y) = (a + x, b + y)

y (a, b) (x, y) = (ax + 7by, ay + xb) es un campo de 121 elementos. [187]

1.5 Campos primos. Caracterıstica

Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K quees campo para las mismas operaciones. Si L es un subcampo de K entonces ∀a, b ∈ L∀c ∈ L\0 se tienen que cumplir las siguientes propiedades

1. a + b ∈ L, −a ∈ L, (L es un subgrupo aditivo)

2. ab ∈ L, c−1

∈ L, (L\0 es un subgrupo multiplicativo)

Rec ıprocamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones desuma, opuesto, producto e inverso estan correctamente definidas dentro de L y el tieneque contener a 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K,con mas razon se cumplen dentro de L. Esto indica que para comprobar si L es unsubcampo basta comprobar las propiedades 1 y 2. El ejemplo mas sencillo de esto esQ, que es subcampo R, que a su vez es subcampo de C.

El concepto de subcampo incluye las operaciones. Si por un lado 0,...,p−

1 =Z p es un subconjunto de Q, por el otro, Z p NO es un subcampo de Q (ya quepor ejemplo 2 ( p − 1) = p − 2 en Z p lo que no es cierto en Q). De la mismamanera, ningun Z p es subcampo de Zq para p 6= q.

Campos primos

Todo campo es subcampo de si mismo. A los campos que no tienen ningun sub-

campo distinto de si mismo se les llama campos primos. Los campos primos son losmas sencillos y deduciremos cuales son todos ellos.

Todo campo K contiene un ´ unico subcampo primoque est´ a contenido en cualquier subcampo de K.

Prueba. La interseccion de una coleccion arbitraria de subcampos de K es un sub-campo. Para ver esto observamos que si a y b pertenecen a todos los subcampos de la

coleccion entonces a + b tambien. Por lo tanto, a + b esta en la interseccion de ellos.Lo mismo ocurre para el producto, para los neutros y los inversos. En particular, lanterseccion de todos los subcampos de K es un subcampo que no contiene subcampos

y esta contenida en cualquier subcampo de K.

Page 28: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 28/232

18 Cap ıtulo 1. Campos

El campo Q de los n´ umeros racionales es primo.

Prueba. Sea K un subcampo de Q. Tenemos 1 ∈ K y por lo tanto todas las sumas1 + ... + 1 y sus opuestos aditivos tienen que estar en K. Luego, todos los enteros estanen K. Tambien los inversos multiplicativos de los numeros enteros y sus productos

tienen que estar todos en K. Luego, todos los racionales estan en K.

Los campos Z p de los restos m´ odulo un n´ umero primo son campos primos.

Prueba. Sea K un subcampo de Z p. Tenemos 1 ∈ K y por lo tanto todas las sumas1 + ... + 1 estan en K. Como cualquier elemento de Z p es suma de unos obtenemos queZ p ⊆ K.

Teorema de Clasificacion de Campos Primos

Los campos Z p y el campo Q son los ´ unicos campos primos.

Prueba. Sea un K campo primo. Para un numero natural n denotemos por n =n veces

z | 1 + ... + 1 donde 1 es el neutro multiplicativo de K. Observese que 0 = 0. Obvia-

mente, n es un elemento del campo. Denotemos por P = n ∈ K | n ∈ N . Hay dosposibilidades excluyentes

1. La aplicacion n 7→ n es una biyeccion de en N en P.

2. Existen dos naturales distintos n y m tales que n = m.

En el primer caso K contiene a los naturales. Como K es un campo tambien tieneque contener a los opuestos de los naturales, o sea a los enteros. Por la misma razon, Ktiene que contener a los inversos de los enteros con lo que se prueba que los racionalesson un subcampo de K. Como K es primo obtenemos que K = Q.

En el segundo caso, sea p el natural mas pequeno para el cual existe n < p tal quen = p. Tenemos n = p ⇒ p − n = p − n = 0. Si n > 0 entonces, p − n < p y ademasp − n = 0 lo que contradice la minimalidad de p. Luego, n = 0 y por lo tanto p = 0.

Sea ahora x > p. Como sabemos dividir los enteros con resto entonces, existennaturales a, k tales que x = a + kp y a < p. De aqu ı

x = a + kp = a + kp = a +

kp veces

z | 1 + · · · + 1

| z p veces

+ · · · + 1 + · · · + 1

| z p veces

= a +

k veces

z | 0 + · · · + 0 = a

o que muestra que P es el anillo Z p de los restos modulo p. Si p no es primo entonces,en Z p ⊆ K hay dos elementos a, b no cero tales que ab = 0. Como en un campo estono es posible entonces, deducimos que p es primo. Luego, Z p es un subcampo de K.Como K es primo obtenemos que K = Z p.

Page 29: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 29/232

19Seccion 1.6 Aritmetica de campos

Caracter ıstica

Por el teorema anterior cualquier campo o contiene a Q o contiene a Z p. Se diceque un campo es de caracter ıstica 0 si este contiene a Q. Se dice que un campo es decaracter ıstica p si este contiene a Z p. La caracter ıstica de un campo es un numeroprimo o es cero. La propiedad fundamental de la caracter ıstica de un campo es la

siguiente:

Si K es un campo de caracter ı stica t

entonces, ta = 0 para cualquier a ∈ K.

Prueba. Si t es un numero primo entonces, el campo contiene a Zt y

tx def = x + ... + x

| z t veces

= 1x + ... + 1x = (t1) x

Como 1 ∈ Zt entonces tambien t1 ∈ Zt. En Zt se tiene que t1 = 0. Si t = 0 laafirmacion es trivial.

E jercicio 24 ¿Contradice o no 1.15 que todo campo es un dominio de integridad?187]

E jercicio 25 Pruebe el rec ıproco de 1.15: Si t es el menor natural tal que para todoa ∈ K se tiene que ta = 0 entonces la caracter ıstica de K es igual a t.

E jercicio 26 ¿Es cierto o no que en todo campo (a =−

a) ⇒ (a = 0)? [187]

1.6 Aritmetica de campos

Los campos se comportan en la mayor ıa de las cosas importantes como los numerosreales. Por mas que tratemos construir un campo raro pero muy raro (lo que es posible)no lograremos que se dejen de cumplir todas las propiedades de la aritmetica las cualesnos son familiares desde temprana edad. Pasemos a describir en toda su generalidadalgunas consecuencias simples y otras un poco mas complicadas de los axiomas decampo lo que nos convencera de lo afirmado.

Multiplos y exponentes enteros

En todo campo para cualquier numero entero n y cualquier elemento del campo a

se usan las siguientes notaciones

na =⎧⎪⎨⎪⎩

n veces z | a + a + ... + a si n > 0

0 si n = 0

(−n) (−a) si n < 0

an =⎧⎪⎨⎪⎩

n veces z | aa...a si n > 0

1 si n = 01

a−n si n < 0

Page 30: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 30/232

20 Cap ıtulo 1. Campos

y se cumplen las propriedades usuales: (n + m ) a = na + ma y an+m = anam .

Asociatividad general

Recordemos nuevamente el uso del s ımbolo de sumatoria Σ. Si A es un con-n

Xi=1

ai junto finito de elementos del campo entonces podemos escribir la expresion

en el recuadro a la izquierda para expresar que queremos sumar todos loselementos del conjunto A = a1,...,an.

La asociatividad de la operacion de suma nos dice que esta expresion tiene sentidounico ya que no es necesario explicitar las sumas hay que realizar primero y cualesdespues.

En realidad incluso esta notacion es redundante, mas consisa es esta otra Xa∈A

anotacion en el recuadro a la derecha que podemos usar gracias a la conmuta-tividad de la suma. O sea no importa si en la suma a1 esta delante de a2 o al

revez. Solo es necesario especificar cual es el conjunto A de elementos que seestan sumando.

Como tenemos que el producto de elementos de un campo es tambiennY

i=1

ai =Ya∈A

a asociativo y conmutativo podemos usar las expresiones equivalentes

de la izquierda para denotar el producto de todos los elementos delconjunto A = a1,...,an .

Distributividad general

Mas dif ıcil es dar una forma general de la ley distributiva. Usando las leyes deÃXa∈A

a

!ÃXb∈B

b

! =Xa∈A

Xb∈B

ab

os campos obtenemos (a + b) (c + d) = a (c + d) + b (c + d) = ac + ad + bc + bd

y el lector podra convencerse facilmente, haciendoel calculo para conjuntos pequenos A y B, que engeneral se cumple la formula de la izquierda.

Mas general, para muchos factores tenemos

ÃXa∈Aa!ÃXb∈B

b! · · ·ÃXc∈Cc! = Xa∈AXb∈B

...Xc∈Cab · · · c

A esta igualdad la llamaremos forma general de la ley distributiva y tendremosmuchas ocaciones en que la usaremos.

Formula multinomial

Aplicando la forma general de la ley distributiva al caso en que todos los conjuntossean iguales obtenemos la siguiente formula:ÃX

a∈A

a

!n

=X

a1∈A

...X

an∈A

a1 · · · an (*)

Page 31: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 31/232

21Seccion 1.6 Aritmetica de campos

Esta formula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, elproducto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdadtiene (gracias a la asociatividad y conmutatividad del producto) una manera muchomas sencilla de expresarse como a 4b3c3. Para arreglar este defecto, demosle nombresa los elementos de A y pongamos A = x1,...,xm . Ahora, si n1,...,nm son naturales

entonces, un monomio x

n1

1 · · · x

nm

m aparece como sumando a la derecha en la formula(*) si y solo si Pni = n (ya que los sumandos en (*) son productos de n elementos deA). Supongamos que

Pni = n. Si todos los ni son uno o cero entonces en (*) hay n!

sumandos iguales al monomio xn1

1 · · · xnmm (ya que podemos ordenarlos de ese numero

de maneras). Si digamos n7 es mayor que 1 entonces tenemos que dividir por n7! ya queal permutar x7...x7 no obtenemos nuevos sumandos en (*). Lo mismo sucede con losotros ni. Como por definicion 0! = 1! = 1, finalmente obtenemos la siguiente expresionconocida como formula multinomial.

à m Xi=1

xi!n

= X n!n1!...nm !

xn1

1 · · · xnmm

donde la suma a la derecha de la igualdad recorre todas las soluciones en numerosnaturales de la ecuacion

Pni = n. En el caso particular m = 2, haciendo el cambio

de variable n1 = k obtenemos

(x + y)n

= Xn1+n2=n

n!

n1!n2!xn1 yn2 =

n

Xk =0

n!

k ! (n − k ) !xk yn−k

que es la famosa formula del binomio de Newton.Si bien las formulas que hemos demostrado parecen ser complicadaslos argumentos que llevan a ellas son muy sencillos. Es importanteque el estudiante se familiarize bien con estos argumentos ya quelas formas multilineales y en particular los determinantes son muyparecidos a la parte derecha de la igualdad (*).

Sir Isaac Newton (Inglaterra 1643-1727) es probablemente el

cient ıfico mas renombrado de todos los tiempos. Fundador de lamecanica, la optica y el calculo diferencial. Sus tres leyes de la

mecanica fundaron la base de la ingenier ıa que llevo a la revolucion industrial.

E jercicio 27 Sea K un campo de caracter ıstica p > 0. Demuestre que la funcionK 3 x 7→ x p ∈ K es un morfismo de campos. Demuestre que si K es un campofinito entonces esta funcion es un automorfismo de K. A este automorfismo se le llama

automorfi

smo de Frobenius. [187]

La expansion de ΠΣα ij

Page 32: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 32/232

22 Cap ıtulo 1. Campos

Ahora deduciremos otra consecuencia de la forma general de la ley Yi∈N

Xj∈N

α ijdistributiva que usaremos mucho mas adelante. Supongamos que N es unconjunto finito de ındices y que para cada pareja de ındices (i, j) tenemosun elemento del campo K que denotaremos por α ij. Nuestro objetivo esusar la ley distributiva para expresar el elemento del campo del recuadro a la derecha

como una suma de productos.Para esto lo mas comodo es pensar que el conjunto N es 1 , . . . , n y expresar la

forma general de la ley distributiva en nuestro caso de la siguiente maneraÃXj1∈N

α 1j1

!· · ·

ÃXjn∈N

α njn

! =Xj1∈N

...X

jn∈N

α 1j1 · · · α 1jn =XY

i∈N

α iji

donde la suma mas a la derecha en esta igualdad recorre todos los elementos (j1, . . . , jn)

del producto cartesiano N × · · · ×N de n copias de N o sea, Nn. Otra manera de pensar

a (j1, . . . , jn) es que tenemos una funcion f : N = 1 , . . . , n 3 i 7→ ji = f (i) ∈ N y ennuestra suma tenemos que recorrer todas estas posibles funciones o sea, el conjunto NN

de todas las funciones de N en N. Luego, en estas notaciones finalmente obtenemosYi∈N

Xj∈N

α ij =X

f∈NN

Yi∈N

α if(i)

que es una formula que ya no depende de cual es el conjunto N.

Debemos recalcar una vez mas que todo lo dicho en esta seccion es valido paracualquier campo, sea este R, C, Q, Z p o cualquier otro campo que aun no conoscamos.Esta es la ventaja intr ınseca de la abstraccion. No tenemos que demostrar el teoremade Pitagoras para triangulos de acero, madera, etc. Estas propiedades no tienen nadaque ver con que el cuadrado de la hipotenusa sea igual a la suma de los cuadrados deos catetos. De la misma manera el binomio de Newton no tiene nada que ver con que

si los numeros son reales o complejos u otros. Solo basta que nuestros numeros formenun campo.

Un lector atento, podrıa observar que en las pruebas de todas las formulas en ningunmomento usamos la existencia de inversos en el campo. Luego, estas son v alidas en cualquieranillo conmutativo.

A diferencia de las matematicas elementales en matematicas superiores, por aritmeticase entiende el estudio de las propiedades de divisibilidad en anillos. En este sentido, laaritmetica de campos es trivial ya que todo elemento se divide entre cualquier otro no nulo.

Page 33: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 33/232

23Seccion 1.7 Anillos con division

1.7 Anillos con division

Si en los axiomas de campo eliminamos la condicion de que el producto es conmu-

AD1) (D, +) es un grupo abelianoAD2) (D\0, •) es un grupoAD3) • es distributivo con respecto a +

tativo obtenemos el concepto de anillo con division (tambien se le llama cuerpo). O

sea, un anillo con division es un conjuntoD con una suma y un producto tal que secumplen los axiomas del recuadro. En par-ticular, todo campo es anillo con division.

E jercicio 28 Pruebe que si (D, +, •) es tal que (D, +) es un grupo, (D\ 0 , •) es ungrupo y el producto es distributivo respecto a la suma entonces, la suma es conmutativa.En otras palabras en los axiomas de anillo con division la conmutatividad de la sumaes consecuencia del resto de los axiomas. [188]

Quaterniones

No es muy facil construir anillos con division que no sean campos. Para esto, supon-gamos que en lugar de un solo numero imaginario i tenemos tres diferentes imaginarios

i, j y k que cumplen que i2 = j2 = k 2 =−

1. Un quaternion es un numero de la formaa + bi + cj + dk donde a, b, c, d son numeros reales. El lector debe observar la analog ıacon los numeros complejos. Podemos sumar quaterniones por coordenadas

(a + bi + cj + dk ) + (a0 + b0i + c0j + d0k )= ((a + a0) + (b + b0) i + (c + c0) j + (d + d0) k )

y es facil comprobar que el conjunto de todos los quaterniones H es un grupo abeliano

respecto a la suma.Para poder mutiplicar quaterniones postulamos que si a es un real y x es un imagi-

nario entonces ax = xa. Tambien postulamos que si x y y son dos imaginarios distintosentonces xy = − yx. Esto nos dice que nuestra multiplicacion de quaterniones no esconmutativa.

Ahora, si a + bi + cj + dk y a0 + b0i + c0j + d0k son dos quaterniones arbitrariosentonces los multiplicamos como si fueran polinomios en las variables no conmutativasi,j,k y usando los postulados obtenemos que su producto es igual a

aa0− bb0

− cc0 − dd0++ (ab0 + ba0) i + (ac0 + ca0) j + (da0 + ad0) k +

+ (bc0 − cb0) ij + (cd0− dc0) jk + (db0

− bd0) ki.

Page 34: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 34/232

24 Cap ıtulo 1. Campos

Para poder concluir la definicion de la multiplica-a00 = aa0

− bb0− cc0 − dd0

b00 = ab0 + ba0 + cd0− dc0

c00 = ac0 + ca0 + db0− bd0

d00 = da0 + ad0 + bc0 − cb0

cion de quaterniones postulamos que ij = k , jk = i yki = j. As ı definitivamente, obtenemos que el produc-to de nuestros quaterniones es (a00 + b00i + c00j + d00k )

donde los coeficientes a00, b00, c00 y d00 son los definidos

en el recuadro a la derecha. O sea, el producto de quaterniones es un quaternion. Noes dif ıcil (pero si laborioso) probar directamente que este producto es asociativo tieneelemento neutro 1 = 1 + 0i + 0j + 0k y que es distributivo respecto a la suma.

Para comprobar la existencia de inversos multiplicativos definimos para un quater-nion no nulo x = a + bi + cj + dk su quaternion conjugado x = a − bi − cj − dk .De la definicion de producto de quaterniones tenemos que xx = xx = a2 + b2 + c2 + d2

es un numero real que tiene inverso multiplicativo. De esto se deduce que x (xx)−1 esel inverso multiplicativo de x. En resumen, el conjunto de los quaterniones H son un

anillo con division pero no son un campo.Los quaterniones fueron descubiertos en 1843 por el f ısico, ma-tematico y astronomo irlandes Sir William Rowan Hamilton(1805 — 1865). De aqu ı la notacion H para denotar el anillo dequaterniones. Los quaterniones jugaron un papel fundamen-tal en la matematica y la f ısica del siglo XIX. Por ejemplo,James Clerk Maxwell uso los quaterniones para desarrollarsus equaciones del electromagnetismo. En la actualidad son

importantes por ejemplo, para las aplicaciones en las cualesse requiere describir en forma eficiente rotaciones espaciales(robotica, control de naves espaciales, graficos por computa-doras, etc.).

E jercicio 29 Muestre que la tabla de multiplicar de los imaginarios i,j,k es conse-cuencia de las igualdades de Hamilton i2 = j2 = k 2 = ijk = −1. [188]

E jercicio 30 Muestre que los quaterniones que son raices cuadradas de −1 formannaturalmente una esfera en R3. Mas precisamente (a + bi + cj + dk )2 =

−1 si y solo

si se cumple que b2 + c2 + d2 = 1. [188]

E jercicio 31 Constraste 5.5 con el hecho de que hay un infinito numero de quater-niones que son raices de −1 (ejercicio 30). ¿Que falla en la prueba de 5.5 para el casode los quaterniones? [188]

Caso finito

Los quaterniones son un anillo con division infinito y es natural preguntarse si sepueden construir anillos con division finitos que no sean campos. El siguiente teoremaresponde esta pregunta en forma negativa.

Page 35: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 35/232

25Seccion 1.7 Anillos con division

Teorema de Wedderburn

Todo anillo con divisi´ on fi nito es un campo.

La prueba de este teorema involucra un analisis del grupo multiplicativo del anilloy usa tecnicas de teorıa de grupos mas alla de los objetivos de este libro.

Page 36: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 36/232

26

Page 37: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 37/232

Espacios Vectoriales

apítulo segundo

ste es el objeto central del algebra lineal. Motivaremos la introduccion de esteconcepto en el ejemplo geometrico del plano cartesiano. Daremos las definicionde espacio vectorial complementandola con los ejemplos mas fundamentales.

Profundizaremos en la estructura de estos estudiando sus subespacios, sus bases, sudimension etc. lo que nos llevara a entender todos los espacios vectoriales (al menos losde dimension finita). Finalizaremos este cap ıtulo con el estudio de las operaciones entresubespacios y subespacios afines lo que nos llevara a entender los espacios cocientes.

2.1 El plano cartesiano

Hubo algun tiempo, en que el algebra y la geometr ıa eran dos

y

p y

px

p

x

cosas totalmente aparte. Los algebristas trabajaban con numeros,polinomios, raices, formulas, etc. y los geometras con puntos, li-neas, pol ıgonos, etc. Rene Descartes (Francia 1596-1650) fue elque tuvo la brillante idea de introducir los ejes de coordenadas.Tomamos dos rectas perpendiculares, a lahorizontal se le llama “eje de las equis” y

a la vertical se le llama “eje de las yes”.Para cada punto del plano p trazamos la perpendicular al ejex y al eje y y de esta manera obtenemos los puntos px en eleje x y p y en el eje y. Por cuanto, el eje de las x lo podemosdentificar (escogiendo una unidad de medida) con R donde

el cero es el origen de coordenadas (la interseccion de los dosejes) por tanto, px es simplemente un numero real. De la mismamanera p y es otro numero real. As ı, a cada punto del plano p se

e hace corresponder biun ıvocamente una pareja de numeros reales ( px, p y). Ademas,es conveniente representar cada punto del plano como el segmento dirigido desde elorigen de coordenadas hasta el punto o sea como vectores. A los elementos de R(para diferenciarlos de los vectores) los llamaremos escalares.

Page 38: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 38/232

28 Cap ıtulo 2. Espacios vectoriales

Denotaremos los vectores por letras latinas en negritas. A diferencia deestos, los escalares se denotaran por letras latinas y griegas normales.

Si a = (ax, a y) y b = (bx, b y) son dos vectores la suma de los y

a a + b

b

x

mismos se define como a + b = (ax + bx, a y + b y) . La suma, geo-metricamente no es nada mas que la diagonal del paralelogramo

generado por a y b . Del hecho que (R, +) es un grupo abelianose desprende facilmente que nuestro plano cartesiano R2 es tambienun grupo con respecto a la suma de vectores.

Si a = (ax, a y) es un vector y α un escalar el producto α a se define y

a

2a

x

como (α ax, α a y) . Geometricamente este producto es aumentar (o reducir)en un factor α el vector a . Si el factor es negativo entonces el resultadoapunta en la direccion opuesta. Si el factor es cero entonces el vector sedegenera al origen de coordenadas.

El producto por escalares es distributivo con respecto a la su-α (a + b) = α a +α b

(α + β) a =α a +βa ma de vectores y tambien con respecto a la suma de escalareso sea se cumplen las igualdades en el recuadro. Estas dos le-

yes distributivas (¡son diferentes!) se cumplen porque son ciertas en cada coordenada.Ademas, obviamente tenemos que α (βa ) = (αβ) a . Todo esto nos dice que el planocartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales.

2.2 Definicion y ejemplos

La primera definicion de espacio vectorial la dio Giuseppe Peano (Ita-

E1) α (a + b) = α a + α b

(α + β) a =α a +βa

E2) α (βa ) = (αβ) a

E3) 1a = a

lia, 1858 -1932), en su libro “Calculo Geometrico” publicado en 1888.Peano es mas conocido por su axiomatica de los numeros naturales, opor la “Curva de Peano” que es una inmersion continua sobreyectivadel intervalo en el cuadrado.

Sea K un campo cuyos elementos los llamaremos escalares y

(E, +) un grupo abeliano cuyos elementos los llamaremos vectores.Diremos que es un espacio vecto-

rial sobre K si esta definida una operacion de pro-ducto de escalares por vectoresK×E → E que cumpleas propiedades E1-E3. A los axiomas E1 y E2 se leslama distributividad y asociatividad respectiva-

mente del producto por escalares.

Como (E, +) es un grupo abeliano entonces, tiene que tener un vector neutro que

denotaremos por 0. El opuesto del vector a se denota por −

a . Por otro lado el campode escalares tiene un neutro para la suma: el 0, un neutro para el producto: el 1,opuestos para la suma −α e inversos multiplicativos α −1. Las relaciones que cumplenestos con respecto al producto por escalares nos las da el siguiente resultado basico.

Page 39: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 39/232

29Seccion 2.2 Definicion y ejemplos

En todo espacio vectorial para cualquier vector a y cualquier escalar α se cumple que 0a = 0, (−1) a = −a y α 0 = 0.

Prueba. La demostracion se realiza mediante las siguentes tres cadenas de igualdades

0a E3

= 0a

+1a − a

E1

= (0

+1

)a − a

= a − a

= 0

(−1) a E3= (−1) a + 1a − a

E1= (−1 + 1) a − a = 0a − a = −a

α 0 E3= α 0 + 1 · 0

E1= α

¡0 + α −10

¢ = α

¡α −10

¢ E2= 1 · 0

E3= 0

donde signos “=” estan marcados con los axiomas por los que son validos.

E jercicio 32 Demuestre geometricamente que la diagonal del paralelogramo generadopor a y b tiene coordenadas (ax + bx, a y + b y). [188]

E jercicio 33 ¿Cual es la interpretacion geometrica de la resta de vectores?E jercicio 34 ¿Cuantas diferentes operaciones hay en α (βa ) y (αβ) a ? [188]

E jercicio 35 Demuestre que α a = 0 ⇒ α = 0 o a = 0. [188]

E jercicio 36 ¿Cual es el m ınimo numero de elementos que puede tener un espaciovectorial? [188]

Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que

el lector no se pierda en la cantidad de “ejemplos” que sigue. La mayor ıa de ellosson fundamentales para entender este libro. En particular, introduciremos notacionesbasicas que seran usadas constantemente.

El espacio de n-adas Kn

Consideremos el producto cartesiano de n copias Kn = (a1, a2,...,an) | ai ∈ Kdel campo K. Este producto se denota por Kn yesta formado por todas las n-adas (a1, a2,...,an). Al escalar ai se le llama la i-esima

coordenada de la n-ada (a1, a2,...,an). Luego, una n-ada tiene n coordenadas.Los vectores seran las n-adas, los escalares seran los elemen-

(a1,...,an)

+ (b1,...,bn)

(a1 + b1,...,an + bn)

tos de K. En Kn se introduce facilmente la suma por coor-denadas como se muestra en el recuadro a la izquierda. Delhecho de que las propiedades necesarias se cumplen en cadacoordenada se desprende que (Kn, +) es un grupo abeliano.

La multiplicacion por escalares tambien se introduce por(a1,...,an)

× α (α a1, α a2, ..., α an)

coordenadas. El axioma E1 se reduce en cada coordenada a la

distributividad del producto respecto a la suma en el campo K.El axioma E2 a la asociatividad del producto en K. Finalmente,el axioma E3 se reduce en cada coordenada a que 1 es el neutro para el producto en elcampo K. De esta manera obtenemos que Kn es un espacio vectorial sobre K.

Page 40: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 40/232

30 Cap ıtulo 2. Espacios vectoriales

El espacio de polinomios K [x ]

Podemos sumar polinomios, esta suma se hace co-

K [x ] =

± nXi=0

aixi | ai ∈ K

n ∈ N

²eficiente por coeficiente. Tambien sabemos multipli-car un elemento de K por un polinomio. Es muy co-nocido que todos los axiomas de espacio vectorial se

cumplen. En cierto sentido este espacio vectorial es parecido al anterior. Podemos aso-ciar a cada polinomio

Pni=0 aixi la (n + 1)-ada (a0, a1,,...,an ) y la multiplicacion por

escalar es la misma que en Kn+1. Para la suma podemos tener un problema si son degrados diferentes pero esto se resuelve agregando suficientes ceros o sea si

Pm i=0 bixi es

otro polinomio con n > m entonces podemos asociarle la n-ada (b0, b1,...,bm ,0,...,0)con suficientes ceros para completar las n coordenadas y entonces la suma es la mismaque en Kn+1. Aunque sepamos multiplicar polinomios, esto no tiene ningun papel enel concepto de espacio vectorial.

El espacio de sucesiones KN

Dos sucesiones se suman por coordenadas como se mues-(a1, a2,...,an,...)

+ (b1, b2,...,bn,...)

(a1 + b1,,...,an + bn, ....)

tra en el recuadro. La mutiplicacion un escalar es tam-bien por coordenadas. Los axiomas de espacio vectorialse comprueban facilmente. El lector debe observar quelos elementos de la sucesion pueden estar en un cam-

po arbitrario y no necesariamente en R como estamos acostumbrados. La nocion de

convergencia de sucesiones no tiene nada que ver con el concepto de espacio vectorial.

El espacio de series K [[x ]]

Las series se suman coeficiente por coeficiente. Pa-

K [[x ]] =

± ∞Xi=0

aixi | ai ∈ K²

ra multiplicar por un escalar se multiplican todos loscoeficientes por el escalar. Los axiomas de espacio vec-torial se cumplen porque se cumplen para cada coefi-ciente. De hecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serieP∞i=0 aixi se determina un ıvocamente por la sucesion (a0, a2,...,an ,...) de sus coefi-cientes y no hay diferencia entre sumar series y sumar las correspondientes sucesiones.Lo mismo pasa con la multiplicacion por un escalar. Al igual que con los polinomios,el concepto de producto de series no juega ningun papel en el hecho de que K [[x ]] seaun espacio vectorial.

El espacio de funciones KN

Hay una biyeccion natural entre las n-adas (a1, a2,...,an)

∈ Kn y las funciones

1,...,n 3 i 7→ ai ∈ K. Igualmente las sucesiones (a0, a1,...,an ,...) se correspondenbiun ıvocamente con las funciones N 3 i 7→ ai ∈ K. Ahora, generalicemos estos ejem-plos. Si N es un conjunto arbitrario (no necesitamos de operacion alguna en N) entoncesel conjunto de todas las funciones de N en K se denota por KN . Dadas dos funciones

Page 41: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 41/232

31Seccion 2.2 Definicion y ejemplos

f, g ∈ KN la suma de ellas se define como es habitual por (f + g) (i) = f (i) + g (i) paracualquier i ∈ N. El producto por un escalar se define por (λf) (i) = λf (i). Los axiomasde espacio vectorial se comprueban facilmente. Por ejemplo, la suma de funciones esconmutativa porque para cada i en N se cumple que f (i) + g (i) = g (i) + f (i) graciasa la conmutatividad de la suma en el campo. Como hemos visto, el espacio Kn y el

espacio de sucesiones son un caso particular de este ejemplo cuando N es 1,...,n y Nrespectivamente. Ademas, ya observamos que K [[x ]] = KN .

El espacio de N-adas KN

Muy frecuentemente una funcion en KN se denotara por α N . Mas pre-cisamente, α N es la funcion que a cada i ∈ N le hace corresponder elescalar α i. Por ejemplo, si N = 1 , . . . , n, entonces α N = (α 1, . . . , α n).

La bondad de esta notacion es que podemos pensar los elementos de KN

(funciones)como si fueran n-adas. Para poder seguir pensando en α N como si fuera en una n-adanecesitamos las palabras adecuadas. A las funciones α N de KN las llamaremos N-adas.Al conjunto N lo llamaremos conjunto de ındices de α N y a los elementos de N loslamaremos ındices. Si i es un ındice, entonces diremos que α i es la i-esima coorde-

nada de α N . En estas notaciones la suma de dos N-adas es por coordenadas. O sea, lai-esima coordenada de α N + βN es α i + βi. El producto por escalares tambien es porcoordenadas. O sea, la i-esima coordenada de λα N es λα i.

Si el conjunto N es finito y tiene n elementos entonces, la diferencia fundamentalentre una N-ada y una n-ada es que las coordenadas de la N-ada no necesariamenteestan ordenadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces,estos no tienen un orden natural. Para poder identificar una N-ada de estos con una3-ada, necesitamos definir artificialmente cual es el primer vector cual es el segundo ycual es el tercero.

El espacio de N-adas finitas K N

Sea α N ∈ KN una N-ada. Diremos que α N es finita si el conjunto de ındices i talesque α i 6= 0 es finito. Si el conjunto de ındices N es finito entonces, cualquier N-adaes finita (porque un subconjunto de un conjunto finito es finito). Sin embargo, si elconjunto de ındices es infinito entonces habra N-adas infinitas.

Si sumamos dos N-adas finitas el resultado sera una N-ada de finita (porque 0 +0 =

0). Si multiplicamos una N-ada finita por un elemento del campo el resultado sera unaN-ada de finita (porque λ0 = 0). Los axiomas de espacio vectorial se cumplen porqueya sabemos que se cumplen para cualesquiera N-adas. Al espacio de N-adas finita se

e denota por K N. Si N es finito K N = KN . Si N es infinito K N 6= KN .Como ejemplo de espacio de N-adas finitas veamos el siguiente. Cada polinomioPn

i=0 aixi determina un ıvocamente una N-ada aN donde ai = 0 si i > n. Esta N-adaes finita. Rec ıprocamente, si aN es una N-ada finita entonces, necesariamente, hay un

Page 42: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 42/232

32 Cap ıtulo 2. Espacios vectoriales

natural n tal que ai = 0 para cualquier i > n. As ı, le podemos hacer correspondera aN el polinomio

Pni=0 aixi. Esta correspondencia es biun ıvoca y las operaciones son

as mismas en ambos espacios. Esto nos muestra que, el espacio de polinomios es elespacio de N-adas finitas. En otras palabras K N = K [x ].

Subcampos

Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicarun elemento de L por uno de K obtenemos un elemento de K. Esto significa quetenemos una operacion binaria en K (la suma) y una multiplicacion por escalaresL×K→ K. En este caso, los axiomas de espacio vectorial se desprenden directamentede las definiciones de campo y subcampo y obtenemos que K es un espacio vectorialsobre L. Un caso muy particular es que todo campo es espacio vectorial sobre si mismo.Otro ejemplo importante es que R es subcampo de C. Como cada complejo se puede

escribir como una pareja (a, b) con coordenadas en R y la suma de complejos y elproducto por un real son las mismas operaciones que en R2 tenemos que C comoespacio vectorial sobre R es lo mismo que R2. Otro ejemplo mas es que R es un espaciovectorial sobre Q. Este caso es suficientemente complicado para que no digamos nadamas sobre el.

El espacio de N-adas de vectores EN

Ahora, nos debemos preguntar, cual es el m ınimo de condiciones que le debemospedir a las coordenadas de una N-ada, para poder definir un espacio vectorial. Ya vimosque, si las coordenadas estan en un campo entonces, obtenemos un espacio vectorial.Pero esto es pedir mucho. En realidad, solo necesitamos saber sumar las coordenadasy multiplicar cada coordenada por un escalar, o sea, necesitamos que las coordenadassean vectores.

Mas precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremospor EN el conjunto de todas las N-adas de E. Si a N y bN son dos elementos de

EN entonces, la i-esima coordenada de a N + bN es a i + bi. Esto lo podemos hacerporque sabemos sumar los elementos de E. Ahora, si λ es un elemento de K entonces, lai-esima coordenada de λa N es λa i. Esto lo podemos hacer porque sabemos multiplicaros escalares en K por los vectores en E. Los axiomas de espacio vectorial se demuestran

facilmente debido a que se cumplen en cada coordenada.

El espacio de NM-matrices KNM

Un caso particular de N-adas de vectores es cuando estos vectores son M-adasde escalares. Este espacio es

¡KM

¢N. Para aclarar un poco que sucede en este caso,

supongamos que N = 1, 2 y que M = 1,2,3. Entonces, un elemento del espacio¡KM

¢Nes una 2-ada (a 1, a 2) de vectores y cada uno de ellos es una 3-ada de escalares.

Page 43: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 43/232

33Seccion 2.2 Definicion y ejemplos

Los dos vectores los podemos represen- µ α 11 α 12 α 13

α 21 α 22 α 23

¶a 1 = (α 11 , α 12 , α 13)a 2 = (α 21 , α 22 , α 23)

tar como en el recuadro a la izquierday para simplificar nos quedamos con latabla que vemos a la derecha.

Esta tabla es un elemento del espacio de (N × M)-adas KN×M , o sea, los ındices

son parejas en el producto cartesiano N × M. Esto nos permite identificar ¡KM¢N

conKN×M y como las operaciones en ambos espacios son las mismas estos espacios sonen esencia el mismo. Cambiando el orden en que ponemos los indices obtenemos lasgualdades ¡

KM¢N

= KN×M = KM×N =¡KN¢M

que el lector debe comparar con (ax) y

= axy = a yx = (a y)x para numeros naturales

a,x,y.

Desde ahora, para simplificar la notacion, a una (N × M)-ada cualquiera la lla-

maremos NM-ada. Tambien, en lugar de usar la notacion α (N×M) para denotar unaNM-ada concreta, usaremos la notacion α NM . A una coordenada de esta NM-ada ladenotaremos α ij en lugar de usar la mas complicada α (i,j). En esta notacion, es mascomodo pensar que hay dos conjuntos de ındices (N y M) en lugar de uno solo (N×M).O sea, una NM-ada es un conjunto de elementos del campo indexado por dos conjuntosde ındices. Cuando N = 1 , . . . , n y M = 1 , . . . , m entonces obtenemos una matrizcon n renglones y m columnas. En el ejemplo anterior obtuvimos una matriz con 2

renglones y 3 columnas.

Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jerogl ıficos chinos), ladiferencia es que no hay un orden preestablecido entre los elementos de los conjuntos dendices por lo que no sabr ıamos cual columna o renglon poner primero y cual despues.

Como esta diferencia no es tan importante y para no formar confusion en la terminolog ıadesde ahora, a las NM-adas los llamaremos NM-matrices. Escribiremos KNM paradenotar el espacio vectorial de todas las NM-matrices. Como ya sabemos, en esteespacio las matrices se suman por coordenadas y se multiplican por escalares tambienpor coordenadas.

Sea α NM una NM-matriz. Es costumbre llamarle a las coordenadas α ij de α NM

entradas de la matriz. Si i ∈ N entonces la M-ada α iM ∈ KM es el i-esimo renglonde la matriz α NM . Si j ∈ M entonces la N-ada α Nj ∈ KN es la j-esima columna.Al conjunto N se le llama conjunto de ındices de los renglones. Analogamente, alconjunto M se le llama conjunto de ındices de las columnas.

Si N0, M0 son subconjuntos no vac ıos de N y M respectivamente entonces a lamatriz α N0M0 se le llama submatriz de α NM . Si |N0| = |M0| = 1 entonces la submatrizes una entrada. Un renglon es una submatriz donde |N0| = 1 y M0 = M o sea una

submatriz del tipo α iM . Una columna es una submatriz donde |M0| = 1 y N = N0 osea una submatriz del tipo α Nj . Una ultima observacion acerca de las matrices, es quetoda esta terminolog ıa de “columnas” y “renglones” viene de la manera usual en formade tabla en que escribimos una matriz concreta.

Page 44: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 44/232

34 Cap ıtulo 2. Espacios vectoriales

El espacio de tensores

Bueno, ¿y si tenemos mas de dos conjuntos de ındices? Pues es lo mismo. UnaNML-ada es una (N × M × L)-ada. Al igual que en las matrices denotaremos porα NM L a una NML-ada con tres conjuntos de ındices o sea un tensor de exponente

3. Las matrices son tensores de exponente 2 y las N-adas son tensores de exponente 1.Los tensores de exponente 0 son los elementos del campo.

Si bien podemos pensar un tensor de exponente 1, co-mo una serie de elementos del campo uno al lado de otroy pensar los de exponente 2, como una tabla rectangu-ar de elementos del campo, tambien podemos pensar los

tensores de exponente 3, como un conjunto de elementosdel campo dispuestos en un arreglo que llenan un cubo

en el espacio. Para cada i ∈ N tenemos que α iM L es untensor de exponente 2 o sea una matriz. Todo α NM L noso podemos imaginar como muchas matrices puestas una

encima de la otra.

Sin embargo cuando el exponente del tensor es grande ya nuestra imaginacion noda para visualizar geometricamente un arreglo de los elementos del campo dispuestosen un cubo de dimension grande. Es mucho mas util el manejo algebraico de estos, quetratar de visualizarlos. En este contexto, la terminolog ıa de “renglones” y “columnas”

se hace inutilizable. Como es logico, los tensores con conjuntos de ´ındices

fi jos formanun espacio vectorial. La suma se hace por coordenadas y tambien la multiplicacion por

un escalar.

2.3 Subespacios

Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vac ıo de

vectores que es un espacio vectorial para las mismas operaciones.

Un conjunto de vectores F no vac´ ı o es un subespacio si y solo si para cualesquiera a , b ∈ F y λ ∈ K los vectores a + b y λa est´ an en F.

Prueba. Si F es un subespacio de E entonces, por definicion a + b y λa estan en F.Rec ıprocamente, sea F un conjunto de vectores de E que cumple las hipotesis. Como

a suma de vectores es asociativa y conmutativa en E, tambien lo es en F. Sea a ∈ F(existe por ser F no vac ıo). Tenemos 0a = 0 ∈ F. Ademas ∀b ∈ F (−1) b = −b ∈ F.Con esto se comprueba que (F, +) es grupo abeliano. Los axiomas de espacio vectorialse cumplen en F por ser este un subconjunto de E.

Page 45: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 45/232

35Seccion 2.3 Subespacios

Union e interseccion de subespacios

¿Seran la interseccion (y la union) de subespacios un subespacio? La union desubespacios no es un subespacio. Por ejemplo, el eje x y el eje y en el plano cartesianoson subespacios sin embargo, la union de los mismos no es un subespacio ya que (0, 1)+

1, 0) = (1, 1) que no pertenece a la union de los dos ejes. Por el contrario, la interseccion

de subespacios s ı es un subespacio.

La interseccion de un conjunto de subespacios es un subespacio.

Prueba. La interseccion de subespacios nunca es vac ıa porque cada subespacio con-tiene al 0. Si a y b son dos vectores en cada uno de los subespacios de un conjuntoentonces, a + b tambien esta en cada uno de los subespacios del conjunto. Lo mismo

sucede para α a .

Combinaciones lineales

Veamos unos ejemplos importantes de subespacios. Sea a un vector

ha i

a no nulo en R2. El conjunto ha i = α a | α ∈ R de todos los multiplosdel vector a es un subespacio de R2 ya que α a + βa = (α + β) a , yα (βa ) = (αβ) a . Geometricamente, teniendo en cuenta la identificacionde vectores con los puntos del plano cartesiano, vemos que los vectores

en este espacio son los puntos de la recta por el origen que pasa por a .Sean ahora a y b dos vectores en R3 no colineales o sea a 6= βb. Considere-

mos el conjunto de vectores α a + βb | α , β ∈ R. Este conjunto de vectores se denotapor ha , bi y es un subespacio ya que α a + βb+α 0a + β0b = (α + α 0) a + (β + β0) byλ (α a + βb) = λα a +λβb. Geometricamente, vemos que este conjunto contiene a larecta ha i que pasa por a y a la l ınea hbi que pasa por b.

En R3 hay un solo plano que contiene estas dos rectas.

pa

bha , bi

¿Sera este plano el subespacio ha , bi? Claro que s ı. Para

cada punto p de este plano dibujemos la paralela a la l ıneaha i que pasa por p obteniendo un punto de interseccion conla recta hbi el cual es βb para algun β ∈ R. Analogamente,dibujando la paralela a hbi obtenemos el punto α a en larecta ha i y vemos que p = α a + βb. Luego, p ∈ ha , bi.

Estos ejemplos nos motivan a la siguiente definicion. Sea N un conjunto

Xi∈N

α iide vectores. Una combinacion lineal de N es cualquier vector de la formaque se muestra en el recuadro a la derecha. A los escalares α i se les llama

coeficientes de la combinacion lineal.Es posible que no se entienda esta notacion. El conjunto de ındices es el conjunto

de vectores N por lo que en la suma hay tantos sumandos como vectores hay enN. Ası por ejemplo si N = a , b, c, d entonces una combinacion lineal de N es un

Page 46: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 46/232

36 Cap ıtulo 2. Espacios vectoriales

vector de la forma α a + βb + γc + δd. En otras palabras, la notacion P

i∈N α ii debenterpretarse as ı: “tomese los vectores de N, cada uno de ellos multipl ıquese por un

escalar y sumese los resultados”. No importa el orden de los sumandos, la suma devectores es conmutativa

Todo esto esta muy bien si el conjunto N es finito. Si N es infinito tenemos un

problema. ¿Que es una suma infi

nita de vectores? La manera de evitar este problemaes que le pediremos a los coeficientes α i que todos salvo un n´ umero fi nito sean cero osea, que la N-ada α N cuyas coordenadas son los coeficientes de la combinacion lineales finita. Como podemos despreciar los sumandos iguales a cero, tenemos que unacombinacion lineal es siempre una suma de un numero finito de vectores.

El conjunto de todas las combinaciones lineales de N es un subespacio.

Prueba. Sean Pi∈N α ii y Pi∈N βii dos combinaciones lineales de N entonces, dea asociatividad y conmutatividad de la suma de vectores y de la distributividad del

producto por escalares obtenemos:Xi∈N

α ii+Xi∈N

βii =Xi∈N

(α i + βi) i

que es una combinacion lineal de N ya que todos los (α i + βi) salvo un numero finitotienen que ser cero. Lo mismo ocurre con γ

¡Pi∈N α ii

¢ =

Pi∈N γα ii.

Cerradura lineal

Denotaremos por hNi al conjunto de todas las combinaciones lineales de N.

Si F es un subespacio que contiene a N entonces, F contiene a hNi.

Prueba. Si N ⊆ F entonces, F contiene a todos los multiplos de los vectores en N ya todas sus sumas finitas. Luego, cualquier combinacion lineal de N esta en F.

Los siguientes tres conjuntos de vectores coinciden

1. El conjunto de todas las combinaciones lineales de N.

2. La intersecci´ on de todos los subespacios que contienen a N.

3. El subespacio mas peque˜ no que contiene a N.

Prueba. Denotemos por F1, F2 y F3 a los tres conjuntos del enunciado de la proposi-

cion. Por definicion F1 = hNi. Por la proposicion 2.3 el conjunto F2 es un subespacioque contiene a N y de 2.5 obtenemos que F1 ⊆ F2. Por definicion de intersecciontenemos que F2 ⊆ F3. Por definicion, F3 esta contenido en cualquier subespacio quecontiene a N y en particular F3 ⊆ F1. Resumiendo, F1 ⊆ F2 ⊆ F3 ⊆ F1.

Page 47: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 47/232

37Seccion 2.4 Bases

A cualquiera de estos tres conjuntos (¡son iguales!) se le denota por hNi y se lelama cerradura lineal de N o tambien el subespacio generado por N.

Propiedades de la cerradura lineal

La cerradura lineal cumple las siguientes propiedades:

¨ N ⊆ hNi (incremento),¨ N ⊆ M ⇒ hNi ⊆ hMi (monoton´ ı a),¨ hhNii = hNi (idempotencia).

Prueba. El incremento es inmediato de 2.6.3. Supongamos ahora que N ⊆ M. Cual-quier combinacion lineal de N es tambien combinacion lineal de M (haciendo cero oscoeficientes de los vectores en M\N). Finalmente, por 2.6.3 hhNii es el subespacio mas

pequeno que contiene a hNi. Como hNi es un subespacio entonces, hhNii = hNi.En matematicas las palabras “clausura”, “cerradura” y “envoltura” son sinonimos.

Por esto con el mismo exito, otros autores le llaman “clausura lineal” o “envolturaineal” a nuestro concepto de cerradura lineal. Ademas, es bueno que el lector encuentre

el parecido entre el concepto de cerradura lineal y el concepto de “cerradura” en analisis(la interseccion de todos los cerrados que contienen a un conjunto).

En general una funcion que a un conjunto N le hace corresponder otro conjunto hNi yque cumple las propiedades 1-3 se le llama operador de cerradura (clausura, envoltura).En este caso a los conjuntos tales que N = hNi se le llaman cerrados. Que se cumplan las

propiedades 1-3 es, en general, equivalente a que el operador de cerradura se defina como la interseccionde todos los cerrados que contienen al conjunto. En todas las ramas de las matematicas se encuentranoperadores de cerradura.

E jercicio 37 Demuestre que N es un subespacio si y solo si N = hNi.

E jercicio 38 Demuestre que ( x ∈ hN ∪ yi \ hNi)

⇒(y ∈ hN ∪ xi). [189]

2.4 Bases

Observemos que la definicion de combinacion lineal de NK N 3 α N 7→X

i∈N

α ii ∈ Edetermina la funcion fN del recuadro a la izquierda quea cada N-ada finita α N le hace corresponder el vectorPi∈N α ii. Esta funcion no tiene porque que ser sobreyectiva ni inyectiva, depende

del conjunto de vectores N. Por ejemplo, sea N = x, y, z ⊆ R3 donde x = (0,0,1),y = (0,1,0) y z = (0,1,1). En este caso fN (2,2,0) = fN (0,0,2) = (0,2,2) por lo quefN no es inyectiva. Tampoco es sobreyectiva porque (1,0,0) no tiene preimagen.

Page 48: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 48/232

38 Cap ıtulo 2. Espacios vectoriales

En esta seccion estableceremos que en todo espacio vectorial existen conjuntos N

para los cuales la funcion fN es biyectiva. Este hecho es fundamental, porque en estecaso existe la funcion inversa f−1

N : E → K N que nos permitira introducir coordenadasen cualquier espacio vectorial. Es mas, veremos que los conjuntos de vectores para loscuales fN es biyectiva tienen la misma cantidad de vectores. Esto quiere decir que cada

vector de E se defi

ne por un cierto numero de elementos del campo (coordenadas) yque este numero es independiente del vector a definir. Solo depende del espacio. As ı,en R2 nos hacen falta siempre dos reales y en R7 nos hacen falta siete.

Conjuntos generadores

Primero, lo mas facil. La imagen de la funcion fN es hNi , o sea, la cerradura linealde N. Diremos que N es un conjunto generador si hNi es todo el espacio o sea, sifN es sobreyectiva.

Los generadores son un filtro

Todo sobreconjunto de un conjunto generador es generador.

Prueba. Supongamos M ⊇ N. Por monoton ıa de la cerradura lineal tenemos hNi ⊆hMi. Si hNi es todo el espacio entonces, necesariamente hMi tambien lo es.

Conjuntos linealmente independientes

Ahora, veamos cuando fN es inyectiva. Observese que en un lenguaje mas descrip-tivo, fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado.

Teorema de Caracterizacion de Conjuntos Linealmente Independientes

Sea N un conjunto de vectores. Las siguientes a fi rmaciones son equivalentes:

1. Cualquier subconjunto propio de N genera un subespacio m´ as peque˜ no

que hNi.2. Cualquier vector en N no es combinaci´ on lineal de los restantes.

3. Si dos combinaciones lineales de N son iguales entonces, todos sus co-e fi cientes son iguales.

4. Si una combinaci´ on lineal de N es cero entonces, todos sus coe fi cientes son cero.

Prueba. (1

⇔2) Si 1 no es cierto entonces existe a

∈N tal que hNi = hN\a i pero

entonces a ∈ hN\a i lo que contradice 2. Rec ıprocamente, si 2 no es cierto entoncesexiste a ∈ N tal que a ∈ hN\a i. Por incremento N\a ⊆ hN\a i y como ademasa ∈ hN\a i entonces N ⊆ hN\a i. Por monoton ıa e idempotencia hNi ⊆ hN\a i lo quecontradice 1.

Page 49: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 49/232

39Seccion 2.4 Bases

(3 ⇔ 4) Observese que¡P

i∈N α ii =P

i∈N βii¢⇔ ¡P

i∈N (α i − βi) i = 0¢

y ademasα i = βi) ⇔ (α i − βi = 0). Luego, la existencia de combinaciones lineales iguales con

algunos coeficientes diferentes es equivalente a la existencia de combinaciones linealesguales a cero con algunos coeficientes no cero.

(2

⇔4) Si no se cumple 2 entonces hay un vector a ∈ N que es combinacion

ineal de N\a . Pasando todos los sumandos hacia un lado de la igualdad obtenemosuna combinacion lineal de N igual a cero con un coeficiente distinto de cero. Estocontradice 4. Rec ıprocamente, si no se cumple 4 entonces hay un vector a ∈ N y unacombinacion lineal de N igual a cero y con α a 6= 0. Despejando a , obtenemos quea ∈ hN\a i. Esto contradice 2.

E jercicio 39 Busque en la prueba del Teorema de Caracterizacion de Conjuntos Li-nealmente Independientes (2.9) donde se usan los inversos nultiplicativos. [189]

Diremos que un conjunto de vectores N es linealmente independiente si secumple alguna (y por lo tanto todas) las afirmaciones de la proposicion anterior. Losconjuntos de vectores que no las cumplen se les llama linealmente dependientes.

A partir de ahora para no repetir constantemente frases largas, a los con- juntos de vectores linealmente independientes los llamaremos conjuntosLI. A los conjuntos de vectores linealmente dependientes los llamaremos

conjuntos LD. Estas notaciones se deben pronunciar “ele i” y “ele de”.

Los independientes son un ideal

Todo subconjunto de un conjunto LI es LI.

Prueba. Sea N ⊆ M tal que M es LI. Cualquier combinacion lineal de N es combi-nacion lineal de M. Luego toda combinacion lineal de N igual a cero tiene todos sus

coefi

cientes iguales a ceroAntes de pasar a la definicion de base, demostremos un pequeno resultado que

usaremos repetidamente en lo adelante.

Lema de Aumento de un Conjunto LI

Si N es independiente y N∪a es dependiente entonces a ∈ hNi.

Prueba. Si N ∪ a es LD entonces, por la caracterizacion 2.9.4 de los conjuntos LI,hay una combinacion de N ∪a igual a cero cuyos coeficientes no todos son igual a cero.Si el coeficiente en a fuera igual a cero tendr ıamos una contradiccion con que N es LI.Luego, el coeficiente en a es diferente a cero y despejando a obtenemos a ∈ hNi.

Page 50: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 50/232

40 Cap ıtulo 2. Espacios vectoriales

Bases

La relacion entre los conjuntos generadores y los con-

Conjuntos generadores

Conjuntos LI

E

untos LI la podemos ver intuitivamente en la figura a laderecha. Aqu ı estan representados los subconjuntos delespacio E que son generadores o que son LI. Mientras

mas arriba mas grande es el subconjunto. Nuestro interesahora se va a concentrar en la franja del centro dondehay subconjuntos que a la vez son generadores y LI. Lasiguiente proposicion nos dice que “esta franja no puedeser muy ancha”.

Teorema de Caracterizacion de Bases

Sea N un conjunto de vectores. Las siguientes a fi rmaciones son equivalentes 1. N es generador y N es LI,

2. N es LI y cualquier sobreconjunto propio de N es LD,

3. N es generador y cualquier subconjunto propio de N no es generador.

Prueba. (1 ⇒ 2) Sea N independiente y generador. Sea a /∈ N. Como N es generadora ∈ hNi . De la caracterizacion 2.9.2 de los conjuntos LI se sigue que N ∪ a es LD.Luego todo sobreconjunto propio de N es LD.

(2 ⇒ 3) Sea N independiente maximal. Por incremento N ⊆ hNi. Si a /∈ N entoncesN ∪ a es LD. Por el Lema de Aumento de un Conjunto LI (2.11) tenemos a ∈ hNi .

Luego, N es generador. Si algun subconjunto propio de N fuera generador entoncesexistir ıa a ∈ N tal que a ∈ hN\a i y por la caracterizacion 2.9.2 de los conjuntos LIesto contradice la suposicion de que N es LI.

(3 ⇒ 1) Sea N generador minimal. Si N es LD entonces, por la caracterizacion 2.9.1de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Como N

es generador entonces M tambien lo es. Esto contradice que N es minimal.

Sea F un subespacio. Un conjunto de vectores que es generador de F y que es LIse le llama base de F. Las bases de todo el espacio se llaman simplemente bases. Elser base es equivalente a ser un conjunto LI lo mas grande posible o ser un conjuntogenerador lo mas pequeno posible. Tambien, el ser base es equivalente a que nuestrafuncion fN del principio de esta seccion sea biyectiva.

Lema de Incomparabilidad de las Bases

Dos bases diferentes no est´ an contenidas una dentro de la otra.

Prueba. Si N ⊆ M son dos bases diferentes entonces N es un subconjunto propio deM y por el Teorema de Caracterizacion de Bases (2.12) esto es una contradiccion.

Page 51: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 51/232

41Seccion 2.4 Bases

Teorema de Existencia de Bases

Sea N un conjunto generador y L ⊆ N un conjuntoLI. Entonces, existe una base M tal que L ⊆ M ⊆ N.

Prueba. Sean L y N como en las hipotesis del teorema. Sea M un conjunto LI talque L ⊆ M ⊆ N. Si M es maximal con estas propiedades (∀a ∈ N\M M ∪ a es LD)entonces, por el Lema de Aumento de un Conjunto LI (2.11) tenemos N ⊆ hMi. ComoN es generador, esto significa que M tambien lo es y por lo tanto M es una base.

Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es facilsi el conjunto N es finito. Primero ponemos M igual a L. Si M es maximal terminamos,si no, entonces existe a ∈ N\M tal que M ∪ a es LI. Agregamos a al conjunto M yrepetimos este proceso. Como N es finito este proceso tiene que terminar.

E jercicio 40 Usando el Teorema de Existencia de Bases pruebe que: 1. Todo espaciovectorial tiene base. 2. Cualquier conjunto LI esta contenido en una base. 3. Cualquierconjunto generador contiene a una base. [189]

Dimension

Ahora lo que queremos ver es que todas las bases tienen el mismo numero devectores. Para probar esto se necesita ver primero una propiedad clasica de las bases.

Propiedad del Cambio de las Bases

Si M y N son dos bases entonces, para cualquier a ∈ M existe b ∈ N tal que (M\a ) ∪ b es base.

Prueba. Sea a un vector fi jo pero arbitrario en M. Para un vector b

∈N denotemos

Mb = (M\a )∪b. Si para todos los b ∈ N\ (M\a ) el conjunto Mb fuera LD entonces,por el Lema de Aumento de un Conjunto LI (2.11) todo b ∈ N ser ıa combinacionineal de M\a . O sea, N ⊂ hM\a i y por lo tanto hNi ⊆ hM\a i . Como hNi es todo el

espacio tendr ıamos a ∈ hM\a i lo que no es posible ya que M es LI.Hemos demostrado que existe b ∈ N\ (M\a ) tal que Mb es LI. Demostremos que

Mb es generador. Sea v un vector arbitrario. Por ser M base tenemos que b y v soncombinaciones lineales de M o sea existen escalares apropiados tales que

b = α a a + X x∈M\a

α x x v = λa a + X x∈M\a

λ x x

Como Mb es LI entonces, b no es una combinacion lineal de M\a y por lo tantoα a 6= 0. Luego, podemos despejar a de la primera ecuacion, substituirla en la segunday as ı obtener que v ∈ hMbi. Esto significa que Mb es generador.

Page 52: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 52/232

42 Cap ıtulo 2. Espacios vectoriales

Equicardinalidad de las Bases

Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal.

Prueba. Sean A = a 1,..., a n y B dos bases. Por la Propiedad del Cambio de las Bases(2.15) existe otra base A1 = b1, a 2, ..., a n donde b1

∈ B. Observese que |A1 | = n

ya que en otro caso A1 Ã A lo que contradice el Lema de Incomparabilidad de lasBases (2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A1 obtenemosotra base A2 = b1, b2, a 3, ..., a n tal que b2 ∈ B. Observese que |A2 | = n ya que enotro caso A2 Ã A1 lo que contradice el Lema de Incomparabilidad de las Bases (2.13).Repitiendo este proceso obtenemos bases A3, A 4,...,An todas con n vectores y ademasAn ⊆ B. Como B es base An = B y por lo tanto B tambien tiene n vectores.

Al cardinal de una base (cualquiera) se le llama dimension del espacio vectorial. Ladimension de un espacio vectorial E se denotara por dim E. Los espacios vectoriales quetienen una base finita se les llama finito dimensionales o de dimension finita. Porel contrario, si sus bases son infinitas entonces, el espacio vectorial es de dimensionnfinita. La teor ıa de los espacios vectoriales de dimension finita es mas sencilla pero

mas completa que la de los espacios de dimension infinita. Para darnos cuenta de quehay muchas cosas que no se cumplen en el caso infinito dimensional veamos comoejemplo el siguiente resultado que tendremos multiples ocaciones para utilizarlo.

Sea F un espacio vectorial fi nito dimensional y E un subespacio de F. Si dim E = dim F entonces E = F.

Prueba. Sea N una base de E. Por el Teorema de Existencia de Bases (2.14) existeuna base M del espacio F que contiene a N. Como M es finita entonces, N tambien esfinita. Como las dimensiones coinciden, el numero de vectores en N es igual al numerode vectores en M. Luego N = M y por lo tanto E = hNi = hMi = F.

La prueba de la Equicardinalidad de las Bases la hemos hecho solamentepara el caso que el espacio tiene una base finita. Nuestra prueba del Teo-rema de Existencia de Bases es solo para el caso que el conjunto generador

es finito. Finalmente, solo probamos que los espacios vectoriales que tienen un conjuntogenerador finito tienen base. Es importante que el lector sepa que estas tres afirmacio-nes son validas en general. Las pruebas generales dependen de un conocimiento masprofundo de la Teor ıa de Conjuntos que no presuponemos que lo posea el lector. A losnteresados en esto les recomiendo leer ahora la ultima seccion de este cap ıtulo.

E jercicio 41 Pruebe que si E un subespacio de F entonces dim E ≤ dim F. [189]

E jercicio 42 Encuentre un ejemplo donde no se cumple 2.17. [189]

Page 53: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 53/232

43Seccion 2.4 Bases

Bases canonicas

Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tie-nen una base sino muchas. Por esto es conveniente construir bases que son las mas“sencillas” para los ejemplos de espacios vectoriales que construimos en la Seccion 2.2.

Comenzemos con R2. Sean e1 = (1, 0) y e2 = (0, 1). Cualquier vector (a, b) en

R2

R2 tiene una manera de expresarse como combinacion lineal de N = e1, e2.Efectivamente, tenemos la igualdad (a, b) = ae1 + be2. Esto quiere decir que el con-unto N es generador. Por otro lado, si α e1 + βe2 = (α , β) = 0 = (0, 0) entonces,

necesariamente, α y β son ambos cero. De aqu ı obtenemos que conjunto N es unabase que la llamamos base canonica de R2. Los vectores e1 y e2 se pueden visualizargeometricamente como los dos vectores de longitud 1 en ambos ejes de coordenadas.Luego, la dimension de R2 es 2.

Pasemos ahora a Kn. Para cada i en el conjunto de ındices 1 , . . . , n denotemos

Kn

por ei el vector cuya i-esima coordenada es 1 y todas las demas son cero (recuerdeque todo campo tiene uno y cero). Sea N el conjunto de todos esos vectores. Tenemos

α 1, . . . , α n) =Pn

i=1 α iei y esto significa que cada vector en Kn se expresa de formaunica como combinacion lineal de N. O sea, N es generador y por la caracterizacion2.9.3 de los conjuntos LI el conjunto N es LI. A la base N se le llama base canonicade Kn. La dimension de Kn es n.

Veamos el espacio de polinomios K [x ]. Sea N el conjunto

©xi | i ∈ N

ª. Es claro

K [x ] que todo polinomio se puede escribir de forma unica como combinacion lineal

finita de N. A la base N se le llama base canonica de K [x ]. Luego, K [x ] es dedimension infinita contable. Desafortunadamente, para el espacio de series no se puededar explicitamente una base.

Para el espacio K N de todas las N-adas finitas ya hicimos casi todo el trabajoK N

(vease Kn). Para cada i en el conjunto de ındices N denotemos por ei elvector cuya i-esima coordenada es 1 y las demas son cero. Sea M el conjunto de todosesos vectores. Tenemos α N =

Pei∈M α iei donde los coeficientes son distintos de cero

solamente en un subconjunto finito de indices. Luego, M es una base de este espacio

a cual es su base canonica. La dimension de K N es el cardinal de N ya que hay unabiyeccion entre N y M.

Recordemos al lector que lo de N-ada finita es no trivial solo para cuando el con-KN

junto N es infinito. Si el conjunto de ındices es finito entonces estamos hablandode todas las N-adas o sea de KN . Luego, en el caso de que N es finito K N = KN ya base canonica de KN es la construida en el parrafo anterior. En el caso de que el

conjunto N sea infinito entonces el espacio KN no tiene una base canonica.El campo de los numeros complejos como espacio vectorial sobre los reales tienen

como base canonica al conjunto 1, i y por lo tanto tiene dimension 2. Los realescomo espacio vectorial sobre los racionales no tienen una base canonica.

Todos los espacios que hemos visto que no tienen base canonica son de dimensionnfinita. Pero, no todos los espacios de dimensi´ on fi nita tienen una base can´ onica. El

Page 54: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 54/232

44 Cap ıtulo 2. Espacios vectoriales

ejemplo mas sencillo es tomar un subespacio de un espacio de dimension finita. Si estesubespacio es suficientemente general, entonces no hay manera de construir una basecanonica del mismo incluso en el caso de que todo el espacio tenga una base canonica.

E jercicio 43 ¿Cual es la base canonica del espacio de las NM-matrices? [189]

2.5 Clasificacion de espacios vectoriales

En esta seccion veremos que todo espacio vectorial es isomorfo a un espacio deN-adas finitas. Para el caso finito dimensional esto quiere decir que el unico (salvosomorfismos) espacio vectorial de dimension n sobre un campo K que existe es el

espacio de las n-adas Kn.

Isomorfismos lineales

En el Cap ıtulo 1 vimos los morfismos de operaciones binarias, grupos, anillos ycampos. Para los espacios vectoriales es igual, la unica diferencia es que en ellos haydefinida una operacion que no es interna del espacio: el producto de un escalar por unvector. Sin embargo, esto no presenta mayores dificultades.

Sean E y F dos espacios vectoriales sobre el mismo campo

f (a + b) = f (a ) + f (b)f (α a ) = α f (a )

K. Una funcion f : E → F se le llama morfismo deespacios vectoriales si para cualesquiera a , b ∈ E ycualquier α ∈ K se cumplen las propiedades del recuadro.

A los morfismos de espacios vectoriales tambien se les llama transformacionesineales. Esta ultima expresion sera la que usemos porque tiene dos importantes ven-

tajas. Primero, es mas corta que la primera. Segundo es mucho mas antigua, haymucha mas cantidad de personas que la conoce y por lo tanto facilita la comunicacioncon ingenieros y cient ıficos de diversas areas.

E jercicio 44 Demuestre que la composicion de morfismos es un morfismo. [189]

El estudio de las transformaciones lineales lo pospondremos hasta el siguientecap ıtulo. Aqu ı estaremos interesados en los isomorfismos de espacios vectoriales. Unatransformacion lineal f : E → F es un isomorfismo de espacios vectoriales o iso-morfismo lineal si esta es biyectiva. Analogamente al caso de operaciones binarias

tenemos el siguiente resultado:

La inversa de cualquier isomor fi smo lineal es un isomor fi smo lineal.

Page 55: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 55/232

45Seccion 2.5 Clasificacion de espacios vectoriales

Prueba. Sea α ∈ K y x, y ∈ F. Como f es una biyeccion existen a , b ∈ E tales quef (a ) = x , f (b) = y. Como f es isomorfismo tenemos

f−1 ( x + y) = f−1 (f (a ) + f (b)) = f−1 (f (a + b)) = a + b = f−1 ( x) + f−1 (y)f−1 (α x) = f−1 (α f (a )) = f−1 (f (α a )) = α a =α f−1 ( x)

que es lo que se quer ıa demostrar.

Ya observamos, que los isomorfismos son nada mas que un cambio de los nombresde los elementos y las operaciones. Esto quiere decir que “cualquier propiedad” debeconservarse al aplicar un isomorfismo. Lo siguiente es un ejemplo de esta afirmacion.

Un isomor fi smo transforma conjuntos LI en conjuntos LI, con- juntos generadores en conjuntos generadores y bases en bases.

Prueba. Sea f : E → F un isomorfismo de espacios vectoriales. Sean M

⊆ E y

N def = f (M) ⊆ F. Sean ademas x ∈ E , y = f ( x) ∈ F. Como f es isomorfismo tenemosÃXi∈M

α ii = x

!⇔ÃX

i∈M

α if (i) = y

!⇔ÃX

j∈N

α jj = y

!donde el conjunto de coeficientes α i | i ∈ M es exactamente el mismo que α j | j ∈ N.

Si M es generador entonces, para cualquier y ∈ F el vector x = f−1 (y) es combi-nacion lineal de M y por la equivalencia anterior el vector y es combinacion lineal deN. Luego, si M es generador entonces N tambien lo es.

Supongamos que M es LI entonces, poniendo x = 0 obtenemosÃXi∈M

α ii = 0

!⇔ÃX

j∈N

α jj = 0

!uego, cualquier combinacion lineal de N que es nula tambien es combinacion lineal

nula de M y por lo tanto todos sus coeficientes son cero. Luego, N es LI.

E jercicio 45 Demuestre que los isomorfismos conmutan con el operador de cerraduraineal y que trasforman subespacios en subespacios de la misma dimension.

Coordinatizacion

Sea N un conjunto de vectores del espacio vectorial F. Al principio de la seccionanterior introducimos la funcion fN que a cada N-ada finita le hace corresponder lacombinacion lineal cuyos coeficientes son dicha N-ada. Esta funcion es siempre unatransformacion lineal ya que

fN (α N + βN ) = Xi∈N

(α i + βi) i = Xi∈N

α ii +Xi∈N

βii = fN (α N ) + fN (βN )

fN (λα N) =Xi∈N

(λα i) i = λXi∈N

α ii = λfN (α N) .

Page 56: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 56/232

46 Cap ıtulo 2. Espacios vectoriales

Por otro lado, ya vimos que fN es sobreyectiva si y solo si N es generador, que fN

es inyectiva si y solo si N es LI y por lo tanto fN es un isomorfismo si y solo si N

es una base. En el caso de que N sea una base, la funcion inversa f−1N : F → K N es

un isomorfismo lineal llamado coordinatizacion de F mediante la base N. En otraspalabras, si N es una base de F, y x es un vector de F entonces, existe una unica

N-ada α N ∈ K N

tal que x = Pi∈N α ii. En este caso, a los coefi

cientes α i se les llamacoordenadas de x en la base N.

Clasificacion

Se dice que dos espacios son isomorfos si existe una funcion que es un isomorfismoentre ellos. No hay ninguna razon (por ahora) para que deseemos distinguir dos espaciosvectoriales que son isomorfos. Si esto sucede, uno es igual a otro salvo los “nombres”de los vectores y las operaciones. La clave para ver que los espacios vectoriales son

somorfos es que estos tengan la misma dimension.

Dos espacios vectoriales sobre el mismo campo son isomorfos si y solo si tienen la misma dimensi´ on.

Prueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19un isomorfismo entre ellos transforma biyectivamente una base de uno en una base del

otro por lo que tienen la misma dimension. Rec´ı

procamente, sean N

y M

bases de E

y F respectivamente. Mediante los isomorfismos de coordinatizacion podemos pensarque E = K N y F = K M. Si los dos tienen la misma dimension entonces, hay unabiyeccion f : M → N. Sea g : K N 3 α N 7→ βM ∈ K M la funcion tal que βi = α f(i).Podemos pensar que la funcion g es la que le cambia el nombre a los ındices de unaN-ada. Esta es claramente un isomorfismo de espacios vectoriales (ya que la suma deN-adas es por coordenadas y lo mismo con el producto por un escalar).

Esta proposicion nos permite saber como son TODOS los espacios vectoriales. Ya

vimos (mediante la base canonica) que el espacio vectorial de todas las N-adas finitastiene dimension |N|. Escogiendo el conjunto N adecuadamente obtenemos todas lasdimensiones posibles. En el caso de que N sea finito con n elementos , este espacio esKn por lo que es valido el siguiente teorema.

Teorema de Clasificacion de Espacios Vectoriales

Todo espacio vectorial es isomorfo a un espacio de N-adas fi nitas.Todo espacio vectorial de dimensi´ on fi nita es isomorfo a Kn.

Page 57: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 57/232

47Seccion 2.5 Clasificacion de espacios vectoriales

Campos de Galois

Una aplicacion sencilla del Teorema de Clasificacion de Espacios Vectoriales (2.21)es la siguiente.

El n´ umero de elementos en un campo fi nito es potencia de un n´ umero primo.

Prueba. Sea K un campo. Ya vimos que siempre que se tenga un subcampo L de Kentonces, K es un espacio vectorial sobre L. Esto es en esencia porque podemos sumarvectores (los elementos de K) y podemos multiplicar escalares (los elementos de L) porvectores.

Si K es finito entonces su subcampo primo no puede ser Q. Esto quiere decir que Kcontiene como subcampo a Z p. La dimension de K sobre Z p tiene que ser finita ya que

si no, entonces K ser ıa infinito. Luego existe un natural n tal que el espacio vectorialK es isomorfo a Zn p que tiene exactamente pn elementos.

Como pensar en espacios vectoriales

A partir de ahora el lector debe siempre tener en mente el Teorema de Clasificacionde Espacios Vectoriales (2.21). Al hablar de un espacio vectorial en primer lugar, sedebe pensar en R2 y R3. La interpretacion geometrica de estos dos espacios como lossegmentos dirigidos con origen en el cero da una intuicion saludable acerca de lo que

es cierto y lo que no.En segundo lugar el lector debe pensar en el ejemplo Rn. Si el lector lo prefiere,

el numero n puede ser un numero fi jo suficientemente grande digamos n = 11. Ya eneste caso, para entender es necesario usar varios metodos: las analogıas geometricas endimensiones pequenas, el calculo algebraico con s ımbolos y los razonamientos logicos.Casi todo lo que se puede demostrar para espacios vectoriales finito dimensionales sedemuestra en el caso particular de Rn con la misma complejidad. Las demostraciones demuchos hechos validos en Rn se copian tal cual para espacios vectoriales de dimension

finita sobre cualquier campo.En tercer lugar se debe pensar en Cn. El espacio vectorial Cn es extremadamen-

te importante dentro de las matematicas y la f ısica. Ademas, el hecho de que C esalgebraicamente cerrado hace que para Cn algunos problemas sean mas faciles queen Rn. Hay una manera de pensar en Cn que ayuda un poco para tener intuiciongeometrica. Como ya vimos 1, i es una base de C como espacio vectorial sobre R. Dea misma manera Cn es un espacio vectorial sobre R de dimension 2n o sea, hay una

biyeccion natural entre Cn y R2n (la biyeccion es (a1 + b1i, a2 + b2i,...,an + bni) 7

→a1, b1, a2, b2,...,an, bn)). Sin embargo esta biyeccion no es un isomorfismo. Si E es unsubespacio de Cn sobre R entonces no necesariamente E es un subespacio de Cn sobreC . Desde este punto de vista podemos pensar (no rigurosamente) a Cn como un R2n

en el que hay menos subespacios.

Page 58: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 58/232

48 Cap ıtulo 2. Espacios vectoriales

Los que se interesan en las ciencias de la computacion deben tambien pensar en Zn p y

en general en cualquier Kn donde K es un campo finito. Las aplicaciones mas relevantesncluyen la codificacion de informacion con recuperacion de errores y la criptograf ıa,

que es la ciencia de cifrar mensajes.Ahora, si el lector no le tiene miedo al concepto de campo (que es uno de los

objetivos de este libro) entonces, lo mas facil es pensar en Kn

. Esto tiene una granventaja en el sentido de que no hay que pensar en los detalles particulares que secumplen en uno u otro campo.

Sin embargo, en el caso infinito-dimensional la situacion es mas fea. Nuestros teo-remas afirman que hay un isomorfismo entre R como espacio vectorial sobre Q y R Q.

En otras palabras, existe un conjunto de numeros reales (la base) tal que cualquiernumero real se puede expresar de forma ´ unica como combinacion lineal fi nita de esteconjunto usando coeficientes racionales.

El problema es que nadie conoce (ni conocera nunca) una base de este espacio,ası que realmente, estos teoremas no dicen mucho para espacios vectoriales de dimensionmayor que el cardinal de los naturales ℵ0.

E jercicio 46 Sean x, y ∈ R y E = ax + by | a, b ∈ Q. ¿Es E un espacio vectorialsobre Q? ¿Cual es su dimension? ¿Es E un espacio vectorial sobre R? [189]

2.6 Suma de subespacios

En esta seccion introduciremos las operaciones mas basicas entre subespacios. Peroantes, es saludable dar una interpretacion geometrica de los subespacios para que elector pueda comparar el caso general con el caso de los espacios R2 y R3.

Subespacios de Rn

¿Cuales son todos los subespacios de Rn? Del Teorema de Clasificacion de EspaciosVectoriales (2.21) sabemos que estos tienen que ser isomorfos a Ri para i ∈ 0 , 1 , . . . , n

segun sea su dimension. Si i = 0 entonces todo el subespacio es el vector 0 (el origende coordenadas). Si i = n entonces, el subespacio es por 2.17 todo el espacio. Luego,os casos interesantes son los que 0 < i < n.

Si i = 1 entonces, el subespacio es isomorfo a R y tiene que tener una base de unvector. O sea, existe un vector a tal que el subespacio es igual a ha i. Ya vimos que ha ies la recta que pasa por el origen y por el punto a que es el final del vector a . Luego,

os subespacios de dimension 1 de Rn son las rectas que pasan por el origen.Si i = 2 entonces, el subespacio tiene que ser isomorfo a R2 y tiene que tener una

base a , b de dos vectores. La base a , b tiene que ser LI y en este caso eso quieredecir que b no es un multiplo escalar de a . En otras palabras, los puntos finales de

Page 59: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 59/232

49Seccion 2.6 Suma de subespacios

os vectores a , b y el origen de coordenadas no estan alineados. En este caso hay ununico plano (R2) que pasa por estos tres puntos y tambien ya vimos que este plano esha , bi. Luego, los subespacios de dimension 2 de Rn son los planos por el origen. ParaR3 este analisis termina con todas las posibilidades: sus subespacios son: el origen, lasrectas por el origen, los planos por el origen y todo el espacio.

Ahora tenemos que pensar por lo menos en los subespacios de R 4

y ya se nosacaba la intuicion y la terminolog ıa geometrica. Por esto, pasemos al caso general. Unsubespacio de dimension i en Rn esta generado por una base a 1, . . . , a i de i vectoresLI. Que sean LI lo que quiere decir es que sus puntos y el origen no estan contenidosen un subespacio de dimension menor que i. Si este es el caso entonces hay un unicoRi que contiene a todos estos puntos y este es el subespacio ha 1, . . . , a ii.

Suma de conjuntos y subespacios

Sean E y F dos subespacios sobre un campo K. En la proposicion 2.3 vimos queE ∩ F es un subespacio. Por definicion de interseccion E ∩ F es el subespacio masgrande contenido en E y en F. Ya observamos ademas que E ∪ F no es un subespacio.Sin embargo, hay un subespacio que es el mas pequeno que contiene a los dos y estees hE ∪ Fi. El subespacio hE ∪ Fi tiene una estructura muy simple:

hE ∪ Fi = a + b | a ∈ E, b ∈ F

Prueba. Todo vector a + b es una combinacion lineal de E ∪ F. X x∈E

α x x +Xy∈F

βyyRec ıprocamente, toda combinacion lineal de E∪F se puede escri-bir como en el recuadro. Como E y F son subespacios entonces,el primer sumando esta en E y el segundo sumando esta en F. Esto quiere decir quetodo elemento de hE ∪ Fi es de la forma a + b con a en E y b en F.

Dados dos conjuntos cualesquiera de vectores A yA + B = a + b | a ∈ A, b ∈ B

B definimos la suma de estos como en el recuadroa la izquierda. Despues de esta definicion el resultado 2.23 se puede reformular comohE ∪ Fi = E + F. Es por esto que al subespacio hE ∪ Fi se le llama la suma de lossubespacios E y F y desde ahora se le denotara por E + F.

La igualdad modular

Sean E y F dos subespacios. Ahora trataremos de calcular la dimension de E + F.Para esto necesitaremos primero encontrar bases de E ∩ F y E + F.

Existen E una base de E y F una base de F tales que E ∩ F es base de E ∩ F y E ∪ F es base de E + F.

Prueba. Sea N una base de E ∩ F . Como N es LI y esta contenida en E entonces,

Page 60: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 60/232

50 Cap ıtulo 2. Espacios vectoriales

por el Teorema de Existencia de Bases (2.14) existe una base E de E que contiene a N.Analogamente, existe una base F de F que contiene a N.

Demostremos primero que E∩F = N. Efectivamente, por la forma en que contruimosE y F tenemos N ⊆ E ∩ F. Para la prueba de la otra inclusion sea a ∈ E ∩ F. ComoN ∪ a ⊆ E entonces, tenemos que N ∪ a es LI. Como N es base de E ∩ F y las bases

son los conjuntos LI mas grandes, obtenemos que a ∈ N. Luego, E ∩ F ⊆ N.Solo nos queda probar que E ∪ F es una base de E + F. En primer lugar, cualquiera + b ∈ E + F es combinacion lineal de E ∪ F por lo que E ∪ F es generador de E + F.Necesitamos probar que E ∪ F es LI. Para esto supongamos que

0 =X

i∈E∪F

α ii =X

i∈E\N

α ii+Xi∈N

α ii+X

i∈F\N

α ii

y demostremos que todos los α i son cero. Sean x, y, z el primer, segundo y tercersumando respectivamente en la igualdad anterior. Por construccion, tenemos x ∈ E,

y ∈ E ∩ F y z ∈ F. Ademas, como z =−

(y + x) y E es un subespacio, obtenemosz ∈ E ∩ F. Como N es una base de E ∩ F el vector z es combinacion lineal de N, o seaz =

Pi∈N λii para ciertos coeficientes λi. De aqu ı obtenemos que

0 = x + y + z =X

i∈E\N

α ii+Xi∈N

(α i + λi) i

Como E es LI, todos los coeficientes de esta combinacion lineal son cero. En particular,α i = 0 para todo i ∈ E\N y por lo tanto x = 0. Substituyendo x obtenemos

0 = y + z = Xi∈N

α ii+ Xi∈F\N

α ii

y como F es LI deducimos que los restantes coeficientes tambien son cero.

Igualdad modular

Si E y F son dos subespacios entonces,dim E + dim F = dim (E + F) + dim (E ∩ F).

Prueba. Por 2.24 existen bases E y F de E y F tales que E ∪ F es base de E + F y E ∩F

es base de E ∩ F. Luego, la formula se reduce a la conocida igualdad entre cardinalesde conjuntos |E| + |F| = |E ∪ F| + |E ∩ F|.

E jercicio 47 Construya ejemplos de subespa-E F (E + F)

1 1 1

1 1 2

1 2 2

E F (E + F)

1 2 3

2 2 3

2 2 4

cios reales E y F tales que ellos y E + F tienen

as dimensiones definidas en la tabla del recua-dro a la derecha. ¿Puede tener E + F dimensiondiferente a las de la tabla?

Page 61: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 61/232

51Seccion 2.6 Suma de subespacios

Suma directa

Para dos espacios vectoriales E y F (no necesariamente contenidos en otro espa-cio) sobre un mismo campo K definiremos la suma directa de ellos como el espaciovectorial

E ⊕ F = (a , b) | a ∈ E, b ∈ F(a , b) + ¡a 0, b0¢ = ¡a + a 0, b + b0¢λ (a , b) = (λa ,λb)

Observese que como conjunto la suma directa es el producto cartesiano de conjuntos.La diferencia esta en que la suma directa ya trae en su definicion las operaciones desuma de vectores y multiplicacion por un escalar. Deber ıamos probar que la sumadirecta es efectivamente un espacio vectorial, o sea que cumplen todos los axiomas.Nosotros omitiremos esta prueba por ser trivial y aburrida. Mejor nos concentraremos

en algo mas interesante.

dim (E ⊕ F) = dim E + dim F.

Prueba. Sea E0 = (a , 0) | a ∈ E y F0 = (0, b) | b ∈ F. Es claro que los espacios E

y E0 son isomorfos y por lo tanto tienen la misma dimension. Otro tanto ocurre conF y F0. Por definicion de suma de subespacios tenemos que E0 + F0 = E

⊕F . De la

Igualdad modular (2.25) obtenemos dim (E0

+ F0

) = dim E0

+ dim F0

−dim (E

0 ∩ F0

) =dim E + dim F.

Isomorfismo canonico entre la suma y la suma directa.

De esta ultima proposicion y de la igualdad modular se deduce que si dos subespa-cios E y F son tales que E ∩ F = 0 entonces dim (E ⊕ F) = dim (E + F) o sea E ⊕ F essomorfo a E + F. A continuacion probaremos solo un poquito mas. Sin embargo, este

poquito nos llevara a profundas reflexiones.

Isomorfismo Canonico entre la Suma y la Suma directa

Si E y F son subespacios tales que E ∩ F = 0 entonces la funci´ on E ⊕ F 3 (a , b) 7→ a + b ∈ E + F

es un isomor fi smo de espacios vectoriales.

Prueba. Sea f la funcion definida en el enunciado. Tenemosf (λ (a , b)) = f (λa , λb) = λa + λb = λ (a + b) = λf (a , b)

f ((a , b) + ( x, y)) = f (a + x, b + y) = a + x + b + y = f (a , b) + f ( x, y)

por lo que solo queda demostrar que f es biyectiva. Por definicion de suma de subespa-cios f es sobreyectiva. Para probar la inyectividad supongamos que f (a , b) = f ( x, y)

Page 62: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 62/232

52 Cap ıtulo 2. Espacios vectoriales

entonces, a − x = y − b. Como a , x ∈ E entonces a − x ∈ E. Como b, y ∈ F entoncesy − b ∈ F. Luego a − x = y − b ∈ E ∩ F = 0 por lo que a = x y b = y.

Observemos que el isomorfismo (a , b) 7→ a + b no depende de escoger base al-guna en E ⊕ F. Todos los isomorfismos que construimos antes de esta proposicion seconstruyeron escogiendo cierta base en alguno de los espacios. Los isomorfismos que no

dependen de escoger alguna base juegan un papel importante en el algebra lineal y se leslama isomorfismos canonicos. Decimos que dos espacios vectoriales son canonica-

mente isomorfos si existe un isomorfismo canonico entre ellos. As ı por ejemplo todoespacio vectorial E de dimension 3 es isomorfo a K3 pero no es canonicamente isomorfoa K3 porque no se puede construir de cualquier espacio vectorial de dimension 3 unsomorfismo con K3 que no dependa de escoger alguna base. Cuando veamos los pro-

ductos escalares veremos que hay fuertes razones para que diferenciemos las bases. Lossomorfismos no canonicos no necesariamente preservan una u otra propiedad de las

bases. Por otro lado, los isomorfismos canonicos si las preservan. Si por un lado, debehaber cierta resistencia a considerar iguales a dos espacios vectoriales isomorfos por elotro, los espacios canonicamente isomorfos no se diferencian en nada uno del otro, poro que se puede pensar que es el mismo espacio.

E jercicio 481. Demuestre que E ⊕ F y F ⊕ E son canonicamente isomorfos.2. ¿Como se debe llamar esta propiedad de la suma directa de espacios?

3. Demuestre que la suma directa de espacios es asociativa.4. ¿Tiene la suma directa elemento neutro? [189]

Subespacios complementarios

Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacioF es complementario de E en S si S = E ⊕ F. Esta igualdad por el IsomorfismoCanonico entre la Suma y la Suma directa (2.27) lo que quiere decir es que S = E + F

y E ∩ F = 0. En R2 dos rectas por el origen diferentes son complementarias una aotra. En R3 un plano y una recta no contenida en el plano (ambos por el origen) soncomplementarios uno a otro.

Todo subespacio tiene complementario.

Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia

de Bases (2.14) hay una base C de S que contiene a A. Sea F el espacio generado porB = C\A. Como C es generador de S, todo elemento en S es combinacion lineal de C

y en particular todo elemento de S se expresa como a + b con a ∈ E y b ∈ F. LuegoS = E + F.

Page 63: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 63/232

53Seccion 2.6 Suma de subespacios

Por otro lado, si x ∈ E ∩ F entonces, existen combinaciones lineales tales queà x =

Xa ∈A

α a a =Xa ∈B

α a a

!⇒ÃX

a ∈A

α a a −Xa ∈B

α a a = 0

!.

Como C es LI entonces, por la caracterizacion 2.9.4 de los conjuntos LI la ultimacombinacion lineal tiene todos sus coeficientes iguales a cero. Luego, E

∩F = 0.

Si E y F son dos subespacios complementarios entonces cada vector x

se expresa de forma ´ unica como x = a + b donde a ∈ E y b ∈ F.

Prueba. Si E y F son complementarios entonces E +F es todo el espacio y por lo tantotodo vector es de la forma a +b. Si a +b = a 0+b0 entonces a −a 0 = b0

−b ∈ E∩F = 0

por lo que la descomposicion x = a + b es unica.

E jercicio 49 Demuestre el rec ıproco de 2.29: Si cada vector se expresa de forma unicacomo x = a + b con a ∈ E y b ∈ F entonces, E y F son complementarios. [189]

E jercicio 50 Pruebe que E = E1 ⊕ E2 ⊕ · · · ⊕ En si y solo si cualquier vector x ∈ E

se expresa de forma unica como x = x1 + · · · + xn con xi ∈ Ei. Sugerencia: Usar 2.29,el ejercicio anterior y la asociatividad de la suma directa para aplicar induccion en elnumero de sumandos n.

Espacios vectoriales versus conjuntos

Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teor ıade Conjuntos y siempre es saludable establecer analog ıas con resultados ya conocidos.Para acentuar mas esta similitud hagamos un diccionario de traduccion

Conjunto ←→ Espacio vectorialSubconjunto

←→ Subespacio vectorial

Cardinal ←→ DimensionInterseccion de subconjuntos ←→ Interseccion de subespaciosUnion de subconjuntos ←→ Suma de subespaciosUnion disjunta ←→ Suma directaComplemento ←→ Subespacio complementarioBiyecciones ←→ Isomorfismos

Si nos fi jamos atentamente muchos de los resultados que hemos demostrado para es-pacios vectoriales tienen su contraparte valida para conjuntos usando el diccionario quehemos construido. Probablemente, el ejemplo mas notable de esto son las igualdades

modulares para conjuntos y para espacios vectoriales.Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos

a los espacios vectoriales. Por ejemplo, el complemento de un subconjunto es unicoy no siempre hay un unico subespacio complementario. Otro ejemplo, un poco mas

Page 64: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 64/232

54 Cap ıtulo 2. Espacios vectoriales

substancial, es que la interseccion de conjuntos distribuye con la union o sea A ∩B ∪ C) = (A ∩ B) ∪ (A ∩ C) . Por otro lado la interseccion de subespacios en general

no distribuye con la suma o sea, la igualdad A∩(B + C) = (A ∩ B)+(A ∩ C) no siemprees verdadera. Para ver esto tomese en R3 los subespacios A = h(0,0,1) , (1,1,0)i , B =

h(1,0,0)i y C = h(0,1,0)i . Calculamos A∩(B + C) = h(1,1,0)i y (A ∩ B)+(A ∩ C) =

(0,0,0) y vemos que son distintos.

E jercicio 51 Si A y B son dos conjuntos entonces la diferencia simetrica de los mismoses el conjunto A +2 B = (A ∪ B) \ (A ∩ B). Demuestre que todos los subconjuntosfinitos de un conjunto cualquiera U forman un espacio vectorial de dimension |U| sobreel campo Z2 para la suma +2 y el producto 1A = A, 0A = ∅. Vea, que los conceptosde nuestro diccionario de traduccion se aplican a este caso en forma directa.

2.7 Espacios cocientes

Ya vimos que para un subespacio E del espacio F, siempre existen subespacios com-plementarios a el. Sin embargo hay muchos subespacios complementarios y no hay unamanera canonica de escoger alguno de ellos. En esta seccion nos dedicaremos a cons-truir canonicamente el espacio cociente F/E que es el espacio de todos los subespacios

afines paralelos a E y que es isomorfo a cualquier subespacio complementario de E.

Subespacios afines

Ya vimos que en el plano cartesiano R2 los subespacios son el

`

`0

x

R2origen 0, todo R2 y las rectas por el origen. Sin embargo, hay otrasrectas en el plano que no pasan por el origen. Para obtener una deestas rectas lo que tenemos que hacer es trasladar una recta por elorigen ` mediante un vector x (vease la figura). De esta manera,

obtenemos la recta `0 que se obtiene sumandole x a cada vector ena recta `. Observese que si x 6= 0 entonces ` y `0 no se intersectan.

Esto nos motiva a la siguiente definicion. Sea A un conjunto de vectores en un espa-cio vectorial (¡sobre cualquier campo!) y x un vector. Al conjunto A+ x = a + x | a ∈ A

se le llama la traslacion de A con el vector x. Observese que la operacion de trasladares un caso particular (cuando uno de los sumandos contiene a un solo vector) de laoperacion de suma de conjuntos de vectores introducida en la seccion anterior.

Un subespacio afın es el trasladado de un subespacio. En otras palabras, un

conjunto de vectores E es un subespacio af ın si existen un subespacio E y un vectorx tales que E = E + x. Observese que los subespacios son tambien subespacios afines.Basta trasladar con el vector cero. Esto causa una confusion lingu ıstica: el adjetivo“af ın” se usa para hacer el concepto de “subespacio” mas general, no mas espec ıfico.

Page 65: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 65/232

55Seccion 2.7 Espacios cocientes

Por esto, cuando se habla de subespacios afines es comun referirse a los subespacioscomo subespacios vectoriales o como subespacios por el origen.

Las traslaciones de un subespacio cumplen una propiedad muy sencilla pero fun-damental: que es posible trasladar el subespacio vectorial con diferentes vectores yobtener el mismo subespacio af ın. Mas precisamente:

Si a ∈ E + x entonces, E + x = E + a .

E0

E + x = E + a x

a

Prueba. Probemos primero el caso que x = 0. Como a ∈ E y E es un subespacio,tenemos y ∈ E ⇔ y − a ∈ E ⇔ y ∈ E + a . Ahora por el caso general. Sabemos que,z = a − x ∈ E y del primer caso, E = E + z. Luego, E + x = E + z + x = E + a .

E jercicio 52 Pruebe el rec ıproco de 2.30: Si E + x = E + a entonces a ∈ E + x.

Ahora observemos, que un trasladado de un subespacio af ın es a su vez un subespa-cio af ın ya que (E + x)+y = E+( x + y). Dos subespacios afines se le llaman paralelossi uno es un trasladado del otro. La relacion de paralelismo entre subespacios afineses de equivalencia ya que si E = F + x y G = E + y entonces, G = F + ( x + y). Estosignifica que el conjunto de los subespacios afines se parte en clases de paralelismoy dos subespacios son paralelos si y solo si estan en la misma clase de paralelismo.

Ahora veremos que en cada clase de paralelismo hay un solo subespacio af ın quepasa por el origen.

Todo subespacio af´ ı n es paralelo a un solo subespacio vectorial.

Prueba. Si E + x = F + y entonces, E = F + y − x. Como F + y − x contiene al cero

entonces, x−

y ∈ F. Como F es un subespacio, y−

x ∈ F y 2.30 nos da F = F+y−

x.Este resultado nos permite definir la dimension de un subespacio af ın. Cada uno

de ellos es paralelo a un unico subespacio y su dimension es la dimension de esesubespacio. En otras palabras, si E = E + x entonces dim E = dim E. Es comun utilizara terminologıa geometrica para hablar de los subespacios afines de dimension pequena.

Ası, un punto es un subespacio af ın de dimension cero, una recta es un subespacioafın de dimension uno, un plano es un subespacio af ın de dimension dos.

Dos subespacios a fi nes paralelos o son el mismo o no se intersectan.

Prueba. Si y ∈ (E + x) ∩ (E + x0) entonces, por 2.30, E + x = E + y = E + x0.

Page 66: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 66/232

56 Cap ıtulo 2. Espacios vectoriales

Es un error comun (debido al caso de rectas R2) pensar que es equivalenteque dos subespacios afines sean paralelos a que estos no se intersecten. Paraconvencerse de que esto no es cierto, el lector debe pensar en dos rectas nocoplanares en R3.

El espacio cociente

Sea D un espacio vectorial y E un subespacio vectorial de D.

0

x + x0

y + y0

R2

x

y

x0

y0

Si E = E + x y F = E + y son dos subespacios afines paralelosentonces E + F = (E + x) + (E + y) = (E + E) + ( x + y) =

E + ( x + y) lo que muestra que E + F esta en la misma clase deparalelismo que E y F. En otras palabras (vease la figura a laderecha) la suma de cualquier vector en E con cualquier otro enF esta en un mismo espacio paralelo a E y F.

Denotemos por D/E al conjunto de todos los subespacios afines de D paralelosa E. La observacion anterior nos dice que la suma de subespacios afines es unaoperacion en D/E. Esta suma es asociativa y conmutativa debido a que la suma devectores cumple estas propiedades. El subespacio E es el neutro para esta operacion yel opuesto de E + x es E − x. Luego, D/E es un grupo abeliano para la suma y paraconvertirlo en un espacio vectorial solo nos falta el producto por escalares..

Sea A un conjunto arbitrario de vectores y λ un escalar. Defini-λA = λa | a ∈ A

remos al conjunto λA como en el recuadro a la izquierda.

Sean E = E+ x un subespacio af ın paralelo a E y λ un escalar. Tenemos

0

2 x

2y

R2

x

y

λE = λ (E + x) = λE + λ x = E + λ x lo que muestra que λE esta en lamisma clase de paralelismo que E. En otras palabras (vease la figura a laderecha) el producto de un escalar por todos los vectores en E resulta enespacio paralelo a E. Este producto convierte a D/E en un espacio vectorial llamadoespacio cociente de D por E.

E jercicio 53 Pruebe los axiomas de espacio vectorial para el espacio cociente.

E jercicio 54 ¿Cual es el espacio cociente de R3 por el plano xy?

E jercicio 55 ¿Que pasa si sumamos dos espacios afines no paralelos? [190]

El isomorfismo con los complementarios

Sea F un subespacio complementario a E.

Entonces, cualquier subespacio af´ ı n paraleloa E intersecta a F en un y solo un vector. F E

R2

Prueba. Sea E = E + x cualquier subespacio af ın paralelo a E. Como D = E ⊕ F

Page 67: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 67/232

57Seccion 2.8 El espacio afın

existen unos unicos vectores y ∈ E y z ∈ F tales que x = y + z. Luego por 2.30E + x = E + y + z = E + z y por lo tanto z ∈ E + x o sea, z ∈ E ∩ F. Si z0 es otrovector en E ∩ F entonces, existe a ∈ E tal que z0 = a + x. De aqu ı x = −a + z0 ypor la unicidad de la descomposicion de un vector en suma de vectores de espacioscomplementarios, y = −a y z = z0.

Sea F un subespacio complementario a E. Entonces,f : F 3 x 7→ (E + x) ∈ D/E

es un isomor fi smo de espacios vectoriales.

Prueba. Por 2.33 la aplicacion f : F 3 x 7→ (E + x) ∈ D/E tiene inversa (que a cadaE + x ∈ D/E le hace corresponder el unico vector en (E + x)∩F). Luego, f es biyectiva.Ademas, f ( x + y) = E + ( x + y) = (E + x) + (E + y) = f ( x) + f (y)

f (λ x) = E + (λ x) = λ (E + x) = λf ( x)

por lo que f es un isomorfismo.

Este isomorfismo es canonico. Luego, cualquier subespacio complementario a E escanonicamente isomorfo a D/E. Esta proposicion tambien nos dice que la dimensionde D/E es la misma que la de un complementario a E o sea, es dim D − dim E.

Es posible (gracias al isomorfismo con los complementarios) desarrollar toda el algebralineal sin la introduccion de los espacios cocientes. Si embargo, es mas comodo hacerlo

con ellos. Ademas es importante que el lector se familiarize con el concepto, ya que, en elestudio de estructuras algebraicas mas generales, no siempre existen estructuras “complementarias”por ejemplo en la teor ıa de grupos). Por otro lado, las estructuras cocientes si se pueden construir.

Por ejemplo, todo grupo tiene un cociente por cualquier subgrupo normal.

2.8 El espacio afın

Recordemos de la seccion anterior que un subespacio af ın del espacio vectorial F

es el trasladado E + x de un subespacio vectorial E de F. La dimension de E + x espor definicion la dimension de E.

Los subespacios afines de dimension pequena reciben nombres especiales segun latradicion geometrica. Los de dimension 0 se le llaman puntos. Los de dimension 1 see llaman rectas y los de dimension 2 se le llaman planos.

Un punto es, en otras palabras, un subespacio af ın E + x donde E es de dimensioncero. Pero el unico subespacio vectorial de dimension cero es 0 . Luego, un punto esun conjunto de la forma 0 + x = x. Esto nos da una biyeccion obvia x 7

→ x entre

os puntos del espacio af ın y los vectores del espacio vectorial.Al conjunto de todos los puntos del espacio vectorial F se le llama el espacio af ın

de F. Pero como, dira el lector, si la diferencia entre x y x es puramente formalentonces, ¿cual es la diferencia entre el espacio af ın y el espacio vectorial? La respuesta

Page 68: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 68/232

58 Cap ıtulo 2. Espacios vectoriales

es ambivalente pues es la misma pregunta que ¿que diferencia hay entre geometr ıa yalgebra? Antes de Descartes eran dos cosas completamente distintas, despues de el, soncosas muy parecidas.

Intuitivamente, un espacio af ın es lo mismo que el espacio vectorial pero sin origen.El espacio afin de R2 es el plano de Euclides en el que estudiamos la geometr ıa mas

clasica y elemental: congruencia de triangulos, teorema de Pitagoras, etc. Los resultadosde esta geometr ıa no dependen de cual es el origen de coordenadas. Dos tri angulos soncongruentes o no independientemente de en que lugar del plano se encuentran.

A un nivel mas alto, podemos pensar el espacio af ın de un espacio vectorial como unaestructura matematica adecuada para poder estudiar las propiedades de los espaciosvectoriales que son invariantes por traslaciones, o sea, que no cambian al mover unobjeto de un lugar a otro en el espacio.

La regla del paralelogramo

La conocida regla del paralelogramo para la suma de vectores en el plano R2 segeneraliza a todas las dimensiones y sobre cualquier campo.

Postularemos que el conjunto vac ıo es un subespacio af ın de dimension −1. Eso nosevitara muchos problemas en la formulacion de nuestros resultados.

La intersecci´ on de subespacios a fi nes es un subespacio af´ ı n.

Prueba. Sea x un punto en la interseccion. Cada uno de los subespacios afines, esE + x para cierto subespacio E del espacio vectorial. Si F es la interseccion de todosestos subespacios entonces F + x es la interseccion de los subespacios afines.

Regla del paralelogramo

Si a y b son vectores LI de un espacio vectorial entonces, a + b

es la intersecci´ on de los subespacios a fi nes ha i + b y hbi + a .

Prueba. Obviamente a + b ∈ (ha i + b) ∩ (hbi + a ). Por otro lado, ambos ha i + b yhbi + a tienen dimension 1 y por lo tanto su interseccion tiene dimension 0 o 1. Si estadimension es cero entonces terminamos. Si esta dimension es uno entonces ha i + b =

hbi + a y por lo tanto a ∈ ha i + b. Por 2.30 tenemos que ha i + b = ha i + a = ha i,Por lo tanto b ∈ ha i y esto contradice que a , b es LI.

Cerradura af ın

Para un conjunto A de puntos en el espacio af ın, la cerradura afın de A es lanterseccion de todos los subespacios afines que contienen a A. A la cerradura af ın de

A la denotaremos por [A ]. Esto la diferencia claramente de la cerradura lineal hAi.Para la cerradura afin, tenemos las mismas propiedades que para la cerradura lineal.

Page 69: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 69/232

59Seccion 2.8 El espacio afın

[A ] es el subespacio a fi n m´ as peque˜ no que contiene a A.

Prueba. [A ] es un subespacio afin. Si B es un subespacio af ın que contiene a A

entonces [A ] ⊆ B pues para hallar [A ] tuvimos que intersectar con B.

La cerradura af´ ı n cumple las siguientes propiedades:

1. A ⊆ [A ] (incremento)

2. A ⊆ B ⇒ [A ] ⊆ [B ] (monoton´ ı a)

3. [[A ]] = [A ] (idempotencia).

Prueba. Es exactamente la misma que para el caso de la cerradura lineal.

Generadores e independencia

Un conjunto de puntos A es generador afın si [A ] es todo el espacio af ın. Losconjuntos afinmente independientes los definiremos con el siguiente resultado.

Definicion de conjuntos afinmente independientes

Sea A un conjunto de puntos. Las siguientes a fi rmaciones son equivalentes

1. Cualquier subconjunto propio de A genera un subespacio af´ ı n m´ as pe-que˜ no que todo A.

2. Cualquier punto en A no est´ a en la cerradura af´ ı n de los restantes.

Prueba. Es analoga a la prueba (1 ⇔ 2) de la caracterizacion de conjuntos LI.

Los conjuntos de puntos que no son afinmente independientes los llamaremos afin-mente dependientes.

Nuevamente para evitarnos largas oraciones, a los conjuntos afinmenteindependientes los llamaremos conjuntos AI y a los conjuntos afinmentedependientes los llamaremos conjuntos AD.

Todo sobreconjunto de un generador a fi n es un generador a fi n.Todo subconjunto de un conjunto AI es AI.

Prueba. Sea A un generador af´ın y B ⊇ A. Tenemos [A ] ⊆ [B ] y como [A ] es todo elespacio afin entonces [B ] tambien lo es.

Sea A que es AI y B ⊆ A. Si B fuera AD entonces existir ıa b ∈ B tal que b ∈B\b ] ⊆ [A\b ] y esto no puede ser pues A es AI.

Page 70: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 70/232

60 Cap ıtulo 2. Espacios vectoriales

Bases afines

Una base afin es un conjunto de puntos que es AI y generador afin. Ahora podria-mos seguir por el mismo camino demostrando que las bases afines son los generadoresafines mas pequenos o los AI mas grandes. Despues, el teorema de existencia de base,el lema del cambio para las bases afines, la prueba de que dos bases afines tienen el

mismo cardinal, etc.Este camino aunque se puede realizar, sin embargo, tiene dos desventajas. La pri-

mera es que aun no hemos definido combinaciones afines y estas se necesitan paraprobar todo esto. La segunda, y mas obvia, es que todo esto es muy largo. Por suerte,hay una sencilla relacion que enlaza las bases afines con las bases del espacio vectorialy esto nos ahorrara mucho trabajo.

Sea A = x0, x1, . . . , xn un conjunto de puntos. De fi na-mos A0 = x1 − x0, . . . , xn − x0. Entonces, A es una ba-se af ı n si y solo si A0 es una base del espacio vectorial.

Prueba. Veamos que [A ] = hA0i + x0. Efectivamente, hA0i + x0 es un subespacioafın que contiene a A y por lo tanto [A ] ⊆ hA0i + x0. Por otro lado [A ] − x0 es unsubespacio por el origen que contiene a A0 y por lo tanto [A ] − x0 ⊇ hA0i.

De aqu ı inmediatamente obtenemos que A es generador af ın si y solo si A0 es un

generador. Luego, podemos suponer por el resto de la prueba que tanto A como A0son generadores. Nos queda probar que A es AI si y solo si A0 es LI.

Supongamos que A0 es LD. Sea B0 una base lineal tal que B0 ⊂ A0. Como alprincipio de la prueba B = x0 ∪ (B0 + x0) es un generador af ın del espacio. ComoB0 6= A0 entonces, B 6= A y por lo tanto A es AD.

Supongamos que A es AD. Entonces, hay un subconjunto propio B de A que generaal espacio. Sea y ∈ B Como al principio de la prueba B0 = xi − y | xi ∈ B \ y esun generador lineal del espacio. Luego la dimension del espacio es estrictamente menor

que n y por lo tanto A0 no puede ser LI.Ahora podemos traspasar todos los resultados probados para las bases del espacio

vectorial a las bases afines. En particular, es cierto que:

1. Las bases afines son los conjuntos generadores afines minimales por inclusion.

2. Las bases afines son los conjuntos AI maximales por inclusion.

3. Si A es un conjunto AI y B es un conjunto generador af ın tal que A ⊆ B entonceshay una base af ın C tal que A ⊆ C ⊆ B.

4. Dos bases afi

nes cualesquiera tienen el mismo numero de puntos (uno mas quela dimension).

Las demostraciones de estos resultados son obvias dada la correspondencia entreas bases afines y las bases del espacio vectorial.

Page 71: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 71/232

61Seccion 2.9 El caso de dimension infinita

E jercicio 56 Formule el lema del cambio para las bases afines.

El siguiente resultado es el analogo del lema Lema de Aumento de un Conjunto LI(2.11) para el caso af ın y es consecuencia directa de la correspondencia entre las basesafines y las bases del espacio vectorial.

Si A es un conjunto AI entonces A ∪ b es AD si y solo si b ∈ [A ].

2.9 El caso de dimension infinita

En la Seccion 2.4 enunciamos el Teorema de Existencia de Bases (2.14) y la Equi-cardinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espaciotiene dimension finita. En esta seccion demostramos estos resultados para los casosfaltantes. Porque siempre aparece un curioso que quiere saber.

Como estas demostraciones dependen de resultados de Teor ıa de Conjuntos y unaexposicion de esta nos llevar ıa a escribir otro libro, lo haremos todo en forma mini-malista: Antes de cada una de las dos pruebas daremos las definiciones y resultados

exclusivamente que necesitamos. Los resultados complicados de Teor ıa de Conjuntosno los demostraremos.

El Lema de Zorn

Un conjunto ordenado es un conjunto con una relacion de orden, o sea unarelacion reflexiva antisimetrica y transitiva (vease el glosario). Sea P un conjunto or-denado y A un subconjunto de P. Diremos que x ∈ P es una cota superior de A si

para cualquier y ∈ A se cumple que y ≤ x. Diremos que x ∈ A es elemento maximalde A si para cualquier y ∈ A se cumple que x - y. Se dice que A es una cadena sipara cualesquiera x, y ∈ A se cumple que x ≤ y o que y ≤ x. Diremos que A estanductivamente ordenado si A 6= ∅ y cualquier cadena contenida en A tiene una

cota superior que est´ a en A. El siguiente resultado es clasico en teor ıa de conjuntos.

Lema de Zorn

Cualquier conjunto inductivamente ordenado tiene un elemento maximal .

Page 72: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 72/232

62 Cap ıtulo 2. Espacios vectoriales

Existencia de bases

Teorema de Existencia de Bases (caso general)

Sea N un conjunto generador y L ⊆ N un conjunto

LI. Entonces, existe una base M tal que L ⊆ M ⊆ N.

Prueba. Sean L y N como en las hipotesis. Denotemos

T = M | M es linealmente independiente y L ⊆ M ⊆ N .

El conjunto T esta naturalmente ordenado por inclusion. Sea M un elemento maximalde T . Entonces ∀ x ∈ N\M M ∪ x es dependiente y por el Lema de Aumento de unConjunto LI (2.11) tenemos N ⊆ hMi. Como N es generador, esto significa que M

tambien lo es y por lo tanto M es una base.

Nuestra tarea es encontrar un elemento maximal de T . Probemos que el conjunto T esta inductivamente ordenado. Efectivamente, T es no vac ıo ya que L ∈ T . Sea Bii∈I

una cadena arbitraria en T y denotemos B =S

i∈I Bi. El conjunto B es una cota superiorde la cadena Bii∈I y tenemos que convencernos que B esta en T . Como para cualquieri tenemos Bi ⊆ N entonces, B ⊆ N. Supongamos que B es linealmente dependiente.Entonces, existe un subconjunto finito B0 de B y una combinacion lineal de B0 iguala cero tal que todos sus coeficientes son no cero, o sea B0 es linealmente dependiente.Como B0 es finito, y Bii

∈I es una cadena entonces, tiene que existir i0 tal que B0

⊆Bi0

y esto contradice que todo subconjunto de un conjunto linealmente independiente esinealmente independiente. Luego, T esta inductivamente ordenado y por el Lema de

Zorn (2.43) el conjunto T tiene un elemento maximal.

Cardinales

Dados dos conjuntos A y B denotaremos |A| ≤ |B| si existe una inyeccion de A enB. La relacion A ∼ B definida como |A| ≤ |B| y |B| ≤ |A| es una relacion de equivalencia

entre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se lelama cardinal del conjunto A y se denota por |A|. Los cardinales estan ordenados pora relacion de orden que ya definimos. Los cardinales pueden ser finitos o infinitos. El

cardinal infinito mas pequeno es ℵ0 que es el cardinal de los naturales (ℵ es la primeraetra del alfabeto hebreo y se llama “alef”). La suma de cardinales se define como el

cardinal de la union de dos conjuntos disjuntos. El producto de cardinales se definecomo el cardinal del producto cartesiano de conjuntos.

Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es

muy sencillo y daremos una demostracion para el.

Si ∀i |Ai| ≤ t entonces, P

i∈I |Ai| ≤ t |I|.

Page 73: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 73/232

63Seccion 2.9 El caso de dimension infinita

Prueba. Podemos pensar que los Ai son disjuntos. Sea T un conjunto de cardinal t.Por hipotesis existen inyecciones fi : Ai 7→ T . Sea ϕ :

Si∈I Ai → T × I definida por

ϕ (a) = (fi (a) , i) si a ∈ Ai. Por definicion de ϕ si ϕ (a) = ϕ (b) entonces, a y b estanen el mismo conjunto Ai, fi (a) = fi (b) y por lo tanto a = b. Luego, ϕ es inyectiva.

El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en laTeor ıa de Conjuntos (vease por ejemplo: Kamke E., Theory of sets . Dover, New York,1950. pagina 121). Nosotros omitiremos la prueba.

Si |A| es in fi nito entonces, ℵ0 |A| = |A|.

Equicardinalidad de las bases

Equicardinalidad de las Bases (caso infinito)

Dos bases cualesquiera tienen el mismo cardinal.

Prueba. Sean A y B dos bases. Ya probamos el caso en que una de las dos bases esfinita. Luego, podemos suponer que A y B son infinitos. Como B es una base y debidoa la finitud de las combinaciones lineales entonces

∀a

∈ A el m ınimo subconjunto

Ba ⊆ B tal que a ∈ hBa i existe y es finito.Construyamos la relacion R ⊆ A × B de manera que (a , b) ∈ R si y solo si b ∈ Ba .

Tenemos |B| ≤ |R| ya que si hubiera un b0 ∈ B no relacionado con ningun elemento deA entonces, A ⊆ hB\b0i y como A es base obtendr ıamos que B\b0 es generador lo quecontradice que B es base.

Por otro lado, como |A| es infinito y |Ba

| es finito entonces, usando 2.45 y 2.46obtenemos

|B|

≤|R| = Xa ∈A

|Ba

|

≤ℵ0 |A| = |A| .

Luego |B| ≤ |A| y por simetr ıa de nuestros razonamientos |A| ≤ |B|.

Page 74: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 74/232

64

Page 75: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 75/232

Transformaciones Lineales Transformaciones

Lineales

apítulo tercero

as transformaciones lineales son uno de los objetos mas estudiados y mas impor-tantes en las matematicas. El objetivo de este cap ıtulo es familiarizar al lectorcon el concepto de transformacion lineal y sus propiedades basicas. Introduci-

remos las matrices y estudiaremos la relacion de las mismas con las transformacionesineales. Veremos los conceptos de nucleo e imagen de una transformacion lineal y como

estos se usan para reducir el estudio de las transformaciones lineales al estudio de lastransformaciones lineales biyectivas.

3.1 Definicion y ejemplos

Sean E y F dos espacios vectoriales sobre K. Una fun-f (a + b) = f (a ) + f (b)

f (λa ) = λf (a )cion f : E → F se le llama transformacion lineal de E enF si para cualesquiera vectores a y b y cualquier escalar λ

se cumplen las propiedades del recuadro a la derecha.

Nuevamente, para no reescribir constantemente frases largas, en lugar de

decir que f es una transformacion lineal, diremos que f es una TL. Enplural escribiremos TLs.

Imagenes de subespacios

Toda TL transforma subespacios en subespacios.

Prueba. Sea f : E → F una TL y E0 un subespacio de E. Denotemos F0 = f (E0) lamagen de E0. Sean a y b vectores en F0. Existen vectores x,y tales que f ( x) = a y

f (y) = b. Tenemos, f ( x + y) = a + b por lo que a + b ∈ F0. Sea ahora λ un escalar.Tenemos f (λ x) = λa por lo que λa ∈ F0. Luego, F0 es un subespacio de F.

Page 76: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 76/232

66 Cap ıtulo 3. Transformaciones lineales

Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI nitampoco conjuntos generadores en conjuntos generadores.

Homotecias

Veamos el ejemplo mas simple de TL. Si a cada vector x de un espacio E le hacemoscorresponder el vector 2 x obtenemos la funcion h 2 : E 3 x 7→ 2x ∈ E . Esta funcion esuna TL ya que h 2 (a + b) = 2 (a + b) = 2a + 2b = h 2 (a ) + h 2 (b)

h 2 (λa ) = 2λa = λ2a = λh 2 (a )

Observese que en el segundo renglon se usa la conmutatividad del producto de escalares.

Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar α ∈ Kobteniendo la TL h α : E 3 x 7→ α x ∈ E. A las funciones h α se les llama homotecias.

Hay dos casos particulares de homotecias especialmente importantes. Si α = 1

entonces obtenemos la funcion identidad x 7→ x. A esta funcion se la denotara por I.Si α = 0 entonces obtenemos la funcion nula x 7→ 0 que se denotara por O.

En el caso del campo R las homotecias tienen una interpretacion geometrica muyclara. Si α > 0 entonces cada punto x ∈ Rn se transforma en el punto α x que esta ena misma recta por el origen que x pero a una distancia del origen α veces mayor que

x. Esto quiere decir que h α es la dilatacion de razon α . Si 0 < α < 1 entonces h α esuna contraccion de razon 1/α .

En la figura de la derecha observamos la dilatacion x 7

→2 x en el

R2

v 7→ 2 v

plano cartesiano R2. La curva interior (que es la grafica de la fun-cion 5 + sin 5θ en coordenadas polares) se transforma en la mismacurva pero del doble de tamano (10 + 2 sin 5θ).

Si α = −1 entonces a la homotecia h −1 : x 7→ − x se le llama

funcion antipodal. El nombre viene de la siguiente interpretacion.Si trazamos una recta que pase por el centro de la Tierra intersec-taremos la superficie en dos puntos. Estos puntos se dicen que son ant ıpodas o sea,nuestros ant ıpodas son la personas que viven “pies arriba” del “otro lado” de la Tierra.

Si coordinatizamos la Tierra con unos ejes de coordenadas con origen en el centro dea misma, nuestros ant ıpodas se obtienen multiplicando por −1.

En la figura de la izquierda esta representada la funcion ant ıpodal

R2

v 7→−

v

en R2. En ella hay dos curvas cerradas de cinco petalos. La primeraes la misma que la de la figura anterior (10 + 2 sin 5θ). La segundaes la ant ıpoda de la primera (−10 − 2 sin 5θ). La figura es expresa-mente complicada para que el lector tenga la oportunidad de pensarun poco en que punto se va a transformar cada punto. Cualquier

homotecia h α con α < 0 se puede representar como h −1 (h −α ) poro que h α se puede interpretar como una dilatacion seguida de la funcion ant ıpodal. A

pesar de su simplicidad las homotecias juegan un papel fundamental en la comprensionde las TL y este papel se debe a que ellas son todas las TL en dimensi on 1.

Page 77: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 77/232

67Seccion 3.1 Definicion y ejemplos

Si dim E = 1 entonces toda TL de E en E es una homotecia.

Prueba. Sea a una base de E y f una TL de E en E. Como a es una base tieneque existir un escalar λ ∈ K tal que f (a ) = λa . Sea x = α a un vector arbitrario enE . Como f es lineal tenemos f ( x) = f (α a ) = α f (a ) = αλa = λα a = λ x lo que

demuestra que f es una homotecia.

Inmersiones

Hasta ahora las TL que hemos visto (las homotecias) estan definidas de un espacioen si mismo. Las inmersiones son la TL mas simples que estan definidas de un espacioen otro distinto. Sea E un subespacio de F. A la funcion i : E 3 x 7→ x ∈ F se lelama inmersion de E en F. Las inmersiones son TLs inyectivas y son las restriciones

a subespacios de la funcion identidad. No hay mucho que decir de las inmersiones

excepto de que hay una para cada subespacio.

Proyecciones

Ahora supongamos al reves (de las inmersiones) que F es subespacio de E . ¿Ha-bra alguna TL natural de E en F? Lo que podemos hacer es buscarnos un espacio G

complementario de F (existe por 2.28) De esta manera E = F ⊕ G y por 2.29 tenemosque cada vector x ∈ E se descompone de manera unica como a + b donde a es unvector en F y b es un vector en G . As ı para cada x

∈ E tenemos un unico a

∈ F y

esto nos da una funcion que denotaremos por π F y la llamaremos proyeccion de E enF a lo largo de G . Cualquier proyeccion π F restringida a F es la identidad por lo quenecesariamente es sobreyectiva.

La notacion π F sugiere erroneamente que esta funcion solo depende del subes-pacio F . Esto no es cierto, cualquier subespacio F tiene muchos subespacioscomplementarios diferentes y la proyeccion depende del subespacio comple-mentario que escojamos.

Las proyecciones son transformaciones lineales.

Prueba. Escojamos un subespacio G complementario de F . De esta manera π F esuna funcion fi ja y bien definida.

Si x, y son dos vectores entonces hay descomposiciones unicas x = π F ( x) + π G ( x)

y y = π F (y) + π G (y) . Luego x + y = (π F ( x) + π F (y)) + (π G ( x) + π G (y)) . Elprimer sumando de la derecha esta en F y el segundo en G . Por la unicidad de la

descomposicion necesariamente tenemos π F ( x + y) = π F ( x) + π F (y) .Sea ahora λ ∈ K. Tenemos λ x = λπ F ( x)+λπ G ( x) . Nuevamente, el primer sumando

de la derecha esta en F y el segundo en G y por la unicidad de la descomposicionnecesariamente tenemos π F (λ x) = λπ F ( x) .

Page 78: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 78/232

68 Cap ıtulo 3. Transformaciones lineales

¿Como son geometricamente las proyecciones? En esencia el problema es el siguien-te. Dados dos espacios complementarios F , G y un vector a como hallar un vector enF y otro en G que sumados den a . Esto ya lo hicimos una vez cuando introducimosas coordenadas cartesianas en R2. Dado un vector a trazamos la recta paralela al eje

y que pasa por a y la interseccion del eje x con esta recta es un vector π x (a ) . De

manera analoga obtenemos π y (a ) y sabemos que a = π x (a ) + π y (a ).En el caso general es exactamente igual. Esta cons-truccion se ilustra en la figura de la derecha. Tenemosque F es un subespacio de dimension k y uno de suscomplementarios G es de dimension n − k . Hay un solosubespacio af ın paralelo a F que pasa por a y este esF + a . La interseccion (F + a ) ∩ G es un solo punto yeste punto es el vector π G (a ) . Analogamente se observa

que π

F (a ) = (G + a )

∩F

. Como es logico, no pudimosdibujar el espacio Rn ası que el lector debera contentarsecon el caso n = 3, k = 2 y con la prueba general.

Si F y G son complementarios entonces, para cualquier vector a se cumple a = ((G + a ) ∩ F) + ((F + a ) ∩ G).

Prueba. Como F y G son complementarios (G + a )

∩F es un solo punto que deno-

taremos x. Sea y ∈ G tal que a = x + y. Tenemos que F + a = F + x + y = F + y ypor lo tanto y ∈ (F + a ) . Luego y = (F + a ) ∩ G.

3.2 Operaciones entre transformaciones lineales

Ahora, veremos que operaciones se definen naturalmente entre las TLs.

El espacio vectorial de las transformaciones linealesSea f una TL y λ un escalar. Denotaremos por λf a la funcion a 7→ λf (a ). A esta

operacion se le llama producto de un escalar por una TL.

El producto de un escalar por una TL es una TL.

Prueba. Efectivamente, tenemos

(λf) (a + b) = λf (a + b) = λ (f (a ) + f (b)) = (λf) (a ) + (λf) (b)(λf) (α a ) = λf (α a ) = λα f (a ) = αλf (a ) = α (λf) (a )

o que significa que λf es una TL.

Sean ahora f y g dos transformaciones lineales. Denotaremos por f + g a la funcion

Page 79: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 79/232

69Seccion 3.2 Operaciones entre transformaciones lineales

a 7→ f (a ) + g (a ). A esta operacion se le llama suma de TLs.

La suma de dos TLs es una TL.

Prueba. Denotemos h = f + g. Tenemos

h (α a ) = f (α a ) + g (α a ) = α (f (a ) + g (a )) = α h (a )h (a + b) = f (a + b) + g (a + b) = f (a ) + g (a ) + f (b) + g (b) = h (a ) + h (b)

o que significa que h es una TL.

Luego, podemos sumar transformaciones lineales y multiplicarlas por escalares. Losaxiomas de espacio vectorial se comprueban de manera muy simple usando las defini-ciones. Por ejemplo, la prueba de la distributividad del producto por escalares con res-pecto a la suma es la siguiente: (λ (f + g)) (a ) = λ (f (a ) + g (a )) = λf (a ) + λg (a ) =

λf + λg) (a ). Al espacio vectorial de todas las TLs del espacio

E en el espacio

F lo de-notaremos por Mor (E, F). Esta notacion es debido que a las transformaciones lineales

tambien se les llama morfismos de espacios vectoriales. Debido a todo lo dicho esvalido el siguiente resultado:

Mor (E, F) es un espacio vectorial.

Composicion de transformaciones lineales

Sean f ∈ Mor (E, F) y g ∈ Mor (F, G) dos TLs. La composicion h = g f se definecomo la funcion E 3 a 7→ g (f (a )) ∈ G. Demostremos que h = g f ∈ Mor (E, G) osea, que h es una TL.

La composici´ on de TLs es una TL.

Prueba. Sea h = g f la composicion de dos TLs. Tenemosh (a + b) = g (f (a + b)) = g (f (a ) + f (b)) = g (f (a )) + g (f (b)) = h (a ) + h (b)

h (α a ) = g (f (α a )) = g (α f (a )) = α g (f (a )) = α h (a )

que es lo que se quer ıa demostrar.

La composici´ on de TLs cumple las siguientes propiedades:1. f

(g

h ) = (f

g)

h (asociatividad)

2. f (g + h ) = f g + f h (distributividad a la izquierda)3. (f + g) h = f h + g h (distributividad a la derecha)4. f λg = λf g = λ (f g) (conmuta con el producto por escalares)

Page 80: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 80/232

70 Cap ıtulo 3. Transformaciones lineales

Prueba. Ya vimos en el Capıtulo 1 que la composicion es asociativa. Con(f (g + h )) (a ) = f ((g + h ) (a )) = f (g (a ) + h (a )) =

= f (g (a )) + f (h (a )) = (f g) (a ) + (f h ) (a ) = ((f g) + (f h )) (a )

probamos la distributividad a la izquierda. Para la distributividad a la derecha usamos((f + g) h ) (a ) = (f + g) (h (a )) = f (h (a )) + g (h (a )) =

= (f h ) (a ) + (g h ) (a ) = ((f h ) + (g h )) (a )Finalmente, probamos que la composicion conmuta con el producto por escalares con(f λg) (a ) = f (λg (a )) = λf (g (a )) = (λ (f g)) (a ) =

= λf (g (a )) = (λf) (g (a )) = (λf g) (a ) .

El lector debe ya debe poder encontrar por si mismo el porque de la validez de cadauna de las igualdades utilizadas en esta prueba.

El algebra de operadores lineales

A una TL de un espacio vectorial en si mismo se le llama operador lineal. Nue-vamente, usaremos la abreviatura OL para referirnos a los operadores lineales. LosOLs juegan (como veremos mas adelante) un papel muy importante en el estudio deas TLs y por esto es que merecen un nombre especial. El conjunto de todos los OLs

de E se denotara por End E. Lo hacemos as ı porque a los OLs tambien se les llamaendomorfismos de un espacio vectorial. Por definicion tenemos End E = Mor (E, E).La principal diferencia entre las TLs y los OLs es que la operacion de composiciones una operacion interna en espacio vectorial End E. O sea, si componemos dos OLs,

obtenemos otro OL.Si un espacio vectorial cualquie-Alg1) ∗ es asociativaAlg2) ∗ es distributiva con respecto a +

Alg3) ∗ tiene elemento neutroAlg4) ∗ conmuta con el producto por escalares

ra (el cual ya trae definidos la su-ma y el producto por escalares) tieneotra operacion binaria ∗ que cumpleos axiomas en el recuadro a la de-

recha entonces, se le llama algebra . Observese que los primeros tres axiomas lospodemos resumir en uno: la suma de vectores y ∗ definen un anillo en el espacio vecto-

rial. El cuarto axioma lo que quiere decir es que para cualquier escalar λ y cualesquieravectores a y b se cumple que λa ∗ b = a ∗ λb = λ (a ∗ b).Ya vimos (3.9 ) que la operacion de composicion de OLs cumple los axiomas Alg1,

Alg2 y Alg4. Para ver que End E es un algebra solo nos queda comprobar que lacomposicion tiene elemento neutro. Pero esto es obvio ya que la funcion identidadcumple que f I = If = f. O sea, es el neutro para la composicion. Hemos demostradoel siguiente resultado

El espacio vectorial End E en un ´ algebra con respecto a la composicion.

Hay otras dos algebras importantes que deben ser muy conocidas por el lector. Pri-mero, el conjunto de los polinomios con coeficientes reales R [x ] es un espacio vectorial

Page 81: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 81/232

71Seccion 3.3 Extensiones lineales

sobre R, pero ademas sabemos multiplicar polinomios. Este producto cumple todosos axiomas de Alg1-Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier

campo. El segundo ejemplo son los numeros complejos. Estos son un espacio vectorialde dimension dos sobre los reales pero ademas sabemos multiplicar numeros complejos.La multiplicacion de complejos tambien cumple todos los axiomas Alg1-Alg4.

Un algebra se le llama conmutativa si el producto de vectores es con-mutativo. El algebra de los numeros complejos y el algebra de polinomiossobre un campo son conmutativas. Las algebras End E casi nunca son con-

mutativas (salvo en dimension 1). Por ejemplo en el plano cartesiano R2 la rotacionf en 45 y la refleccion g en el eje y son (como veremos despues) OLs. Sin embargo,

g f) (1, 0) = 1√ 2

(−1, 1) 6= 1√ 2 (−1,−1) = (f g) (1, 0).

Un algebra con division es un algebra en la cual todo vector tiene inverso multiplicativo.

El Teorema de Frobenius (demostrado en 1877) afirma que las algebras con division dedimension finita sobre los reales son R, C y H (los cuaterniones), no hay mas.

El grupo general lineal

Una funcion cualquiera es biyectiva si y solo si esta tiene inversa. En el cap ıtuloanterior, cuando vimos los isomorfismos de espacios vectoriales, demostramos que si unaTL tiene inversa entonces esta inversa tambien es una TL. En particular, la funcionnversa de un OL es un operador lineal. Un operador lineal se le llama singular si

este no tiene inverso. En el caso contrario se le llama no singular. A los OLs nosingulares tambien se les llama automorfismos del espacio vectorial. En otras palabrasos automorfismos son los endomorfismos biyectivos.

Al conjunto de todos los OLs no singulares del espacio vectorial E se le denotapor GL (E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, lafuncion nula cumple que 0 = f−f. Sin embargo, la composicion de OLs no singulares essiempre un OL no singular. Luego, la composicion es una operacion binaria en GL (E)

que ya sabemos que es asociativa y tiene elemento neutro. Ademas, cada elemento tienenverso ya que f f−1 = f−

1 f = I. Luego, GL (E) es un grupo para la composicion alcual se llama grupo general lineal del espacio vectorial E.

3.3 Extensiones lineales

Estudiaremos en esta seccion una manera universal de construir TLs. Pero antes,

veamos algunas consideraciones de tipo general acerca de funciones entre conjuntosarbitrarios.

Page 82: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 82/232

72 Cap ıtulo 3. Transformaciones lineales

Extensiones y restricciones

Sean A y B dos conjuntos y A0 un subconjunto de A. Cada vez que se tiene unafuncion f : A → B tambien se tiene una funcion f0 : A0 → B definida por f0 (a) =

f (a) para cualquier a ∈ A0. A la funcion f0 se le llama restriccion de f a A0 ya denotaremos por fA0. Todas las diferentes restricciones de f se obtienen al tomar

diferentes subconjuntos A0. Las inmersiones son las restricciones de la identidad.Si h y g son dos funciones tales que h es una restriccion de g entonces se dice que g

es una extension de h . Si esta dada una funcion g : A0 → B y A es un sobreconjuntode A0 entonces, pueden haber muchas extensiones h : A → B de g, ya que podemosescoger arbitrariamente los valores de h (x) para todos los x ∈ A\A0.

Es un problema frecuente en matematicas el encontrar extensiones que cumplanciertas propiedades. En nuestro caso, debemos encontrar extensiones que sean TLs.Formulemos nuestro problema mas precisamente. Sean E y F dos espacios vectoriales

sobre K y N un conjunto de vectores de E. Sea h : E → F una TL. Sabemos queN ⊂ E y por lo tanto tenemos la restriccion h N : N → F. ¿Sera posible para cualquierfuncion g : N → F encontrar una extension h : E → F de g que sea TL? ¿Sera unica talextension? Veremos que ambas preguntas tienen respuesta positiva si N es una base .

Para demostrar la existencia de la extension debemos construirla. Sea N una base

x 7

→Xi∈N

α ig (i)

de E y g : N → F una funcion arbitraria de N en F. Cualquier x ∈ E se expresa deforma unica como combinacion lineal de N o sea x =

Pi∈N α ii. A

a funcion h del recuadro a la derecha se le llama extension lineal

de g. Observese que (como debe ser) la restriccion de h a N es iguala g ya que si x ∈ N entonces, la descomposicion de x en la base N

tiene coeficientes α i = 0 para i 6= x y α i = 1 para i = x.

Las extensiones lineales son transformaciones lineales.

Prueba. Tenemos

h ( x + y) = Xi∈N (α i + βi) g (i) = Xi∈N α ig (i) + Xi∈N βig (i) = h ( x) + h (y)

h (λ x) =Xi∈N

λα ig (i) = λXi∈N

α ig (i) = λh ( x)

y esto prueba que h es una TL.

Para demostrar la unicidad de la extension debemos convencernos de que dos TLsdistintas no pueden coincidir en una base.

Las TLs est´ an predeterminadas por sus valores en una base.

Prueba. Sean f, g : E → F dos TLs y N una base de E. Supongamos que f (i) = g (i)

para cualquier i ∈ N. Cualquier x ∈ E se expresa de forma unica como combinacion

Page 83: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 83/232

73Seccion 3.3 Extensiones lineales

ineal de N o sea x =P

i∈N α ii. Luego

f ( x) = f

ÃXi∈N

α ii

! =Xi∈N

α if (i) =Xi∈N

α ig (i) = g

ÃXi∈N

α ii

! = g ( x)

y por lo tanto las TLs f y g son iguales.

El isomorfismo entre FN y Mor (E, F)

Recordemos ahora de la Seccion 2.2 que el conjunto de todas las funciones de N enF es el conjunto de las N-adas de vectores de F, que este es un espacio vectorial paraa suma y el producto por escalares definidos por coordenadas y que se denota por FN .

Si N es una base de E entonces, hemos construido una correspondencia biun ıvocaentre FN y Mor (E, F). A cada N-ada h N ∈ FN le corresponde su extension linealh ∈ Mor (E, F) y a cada TL h ∈ Mor (E, F) le corresponde h N su restriccion a N (que

es una N-ada). Veamos que esta correspondencia es un isomorfismo.

Si N es una base de E entonces, la biyeccion r : Mor (E, F) 3 h 7→ h N ∈ FN

es un isomor fi smo de espacios vectoriales.

Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h 0 ∈ Mor (E, F)

y λ un escalar. Tenemos r (λh ) = (λh )N

= λh N = λr (h )r (h + h 0) = (h + h 0)N = h N + h 0N = r (h ) + r (h 0)

que se cumplen por las definiciones de suma y producto por escalares de las N-adas.

Un criterio de isomorfismo

Al establecer que los espacios Mor (E, F) y FN son isomorfos es natural que espere-

(1,0,0) 7→ (1, 0)

(0,1,0) 7→ (0, 1)

(0,0,1) 7→ (0, 1)

mos que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguajede las N-adas de vectores. En este caso queremos hacer la traducion de la propiedad

de una TL de ser o no un isomorfismo de espacios vectoriales. Ya vimos en el cap ıtuloanterior que un isomorfismo transforma una base del dominio en una base del codo-minio. ¿Sera esta propiedad suficiente para comprobar que una TLes un isomorfismo?. La respuesta es NO. Por ejemplo, la extensionineal de la funcion definida en la base canonica de R3 como en el

recuadro a la derecha transforma a esta base en la base canonica deR2 y sin embargo no es inyectiva. Nos falta la propiedad evidentemente necesaria deque la restriccion de la TL debe ser inyectiva.

Una TL es un isomor fi smo si y solo si su restricci´ on a una base es inyectiva y la imagen de esta restricci´ on es una base.

Page 84: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 84/232

74 Cap ıtulo 3. Transformaciones lineales

Prueba. Ya hemos probado la necesidad. Para la suficiencia sea N una base de E

y h N ∈ FN una N-ada de vectores de F tal que sus coordenadas son todas diferentes(la inyectividad) y que el conjunto de sus coordenadas (la imagen) es una base M =h (N) de F. Probemos que la extension lineal h : E → F de h N es un isomorfismo.Efectivamente, si x =

Pi∈N α ii y y =

Pi∈N βii son dos vectores cualesquiera en E y

h (x) = h ( y) entonces, Xi∈N

α ih (i) =Xi∈N

βih (i)

y como todos los h (i) = h i son diferentes, estas son dos combinaciones lineales igualesde la base M. Luego, los coeficientes de estas combinaciones lineales tienen que coincidirα i = βi y por lo tanto x = y. Luego, h es inyectiva.

Para ver que h es sobreyectiva sea z ∈ F. Como M es una base de F existen γi ∈ Ktales que z =

Pi∈N γih (i) y por lo tanto z = h ( v) donde v =

Pi∈N γii.

3.4 Coordinatizacion de transformaciones lineales

Para darle coordenadas a una TL lo primero es darle coordenadas a los espaciosentre los cuales esta definida la TL. Sean N y M bases de E y F respectivamente.Tenemos los isomorfismos de coordinatizacion E

↔ K N y F

↔ K M. Para cada

f ∈ Mor (E, F) tenemos la composicion g : K N → E f→ F → K M que es una TL enMor

¡K N,K M

¢.

Rec ıprocamente para cada g ∈ Mor¡K N,K M

¢ tenemos la

E f−→ Fl l

K N −→g

K M

composicion f : E → K N g→ K M → F que es una TL enMor (E, F). Es facil ver y es intuitivamente claro que esta co-rrespondencia biun ıvoca Mor (E, F) ↔ Mor

¡K N,K M

¢ es un

somorfismo de espacios vectoriales.

Podemos pensar a N como la base canonica de K N. Luego, aplicando 3.13 obte-nemos el isomorfismo Mor

¡K N,K M

¢ ↔ ¡K M

¢N= K M×N que es el conjunto de

as MN matrices tales que cada columna es una N-ada finita. Para el caso que mas

nos interesa en que N y M son bases finitas obtenemos Mor (E, F) ↔ ¡KM

¢N= KMN .

Sea f ∈ Mor (E, F). A la matriz α MN que le corresponde a f mediante el isomorfismoconstruido se le llama matriz de la TL f en las bases M y N. Los resultados de laseccion anterior nos dicen como construir α MN dada f. Para cada i ∈ N la columnaα Mi es el vector f (i) coordinatizado en la base M. O sea f (i) = Pa

∈M α aia .

E jercicio 57 Sean E ↔ E0 y F ↔ F0 isomorfismos de espacios vectoriales. Construyaun isomorfismo Mor (E, F) ↔ Mor (E0, F0).

Page 85: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 85/232

75Seccion 3.4 Coordinatizacion de transformaciones lineales

E jercicio 58 Pruebe que la funcion K [x ] 3 Pn

i=0 aixi 7→Pni=0 ai (x + 1)

i ∈ K [x ] esun isomorfismo de espacios vectoriales. Construya algunas columnas de la matriz α NNde esta TL en la base canonica del espacio de polinomios. Demuestre que las entradasde esta matriz estan definidas por la ecuacion recursiva α kn = α k,(n−1) + α (k −1),(n−1)

con las condiciones de frontera α kn = 0 si k > n y α kn = 1 si k = 0 o k = n.

La formula f (i) = Pa ∈M α aia nos dice tambien como construir f dada α MN . Las

magenes de los i ∈ N las calculamos por la formula y a f la construimos por extensionineal. O sea, si E 3 x =

Pi∈N βii entonces,

F 3 f ( x) =Xi∈N

βif (i) =Xi∈N

βi

Xa ∈M

α aia =Xa ∈M

ÃXi∈N

α aiβi

!a

La expresion P

i∈N α aiβi es un escalar y hay uno para cada a ∈ M por lo que son lascoordenadas de una M-ada. A esta M-ada se le llama producto de la matriz α MN

por el vector βN y se denota por α MN βN .Observese que este producto lo podemos escribir como en el

α MN βN =Xi∈N

α Miβi recuadro. Esto quiere decir que este producto se obtiene mul-tiplicando las columnas de α MN por las correspondientes coor-

denadas de βN y sumando los resultados. En otras palabras α MNβN es la combinacionineal de las columnas de α MN cuyos coeficientes son las coordenadas de βN .

En esta seccion estudiaremos sistematicamente el isomorfismo entre las TLs y lasmatrices repitiendo detalladamente todo lo dicho en esta introduccion. Si el lector no

entendio, le recomiendo seguir adelante y despues releer esta introduccion.El producto escalar canonico

Sean α N y βN dos N-adas. El producto escalar de estas N-α NβN =

Xi∈N

α iβiadas es el escalar del recuadro a la derecha. De esta manera, elproducto escalar de dos vectores es un elemento del campo.

No se debe confundir el “producto por un escalar” con el “producto esca-

lar”. El primero es un producto de un escalar por un vector y el segundo esun producto de dos vectores. Mas adelante veremos que hay otros productosdefinidos en cualquier espacio vectorial. Por esto a este producto lo llama-

remos canonico y solamente esta definido en el espacio vectorial de las N-adas paracierto conjunto finito de ındices N.

El producto escalar cumple las siguientes propiedades:1. xy = yx (conmutatividad)

2. x (y + z) = xy + xz (distributividad a la izquierda)3. (y + z) x = yx + zx (distributividad a la derecha)4. x (λy) = (λ x) y = λ ( xy) (conmuta con el producto por escalares)

Page 86: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 86/232

76 Cap ıtulo 3. Transformaciones lineales

E jercicio 59 Pruebe las principales propiedades del producto de N-adas (3.15).

E jercicio 60 Busque tres vectores x y z en R2 tales que ( xy) z 6= x (yz). [190]

E jercicio 61 ¿Se puede definir el producto escalar canonico en K N?

E jercicio 62 Pruebe que ∀α N ∈ RN se cumple que α 2N = α N α N ≥ 0.

El producto de matrices

Sean α MN y βNL dos matrices. Observese que el conjunto de ındices de las columnasde la primera, coincide con el conjunto de ındices de los renglones de la segunda. As ı,tanto un renglon α iN como una columna βNj son vectores del espacio KN de N-adasy podemos formar su producto α iN βNj . Cuando hacemos esto, para todos los i ∈ M

y todos los j

∈ L obtenemos una ML-matriz formada por todos estos productos. A

esta matriz se le llama el producto de las matrices α MN y βNL y se denotara porα MNβNL . Resumiendo, si γML = α MN βNL entonces γij = α iN βNj . Por ejemplo, si losconjuntos de ındices son M = 1, 2, N = 1,2,3 y L = 1, 2 entonces, en forma graficatenemos µ

α 11 α 12 α 13

α 21 α 22 α 23

¶⎛⎝ β11 β12

β21 β22

β31 β32

⎞⎠ =

µ α 1N βN1 α 1N βN2

α 2N βN1 α 2N βN2

¶y por definicion de producto escalar de vectores tenemos

µ α 1N

βN1

α 1N

βN2

α 2N βN1 α 2N βN2¶ = µ P3

i=1α

1iβ

i1 P3

i=1α

1iβ

i2P3

i=1 α 2i βi1P3

i=1 α 2i βi2¶ .

Productos de matrices y vectores

Sean α MN y βNL dos matrices. Si el conjunto de indices L tiene un solo elementoentonces la matriz βNL tiene una sola columna. En este caso podemos escribir βNL =βN1 y diremos que βN1 es un vector columna o una N-ada columna. Obviamente,podemos pensar que βN1 es una N-ada βN. En este caso podemos hacer el producto de

matrices α MNβN1 = α MNβN y este es el producto de una matriz por un vectordefinido al principio de esta seccion. Analogamente se define el producto por el otroado. Si el conjunto de indices M tiene un solo elemento entonces la matriz α MN tiene

un solo renglon. En este caso podemos escribir α MN = α 1N y diremos que α 1N esun vector renglon o N-ada renglon. Obviamente, podemos pensar que α 1N es unaN-ada α N . En este caso podemos hacer el producto de matrices α 1N βNL = α N βNL yesta es la definicion del producto de un vector por una matriz.

En este libro, no haremos distinciones entre N-adas, N-adas columna y N-adas

renglon o sea α 1N = α N1 = α N . Para esto, dimos las definiciones de producto deuna matriz por un vector y al reves. Intuitivamente, el lector debe pensar que cuandoaparesca un vector en un producto de matrices este se convierte en vector fila o columnasegun sea conveniente.

Page 87: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 87/232

77Seccion 3.4 Coordinatizacion de transformaciones lineales

Claro, este abuso de la notacion aunque es muy comodo puede llevar (sinos ponemos pedantes) a contradicciones. Por ejemplo, podemos sumar dosN-adas pero no podemos sumar una N-ada columna con una N-ada renglon.

Observese que, no solo el producto de matrices por vectores y al reves son casosparticulares del producto de matrices, sino tambien el producto escalar canonico de

dos N-adas al constatar que α N βN = α 1N βN1 .

E jercicio 63 Tome dos matrices con entradas enteras y multipl ıquelas. Repita esteejercicio hasta que usted comprenda muy bien el concepto de producto de matrices.

La transformacion lineal de una matriz

Sea α MN una MN-matriz. Esta matriz define una funcion KN 3 βN → α MN βN ∈KM . Esta funcion es una TL como ya vimos al principio de esta secci on utilizando elsomorfismo Mor

¡KN,KM

¢ ↔ KMN. Sin embargo, la prueba directa de este hecho esmuy sencilla.

El multiplicar una matriz fi ja por N-adas es una TL.

Prueba. Sea α MN una matriz cualquiera pero fi ja. Por las propiedades del produc-to escalar tenemos que para todo i ∈ M se cumple que α iN (βN + γN ) = α iN βN +

α iN γN y que α iN (λβN ) = λ (α iN βN ). Esto significa que son validas las igualdadesα MN (βN + γN) = α MN βN + α MN γN y α MN (λβN ) = λ (α MN βN).

La matriz de una transformacion lineal

En la proposicion anterior vimos que al mutiplicar MN-matrices por N-adas obte-

nemos ejemplos de TLs. Ahora queremos ver que estos son todos los ejemplos posibles,o sea, que cualquier TL de KN en KM se obtiene multiplicando por una MN-matriz.En realidad, esto ya lo probamos al principio de esta seccion al construir el isomorfis-mo Mor

¡KN ,KM

¢ ↔ KMN. Sin embargo, aqu ı es mas simple ya que tenemos basescanonicas de KN y KM . Sea E = ei : i ∈ N la base canonica de KN . Recordemos queei es la N-ada con coordenadas δji = 1 si i = j y δji = 0 si i 6= j. Sea f : KN → KM unaTL. Denotemos α Mi = f (ei) ∈ KM . A la matriz α MN cuyas columnas son las imagenesde la base canonica mediante la TL f la llamaremos matriz de la TL f.

Sea f : KN → KM una TL y α MN su matriz. Entonces,para cualquier βN ∈ KN se cumple que f (βN) = α MN βN.

Page 88: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 88/232

78 Cap ıtulo 3. Transformaciones lineales

Prueba. Sea f0 : βN 7→ α MN βN . Sabemos que f α MN ei =P

j∈N α Mjδji = α Miy f0 son TLs. Si i ∈ N entonces, por definicion de labase canonica y del producto de una matriz por un vector tenemos la igualdad delrecuadro. Luego f y f0 coinciden en la base canonica y por extension lineal ambas sona misma funcion.

E jercicio 64 Halle la matriz de la rotacion con angulo α en R2. [190]

Composicion de TLs y producto de matrices

La matriz de la composici´ on de dos TLs es igual al producto de las matrices de las TLs.

Prueba. Sean f ∈ Mor¡KN,KM

¢ y g ∈ Mor

¡KM ,KL

¢ dos TLs. Sean α MN y βLM las

matrices de f y g respectivamente. Para cualquier γN ∈ KN y cualquier i ∈ L tenemos

βiM (α MN γN) =

Xj∈M

βij (α jN γN ) =

Xj∈M

βij

Xk ∈N

α jk γk =

= Xk ∈N

Xj∈M

βij α jk γk = Xk ∈N

(βiM α Mk ) γk = (βiM α MN) γN

y por lo tanto βLM (α MN γN ) = (βLM α MN) γN . Como γN 7→ βLM (α MN γN ) es la TLg f entonces, tenemos (g f) ( γN ) = (βLM α MN) γN que es lo que se quer ıa probar.

El producto de matrices es asociativo, distribuye por ambos lados con la suma de matrices y conmuta con el producto por un escalar.

Prueba. Sean f, g y h TLs cuyas matrices son α MN , βLM y γKL respectivamente.La matriz de (h g) f es ( γKL βLM ) α MN . La matriz de h (g f) es γKL (βLM α MN).Como la composicion de TLs es asociativa tenemos (h g) f = h (g f) y por lotanto ( γKL βLM ) α MN = γKL (βLM α MN ). Esto prueba la asociatividad.

Las demas propiedades se prueban exactamente igual o sea, se desprenden de lasrespectivas propiedades de las TLs y de la proposicion 3.18.

E jercicio 65 Pruebe la asociatividad del producto de matrices directamente de ladefinicion de producto o sea, sin usar TLs. [190]

Page 89: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 89/232

79Seccion 3.4 Coordinatizacion de transformaciones lineales

El espacio de todas las NN-matrices es un ´ algebra isomorfa a End

¡KN¢

.

Prueba. Ya sabemos que KNN es un espacio vectorial. El resultado anterior hace lamayor parte del trabajo necesario para mostrar que KNN es un algebra. Solo falta elneutro para el producto que es la matriz de la identidad en KN . Esta matriz es INN quecumple que Iij = δij (el delta de Kronecker) y que la llamaremos matriz identidad.

Ademas, ya sabemos que la aplicacion que a un OL en KN le hace corresponder sumatriz es un isomorfismo de espacios vectoriales. La proposicion 3.18 completa la tareade demostrar que esta aplicacion es un isomorfismo de algebras.

Matrices inversas

Sea f ∈ Mor ¡KN

,KM¢ y α MN la matriz de f. La funcion f es biyectiva si y solo si,existe la TL f−1 tal que ff−1 = I ¡KN¢ y f−1f = I ¡KM¢. A la matriz de la TL f−1 se le

lama matriz inversa de α MN y se denota por α −1MN . De la proposicion 3.18 obtenemos

que la matriz inversa cumple que α −1MN α MN = INN y α MNα −1

MN = IMM . Observese queel conjunto de ındices de las columnas de α −1

MN es M y no N. Analogamente, el conjuntode ındices de los renglones de α −1

MN es N y no M.

De la definicion es inmediato que una matriz tiene inversa si y solo si su TL esun isomorfismo de espacios vectoriales. En particular los conjuntos de ındices N y M

tienen que tener el mismo cardinal ya que estos cardinales son las dimensiones deldominio y el codominio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nospreocuparemos en traducir nuestro criterio de isomorfismo 3.14 al lenguaje de matrices.

Una matriz cuadrada α MN tiene inversa si y solo si sus columnas son todas diferentes y son una base de KM .

Prueba. Sea α MN una matriz cuadrada y f∈

Mor¡KN ,KM¢ su TL. La resticcion def a la base canonica de KN es la N-ada de las columnas de la matriz α MN . Por 3.14 lafuncion f tiene inversa si y solo si esta restriccion es inyectiva (las columnas diferentes)y su imagen (el conjunto de columnas) es una base.

Es posible probar un criterio analogo al anterior substituyendo las columnas poros renglones. Sin embargo, su prueba aqu ı se nos har ıa innecesariamente complicada.

Mejor lo dejaremos para el proximo cap ıtulo donde esto sera una facil consecuencia deun resultado mucho mas importante.

E jercicio 66 Sean f y g las rotaciones del plano R2 en los angulos α y β respectiva-mente. Use el ejercicio 64 para hallar las matrices en la base canonica de f, g y f g.Use 3.18 para hallar formulas para el seno y el coseno de la suma de dos angulos. [190]

Page 90: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 90/232

80 Cap ıtulo 3. Transformaciones lineales

E jercicio 67 ¿Cual es la matriz inversa a la matriz de una rotacion?

E jercicio 68 Sea f el OL en R2 que deja fi jo a (1, 0) y manda (0, 1) en (1, 1). ¿Cuales su matriz? ¿Cual es la matriz inversa?

3.5 Cambios de base

Es usual en las aplicaciones que sea conveniente realizar ciertos calculos en un sis-tema de coordenadas y despues realizar otros calculos en otro sistema de coordenadas.En el algebra lineal estos cambios de coordenadas son lineales o sea, la transformacionque lleva unas coordenadas a otras es una TL.

Cambios de base en un espacio vectorial

Sean V y N dos bases del espacio E. Conocemos los isomorfismos de coordinati-zacion KV ↔ E ↔ KN . Nuestro problema ahora es: dada una V -ada βV que son lascoordenadas del vector x en la base V , ¿como hallar las coordenadas γN de x en labase N? En este caso las letras V y N tienen el sentido de que V es la base “vieja” yque N es la base “nueva”.

Sea α NV la matriz cuyas columnas son los vectores de la base V

v =

Xi∈N

α iv iexpresados en las coordenadas de N. O sea, para cualquier v ∈ V

tenemos la formula en el recuadro a la derecha. A la matriz α NV se lelama matriz de cambio de base (de V a N). Esta matriz no es otra

cosa que la matriz del isomorfismo KV → E → KN .

Si βV es la V -ada de las coordenadas de un vector en la base V entonces,α NV βV es la N-ada de las coordenadas del mismo vector en la base N.

Prueba. Descompongamos x ∈ E en las dos bases. Tenemos, x = P v∈V β v v =Pi∈N γii y por lo tanto x =

X v∈V

β v

ÃXi∈N

α iv i!

=Xi∈N

ÃX v∈V

α ivβ v

!i =

Xi∈N

γii

De la unicidad de las coordenadas de cualquier vector en la base N obtenemos lagualdad

P v∈V α ivβ v = γi que es la que se necesitaba demostrar.

Ejemplo. Queremos calcular las coordenadas de un vector u = (x, y) ∈ R2 en labase N = a 1, a 2 donde a 1 = (2, 3) y a 2 = (1, 2). Las coordenadas (x, y) son lascoordenadas de u en la base canonica. Luego, V = e1, e2 es la base canonica y para

construir la matriz α NV de cambio de base necesitamos las coordenadas de V en labase N. Estas coordenadas se pueden hallar resolviendo dos sistemas de ecuacionesineales pero es mas sencillo usar la siguiente argumentacion. Como un cambio de base

es un isomorfismo entonces la matriz α NV tiene inversa que es la matriz de cambio de

Page 91: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 91/232

81Seccion 3.5 Cambios de base

a base N a la base V . Las columnas de esta matriz ya las tenemos, son a 1y a 2. Luego,denotando p y q las coordenadas que buscamos, o sea, u = pa 1 + qa 2 tenemos:µ

p

q

¶ =

µ 2 1

3 2

¶−1 µ

x

y

¶ =

µ 2 −1

−3 2

¶µ x

y

¶ =

µ 2x − y

2y − 3x

¶.

y en estos calculos lo unico que no conoce el lector es como calcular la matriz inversa.

Pero, esto lo pospondremos hasta el proximo cap ıtulo.

Cambios de base en el espacio de transformaciones lineales

Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V , N

dos bases del espacio E y W , M dos bases del espacio F. Conocemos los isomorfismosde coordinatizacion KWV ↔ Mor (E, F) ↔ KMN. El problema ahora es: dada una WV -matriz α WV que es la matriz de la TL f : E → F en las bases V y W , ¿como hallara matriz βMN de f en las bases N y M? Nuevamente, V, W son las bases “viejas” y

M, N son las bases nuevas.Sea γNV la matriz de cambio de base de V a N en E. Sea λMW la

v =Xi∈N

γivi

w =Xj∈M

λjw j

matriz de cambio de base de W a M en F. O sea, para cualquier v ∈ V

y cualquier w ∈ W tenemos las formulas en el recuadro a la derecha.Estas matrices no son otra cosa que las matrices de los isomorfismosde coordinatizacion KV → E → KN y KW → F → KM .

Si α WV es la matriz de f en las bases V y W entonces,λMW α WV γ−1NV es la matriz de f en las bases N y M.

Prueba. Las columnas de α WV son las imagenes por f def ( v) =

X w∈W

α wv w

f (i) =

Xj∈M

βjij

a base V expresadas en la base W o sea, ∀ v ∈ V se cumple laformula del recuadro a la derecha. Denotemos por βMN la matriz

de f en las bases N, M. Las columnas de βMN son las imagenes por f

de la base N expresadas en la base M. O sea, para cualquier i ∈ N se

cumple la formula del recuadro a la izquierda.Substituyendo en la formula de la derecha las formulas que definen las matrices

λMW y γNV obtenemos Xi∈N

γivf (i) =Xj∈M

ÃX w∈W

λjw α wv

!j

y en esta igualdad substituimos f (i) por la formula de la izquierda para obtener

Xj∈M

ÃXi∈N

βji γiv

!j =

Xj∈M

ÃX w∈

W

λjw α wv

!j.

De la unicidad de las coordenadas de cualquier vector en la base M obtenemos quepara cualesquiera j ∈ M y v ∈ V se cumple que

Pi∈N βji γiv =

P w∈W λjw α wv y por lo

tanto βMN γNV = λMW α WV . Como γNV es la matriz de un isomorfismo entonces, γNV

tiene inversa por lo que podemos despejar βMN .

Page 92: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 92/232

82 Cap ıtulo 3. Transformaciones lineales

La proposicion anterior la podemos interpretar grafica-KV

α WV −→ KW

γNV ↓ ↓ λMW

KN −→βMN

KM

mente de la siguiente manera. Las matrices α WV , βMN , γNV , y λMW son las matrices de TLs entre espacios co-mo se muestra en el diagrama a la izquierda. Se dice queun diagrama de funciones es conmutativo si cua-

esquiera dos caminos dirigidos entre dos cualesquiera conjuntos son funciones iguales.En nuestro caso, el que el diagrama a la izquierda sea conmutativo lo quiere decir esque βMN γNV = λMW α WV .

Cambios de base en el espacio de operadores lineales

Si f ∈ End (E) = Mor (E, E) es un OL entonces, no tiene sentido escoger bases

KV α VV −→ KV

γNV ↓ ↓ γNV

KN −→βNN

KN

diferentes para el dominio y el codominio ya que estos son iguales. Sean V , N dosbases de E. El problema ahora es: dada una VV -matriz α VV que es la matriz del

OL f en la base V , hallar la matriz βNN de f en la baseN. Sea γNV la matriz de cambio de base de V a N enE. En este caso, el diagrama es el de la derecha. Ya nohay que probar la conmutatividad de este ya que el, es uncaso particular del anterior. Luego, βNN γNV = γNV α VV ydespejando obtenemos que βNN = γNV α VV γ

−1NV .

Ejemplo. Sea f la TL del plano R2 que tiene la matriz del re-

µcos α − sin α

sin α cos α ¶ cuadro a la izquierda en la base V = a 1, a 2 donde a 1 = (2, 3) y

a 2 = (1, 2). ¿Cual sera la matriz de f en la base canonica? La ma-triz de cambio de base a la base canonica es la que tiene como columnas a los vectoresa 1 y a 2. Luego, la matriz de f en la base canonica esµ

2 1

3 2

¶µcos α − sin α

sin α cos α

¶µ 2 1

3 2

¶−1

=

µ cos α + 8 sin α −5 sin α

13 sin α cos α − 8 sin α

¶y esto es una advertencia de que un operador lineal puede tener en una base una matrizque es igual a la de la rotacion en la base canonica y sin embargo no es una rotacion.

3.6 El nucleo y la imagen de una TL

En esta seccion queremos ver que para describir todas las transformaciones linealesnos es suficiente conocer las inmersiones, las proyecciones y los isomorfismos. Despues,veremos interesantes consecuencias de este resultado.

Definiciones

Para esto comenzaremos con dos definiciones fundamentales. Sea f : E → F unaTL. Al conjunto y ∈ F | ∃x ∈ E f ( x) = y se le llama imagen de la TL. La imagende f se denotara por Im f. Al conjunto x ∈ E | f ( x) = 0 se le llama nucleo de la TL.El nucleo de f se denotara por ker f. Esta notacion es debido a que en ingles nucleo es

Page 93: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 93/232

83Seccion 3.6 El nucleo y la imagen de una TL

“kernel”. La imagen es el conjunto de los vectores en el codominio que tienen preimageny el nucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0.

La imagen y el n´ ucleo de una TL son subespacios.

Prueba. Sean x, y vectores en Im f y λ ∈ K. Por definicion existen a , b tales quef (a ) = x, f (b) = y. Como f es lineal tenemos f (a + b) = f (a ) + f (b) = x + y yademas f (λa ) = λf (a ) = λ x. Esto quiere decir que Im f es un subespacio.

Sean a , b vectores en ker f y λ ∈ K. Tenemos f (a + b) = f (a ) + f (b) = 0 + 0 = 0

y f (λa ) = λf (a ) = λ0 = 0. Esto quiere decir que ker f es un subespacio.

El nucleo y la imagen de una TL son subespacios de espacios diferentes. Sif : E → F entonces ker f

⊂E e Im f

⊂F. Solamente en el caso que la TL es

un OL o sea, cuando E = F el nucleo y la imagen son subespacios del mismoespacio. Sin embargo, como veremos mas adelante, en este caso pasan cosas raras yaque, aunque estos subespacios tienen dimensiones complementarias ellos NO siempreson complementarios.

Transformaciones lineales con nucleo trivial

Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector

cero siempre es un elemento del nucleo. Si el nucleo solo contiene al vector cero se diceque f tiene nucleo trivial. Cualquier TL lineal inyectiva tiene nucleo trivial ya que eneste caso la preimagen de cualquier vector es unica. Lo importante es que el rec ıprocotambien es cierto.

Una TL es inyectiva si y solo si su n´ ucleo es trivial.

Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos(f ( x) = f (y)) ⇔ (f ( x) − f (y) = 0) ⇔ (f ( x − y) = 0) ⇔ ( x − y ∈ ker f)

y por lo tanto el que existan dos vectores diferentes cuyas imagenes sean iguales esequivalente a la existencia de un vector no nulo en el nucleo de la TL.

Descomposicion de transformaciones lineales

Ahora, demostraremos el resultado prometido al principio de la seccion. Sea f : E

→F una TL. Sea K un subespacio complementario cualquiera pero fi jo del ker f. Sea fK

a restriccion de f al subespacio K . Denotemos por i : Im f → F a la inmersion delsubespacio Im f en F. Finalmente, denotemos por π K : E ³ K la proyeccion de E a K

a lo largo del ker f.

Page 94: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 94/232

84 Cap ıtulo 3. Transformaciones lineales

Teorema de Descomposicion de una TL

f = i fK π K y fK es un isomor fi smo.

Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.29 (pagina 53) existenunos unicos vectores a

∈K , b

∈ker f tales que x = a + b. De aqu ı obtenemos

(i fK π K ) ( x) = i (fK (π K ( x))) = i (fK (a )) = f (a ) = f (a ) + f (b) = f ( x)

y con esto queda probado que f = i fK π K .Para probar que fK es un isomorfismo sea f ( x) ∈ Im f. Por 2.29 existen unos unicos

vectores a ∈ K , b ∈ ker f tales que x = a + b. Como fK (a ) = f (a ) = f (a ) + f (b) =

f ( x) entonces fK es sobreyectiva. Si fK (a ) = fK (b) entonces, fK (a − b) = 0. Comoa − b) ∈ K ∩ ker f entonces, a − b = 0 o sea a = b. Luego, fK es inyectiva.

Este teorema lo podemos visualizar mas facilmente si ob-

E

f

−→ Fπ K ↓ ↑ i

K −→fK

Im f

servamos el diagrama de la derecha. La primera afirmacion delTeorema de Descomposicion de una TL lo que dice es que estediagrama es conmutativo. La segunda afirmacion nos dice quefK es un isomorfismo de espacios vectoriales.

Para cualquier transformaci´ on lineal f : E → F,dim E = dimker f + dim Im f.

Prueba. Por el teorema anterior Im f es isomorfo a un complementario de ker f.

Un criterio de isomorfismo

Recordemos un sencillo resultado de teor ıa de conjuntos: toda funcion inyectiva deun conjunto finito en otro con el mismo numero de elementos es biyectiva. De hecho,esto lo usamos en el primer cap ıtulo para probar que Z p es un campo para p primo.El objetivo ahora, es mostrar que “exactamente” el mismo resultado (simple pero muy

util) se cumple para espacios vectoriales de dimension fi

nita. Esto es una consecuenciadel Teorema de Descomposicion de una TL (3.26).

Sean E y F dos espacios de dimensiones fi nitas e iguales.Una TL f : E → F es inyectiva si y solo si es sobreyectiva.

Prueba. Por 3.27 tenemos dim ker f = dim E−dim Im f. Si f es sobreyectiva entonces,F = Im f. Por hipotesis dim F = dim E. De aqu ı, debido a que todas las dimensiones son

finitas, dim ker f = 0 y por lo tanto ker f = 0. De 3.25 concluimos que f es inyectiva.Si f es inyectiva entonces, la funcion f : E → Im f es un isomorfismo y por lo tanto

dim E = dimIm f. Por hipotesis dim F = dim E. Como Im f es un subespacio de F

entonces, aplicando 2.17 (pagina 42) obtenemos F = Im f.

Page 95: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 95/232

85Seccion 3.6 El nucleo y la imagen de una TL

Como consecuencia de este resultado probaremos que para comprobar que dos ope-radores lineales f y g en un espacio de dimension finita son el inverso uno del otro, soloes necesario comprobar una de las dos igualdades g f = I o f g = I.

Sean f, g : E

→E dos OLs de un espacio fi nito dimen-

sional. Entonces, f g = I si y solo si g f = I.

Prueba. La funcion identidad es sobreyectiva. Luego, si f g = I entonces, f essobreyectiva. Por 3.28 f es inyectiva y por lo tanto tiene inversa f−1. Componiendocon f−1 obtenemos f−1 f g = f−1 I y por lo tanto g = f−1.

Descomposicion canonica de transformaciones lineales

Para aplicar el Teorema de Descomposicion de una TL necesitamos escoger (ya quehay muchos) un subespacio complementario K del nucleo de f. Ya vimos (vease 2.34)que cualquier tal subespacio es isomorfo al cociente E/ ker f. Queremos substituir K

por E/ ker f en el Teorema de Descomposicion de una TL para as ı obtener otra versiondel mismo que no dependa de escoger nada, o sea que sea canonico.

En el Teorema de Descomposicion de una TL estan in-

E f−→ F

?

↓ ↑i

E/ ker f ←→? Im f

volucradas tres funciones: la proyeccion π K (que es sobre-yectiva), la restriccion fK (que es biyectiva) y la inmersion i

(que es inyectiva). Esta ultima no depende de K y podemosquedarnos con ella. As ı que todas nuestras incognitas estanrepresentadas en el diagrama de la derecha.

¿Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas

x 7→ ker f + x

f ( x) 7→ ker f + x

variantes. El espacio cociente E/ ker f esta formado por todos los subespacios afinesker f + x. El espacio Im f esta formado por todas las imagenesf ( x). Luego, la unica posible respuesta a nuestra pregunta sonlas funciones definidas en el recuadro a la izquierda.

La primera de estas funciones tiene dominio E, codominio E/ ker f, se le llamafuncion natural y se denota por “nat”. La funcion natural es una TL ya que

nat ( x + y) = ker f + x + y = ker f + x + ker f + y = nat ( x) + nat (y)

nat (λ x) = ker f + λ x = λ ker f + λ x = λ (ker f + x) = λ nat ( x)

y ademas es evidentemente sobreyectiva.

La segunda de estas funciones es nuestra preocupacion fundamental ya que tenemosque probar que es un isomorfismo. Esta funcion tiene dominio Im f, codominio E/ ker f

y la denotaremos por g. La funcion g es una TL ya que

g (f ( x) + f (y)) = g (f ( x + y)) = ker f + x + y = g (f ( x)) + g (f (y))g (λf ( x)) = g (f (λ x)) = ker f + λ x =λ (ker f + x) = λg (f ( x))

y es tambien evidentemente sobreyectiva.¿Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios

Page 96: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 96/232

86 Cap ıtulo 3. Transformaciones lineales

afines ker f + x y ker f + y son el mismo entonces, f ( x) = f (y). Como para un sub-espacio af ın E paralelo al ker f se cumple que (E = ker f + x) ⇔ ( x ∈ E) entonces, lanyectividad de g es equivalente a que la funcion f sea constante en cualquier subespacio

afın paralelo al ker f.

Los subespacios a fi nes paralelos a ker f son precisamente los conjuntos de vectores en que la funci´ on f es constante.

Prueba. Tenemos

(y ∈ ker f + x) ⇔ (∃a ∈ ker f | y = a + x) ⇔ (f (y − x) = 0) ⇔ (f (y) = f ( x))

o que nos convence de la validez del resultado.

Luego, g es un isomorfismo y por lo tanto tiene un iso-

E f−→ F

nat ↓ ↑ i

E/ ker f −→f0

Im f

morfi

smo inverso que denotaremos por f

0

. El isomorfi

smo f

0

es el que a un subespacio af ın ker f + x le hace corresponderf ( x). As ı completamos nuestro diagrama como en el recua-dro a la derecha. Solo nos falta demostrar que este es conmu-tativo. Sin embargo esto es muy facil porque la composicion

de funciones x

nat7−→ ker f + x

f07−→ f ( x)

i7−→ f ( x)

es evidentemente igual a la funcion f.

3.7 Trasformaciones semilineales y coalineaciones

Una funcion f : E → F de espacios vectoriales sobre Kf(a + b) = f(a ) + f(b)

f (λa ) = λf (a )se le llama transformaci´ on semilineal si existe un automor-fismo λ 7→ λ del campo K tal que∀ a , b ∈ E y ∀ λ ∈ K secumplen las propiedades del recuadro.

Observese que las trasformaciones lineales son semilineales usando como automor-fismo del campo la funcion identidad. Para construir otras trasformaciones semilinealesnecesitamos automorfismos del campo que no sean la identidad. El ejemplo mas im-portante es la conjugacion a + bi 7→ a − bi en el campo de los numeros complejos.

E jercicio 69 Pruebe que para una transformacion semilineal no nula f el correspon-diente automorfismo del campo es unico. [190]

Trasformaciones semilineales reales

En el caso del campo de los numeros reales no hay trasformaciones semilineales queno sean lineales debido al siguiente resultado:

Page 97: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 97/232

87Seccion 3.7 Trasformaciones semilineales y coalineaciones

El ´ unico automor fi smo de R es la identidad.

Prueba. Sea f un automorfismo de R. Supongamos que x > 0 y sea y =√

x entonces,f (x) = f( y2) = f ( y)

2> 0. En particular si x = b − a > 0 entonces f (b − a) =

f (b) − f (a) > 0. En otras palabras, f es monotona b > a

⇒f (b) > f (a). Como f−1

tambien es un automorfismo entonces, tambien es monotona. Luego, f conmuta con elsupremo y el ınfimo (vease el ejercicio 70).

Como f (1) = 1 y 1 es generador del grupo aditivo de Z obtenemos que f es ladentidad en Z. Como f (a/b) = f (a) /f (b) obtenemos que f es la identidad en Q. Sea

x un irracional y denotemos por A el conjunto de todos los racionales menores que x.Sabemos que x = sup A y por lo tanto f (x) = f (sup A) = sup f (A) = sup A = x.

E jercicio 70 Sean R un conjunto ordenado, f : R → R una biyeccion tal que f y f−1

son monotonas y A ⊆ R tal que sup A existe. Pruebe que f (sup A) = sup f (A). [190]

E jercicio 71 Sea f 6= I un automorfismo de C. Pruebe que las siguientes afirmacionesson equivalentes: 1. f es la conjugacion compleja. 2. f es continua. 3. f es la identidaden R. [190]

Propiedades de las transformaciones semilineales

Al igual que las TL las transformaciones semilineales preservan subespacios.

Toda trasformaci´ on semilineal trans- forma subespacios en subespacios.

Prueba. Sea f : E → F una trasformacion semilineal y F un subespacio de E. Seana , b ∈ F y α ∈ K. Tenemos f(a + b) = f(a ) + f(b) por lo que f (F) es cerrado paraa suma. Sea λ

∈ K tal que λ = α . Tenemos α f (a ) = λf (a ) = f (λa ) o sea f (E) es

cerrado para el producto por escalares.

Toda trasformaci´ on semilineal transforma subespacios a fi nes en subespacios a fi nes.

Prueba. Sea f : E

→F una trasformacion semilineal y F un subespacio de E. Si F + x

es un subespacio af ın entonces, f (F + x) = f (F) + f ( x) que es tambien un subespacio

afın puesto que por el resultado anterior f (F) es un subespacio.

Page 98: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 98/232

88 Cap ıtulo 3. Transformaciones lineales

Automorfismos semilineales.

A diferencia de las TL las transformaciones semilineales no forman un espacio vec-torial: la suma de transformaciones semilineales no necesariamente es semilineal. A lastransformaciones semilineales f : E → E biyectivas las llamaremos automorfismossemilineales.

La composici´ on de automor fi smos semi-lineales es un automor fi smo semilineal.

Prueba. Sean f y g dos automorfismos semilineales. De la misma manera que paraos operadores lineales se prueba que (f g) (a + b) = (f g) (a ) + (f g) (b). Sean

λ 7

→λ y λ 7

→λ los automorfismos del campo correspondientes a f y g respectivamente.

Tenemos que (f g) (λa ) = f ¡¯λa ¢ = e¯λa y la prueba termina al observar que λ 7→ e¯λsiendo una composicion de automorfismos del campo es automorfismo del campo.

E jercicio 72 Sea λ 7→ λ un automorfismo del campo K. Pruebe que la transforma-cion Kn 3 (x1, . . . , xn) 7→ (x1, . . . , xn) ∈ Kn es un automorfismo semilineal. A talesautomorfismos semilineales los llamaremos estandar . Pruebe que toda transformacionsemilineal de Kn en Kn es la composicion de un automorfismo semilineal estandar conuna TL. [191]

La inversa de un automor fi smo semi-lineal es un automor fi smo semilineal..

Prueba. Sea f : E → E un automorfismo semilineal. Sean λ ∈ K y x, y ∈ E. Seana , b ∈ E tales que f (a ) = x , f (b) = y. Tenemos

f−

1 ( x + y) = f−

1 (f (a ) + f (b)) = f−

1 (f (a + b)) = a + b = f−

1 ( x) + f−

1 (y)f−1

¡λ x¢

= f−1¡

λf (a )¢

= f−1 (f (λa )) = λa =λf−1 ( x)

solo queda observar que la funcion λ 7→ λ es un automorfismo de K.

Estos dos ultimos resultados significan que el conjunto de todos los automorfismossemilineales forman un grupo respecto a la composicion de funciones.

Coalineaciones

Una biyeccion f : E

→ E en un espacio vectorial se le llama coalineacion si la

magen de cualquier subespacio af ın es un subespacio af ın y la preimagen de cual-quier subespacio af ın es un subespacio af ın de E. En otras palabras, tanto f como f−1

transforman subespacios afines en subespacios afines. Obviamente, si f es una coali-neacion entonces f−1 tambien lo es. El siguiente resultado nos dice que la definicion de

Page 99: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 99/232

89Seccion 3.7 Trasformaciones semilineales y coalineaciones

coalineacion es posible hacerla de diversas maneras.

Sea f : E → F una biyecci´ on entre dos espacios a fi nes. Entonces, las siguientes a fi rmaciones son equivalentes:

1. f y f−1 transforman subespacios a fi nes en subespacios a fi nes.

2. f y f−1 transforman generadores a fi nes en generadores a fi nes.3. f y f−1 transforman bases a fi nes en bases a fi nes.

4. f y f−1 transforman conjuntos AI en conjuntos AI.

5. f y f−1 conmutan con la cerradura af´ ı n.

Prueba. (1 ⇒ 2) Sea A un conjunto generador af ın de E y B = f (A). Sea C = f−1 [B ]

que es un subespacio af ın por ser la preimagen de un subespacio. Tenemos, B ⊆ [B ] ypor lo tanto A = f−1 (B) ⊆ f−1 [B ] = C. Luego E = [A ] ⊆ C y por lo tanto C = E. Deaqu ı f (E) = [B ] y como f es sobreyectiva tenemos que B es generador. Por simetr ıa, siB es generador entonces f−1 (B) tambien lo es.

(2 ⇒ 3) Sea ahora A una base af ın de E y B = f (A). Sabemos que B es generadorafın. Si B no fuera AI entonces existir ıa b tal que B\b es generador y por lo tanto,tendr ıamos que f−1 (B\b) = A\f−1 (b) es generador af ın. Esto contradecir ıa que A esuna base af ın. Por simetr ıa, si B es una base af ın entonces f−1 (B) tambien lo es.

(3 ⇒ 4) Sea ahora A un conjunto AI. Sea A0 una base af ın que lo contiene. Sabemosque f (A0) es una base af ın. Como f (A) ⊆ f (A0) tenemos que f (A) es AI. Por simetr ıa,si B es AI entonces f−1 (B) tambien lo es.

(4

⇒1) Sea A una base afın del subespacio af ın [A ]. Como A es AI entonces

B = f (A) tambien lo es. Si b

∈ [A ] entonces A

∪b es AD y por lo tanto B

∪f (b)

tambien lo es. Luego, f (b) ∈ [B ] y por lo tanto f [A ] ⊆ [B ]. Si b ∈ [B ] entonces B ∪ bes AD y por lo tanto A ∪ f−1 (b) tambien lo es. Luego, f−1 (b) ∈ [A ] y por lo tantoB ] ⊆ f [A ]. Esto significa que f transforma el subespacio [A ] en el subespacio [B ]. Por

simetr ıa, f−1 tambien transforma subespacios en subespacios.(5 ⇒ 1) Si f [A ] = [f (A)] entonces la imagen del subespacio af ın [A ] es el subespacio

afın [f (A)]. O sea, f trasforma subespacios en subespacios. Por simetr ıa, f−1 tambientransforma subespacios en subespacios.

(1

⇒5) Sea f una coalineacion. Sea A un conjunto de puntos. Como f transforma

subespacios afines en subespacios afines la restriccion de f a [A ] es una coalineacion delespacio afin [A ] en el espacio afin f [A ]. Como esta restriccion transforma generadoresen generadores tenemos que f (A) es generador de f [A ]. Luego f [A ] = [f (A)]. Para verde que f−1 conmuta con la cerradura af ın usamos que f−1 es una coalineacion.

Page 100: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 100/232

90 Cap ıtulo 3. Transformaciones lineales

E jercicio 73 Sea A un conjunto con un operador de cerradura y f : A → A unabiyeccion. Si f y f−1 conmutan con el operador de cerradura entonces f es una isoton ıadel conjunto ordenado de cerrados.

Estructura de las coalineaciones

La composicion de coalineaciones de un espacio af ın es una coalineacion. Lo mismosucede con la inversa de una coalineacion. Luego el conjunto de todas las coalineacionesde un espacio af ın F es un grupo respecto a la composicion de funciones.

Si dim E = 1 entonces cualquier biyeccion de E en E es una coalineacion ya que eneste caso todos los subespacios afines son puntos y la condicion de preservar puntos noes ninguna restriccion.

Un importante subgrupo de colineaciones son las traslaciones o sea, las funciones

de la forma ta : F 3 x 7→ x + a ∈ F y de estas hay una para cada vector a en elespacio vectorial F. Como ta tb = ta +b observamos que el subgrupo de traslacioneses isomorfo al grupo aditivo del espacio vectorial F.

Sea f una coalineacion en E. Denotemos a = f (0) y ta la traslacion x 7→ x + a .Observemos que la coalineacion f0 = t

−a f es tal que f0 (0) = 0. Luego, cualquiercoalineacion es la composicion f = ta f0de una coalineacion que preserva 0 seguida deuna traslacion.

Si f es un automorfismo semilineal entonces f transforma subespacios afines en

subespacios afines y por lo tanto es una coalineacion que preserva 0.Ahora, comenzaremos a probar el resultado principal de esta seccion: que en dimen-

sion al menos 2 toda coalineacion que preserva 0 es semilineal. En todo lo que sigue,E es un espacio vectorial de dimension al menos 2 sobre el campo K.

Toda coalineacion en E preserva el paralelismo de rectas.

Prueba. Sea f una coalineacion y `, `0 dos rectas paralelas diferentes. Como f es unautomorfismo del conjunto ordenado de subespacios afines dim [` ∪ `0 ] = dim f [` ∪ `0 ] =

dim [f (`) ∪ f (`0)] y por lo tanto f (`) y f (`0) son coplanares.Tambien dim [` ∩ `0 ] = dim f [` ∩ `0 ] = dim [f (`) ∩ f (`0)] y por lo tanto f (`) y f (`0)

no se intersectan.

Toda coalineacion en E que preserva 0 es un automor fi smo del grupo aditivo de vectores.

Prueba. Sea f una coalineacion de E que preserva 0. Recordemos que para cualquiervector x el subespacio h xi es la recta por el origen que pasa por x. Y como f preserva0 tenemos f h xi = hf ( x)i o sea, f tambien conmuta con la cerradura lineal.

Page 101: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 101/232

91Seccion 3.7 Trasformaciones semilineales y coalineaciones

Sean a , b ∈ E dos vectores. Tenemos que probar que f (a + b) = f (a ) + f (b).Esto es trivial si a , b contiene a 0 por lo que podemos suponer que a 6= 0 y b 6= 0.Supongamos primero que a , b es LI. Por la regla del paralelogramo sabemos que

a + b = (ha i + b) ∩ (hbi + a ) ,

f (a ) + f (b) = (hf (a )i + f (b)) ∩ (hf (b)i + f (a )) .

Como f preserva el paralelismo f (ha i + b) es una recta paralela a f (ha i) = hf (a )ique pasa por f (b) , o sea f (ha i + b) = hf (a )i + f (b). Analogamente, f (hbi + a ) =

hf (b)i + f (a ). Como f conmuta con la interseccion (el ınfimo) tenemos

f (a + b) = f (ha i + b)∩f (hbi + a ) = (hf (a )i + f (b))∩(hf (b)i + f (a )) = f (a )+f (b)

y esto concluye el caso de que a , b es LI.Es claro que si a , b es LI entonces, tambien lo es a − b, b y por lo tanto

f (a ) = f (a − b + b) = f (a − b) + f (b) .

Luego, si a , b es LI entonces, f (a − b) = f (a ) − f (b).Supongamos que a , b es LD. Entonces, ha i = hbi. Como dim E > 1 existe c /∈ ha i

tal que los conjuntos a , c, b, c son LI.Si b 6= −a entonces, a + c, b − c es LI y por el caso anterior tenemos que

f (a + b) = f (a + c + b − c) = f (a + c) + f (b − c) = f (a ) + f (b)

y en particular cuando b = a obtenemos f (2a ) = 2f (a ).Si b = −a entonces, a + c, b + c es LI y tenemos que

2f (c) = f (2c) = f (a + c + b + c) = f (a + c) + f (b + c) = f (a ) + f (b) + 2f (c)

y por lo tanto f (a ) + f (b) = 0 = f (0) = f (a + b).

E jercicio 74 Complete la demostracion del resultado anterior mostrando que si a , c

es LI, b = ρa y ρ 6= −1 entonces a + c, b − c es un conjunto LI. [191]

Si f es una coalineaci´ on en E que preserva 0 entonces, existe un automor-

fi smo λ 7→ λ del campo K tal que f (λa ) = λf (a ) para todo vector a ∈ E.

Prueba. Sea a ∈ E\0. Como f preserva 0 tenemos que f (ha i) = hf (a )i. Sabemosque α a ∈ ha i y por lo tanto f (α a ) ∈ hf (a )i. Como en hf (a )i estan precisamente losmultiplos de f (a ) existe un escalar que denotaremos α a tal que f (α a ) = α a f (a ). Deesta manera esta definida una funcion K 3 α 7→ α a ∈ K que es biyectiva pues f es unabiyeccion de ha i en hf (a )i.

Queremos probar que α a no depende de a . O sea que para cualesquiera a , b

∈E\0

tenemos que α a = α b. Supongamos que a , b es LI. Usando 3.38 obtenemos queα a f (a ) + α bf (b) = f (α a ) + f (α b) = f (α a + α b) =

= f (α (a + b)) = α a +bf (a + b) = α a +bf (a ) + α a +bf (b)

y como f (a ) , f (b) es LI obtenemos α a = α a +b = α b.

Page 102: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 102/232

92 Cap ıtulo 3. Transformaciones lineales

Supongamos que a , b es LD entonces, como dim E > 1 existe c tal que a , c yc, b son dos conjuntos LI. Por el caso anterior α a = α c = α b.

Como α a no depende de a denotaremos α = α a . Sabemos que para cualquier vectora ∈ E tenemos f (α a ) = α f (a ). Solo falta ver que α 7→ α es un automorfismo de K.

Sea a un vector no nulo. Usando 3.38 obtenemos que

(α + β)f (a ) = f ((α + β) a ) = f (α a + βa ) = f (α a ) + f (βa ) = ¡α + ¯β¢ f (a )(αβ)f (a ) = f (αβa ) = α f (βa ) = α βf (a )

y como f (a ) es no nulo obtenemos α + β = α + β y αβ = α β.

Resumiendo los dos ultimos resultados obtenemos:

Caracterizacion de las coalineaciones

Si dim E ≥ 2 entonces, cualquier coalineaci´ on en

E que preseva 0

es un automor fi

smo semilineal.

Combinando esto con 3.31 vemos que el caso de los reales es mas sencillo.

Toda coalineaci´ on en un espacio vectorial real de dimensi´ on dos o m´ as es un automor fi smo lineal seguido por una traslaci´ on.

Page 103: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 103/232

Determinantes

apítulo cuarto

l determinante es cierta funcion que a cada matriz cuadrada le hace corresponderun elemento del campo. Todo lo que se digamos acerca de la importancia de losdeterminantes en las matematicas es poco. Este es uno de los conceptos sin los

cuales realmente no se puede entender nada en las matematicas superiores. En estecap ıtulo daremos la definicion de los determinantes, estudiaremos sus propiedades,metodos de calculo y principales aplicaciones.

4.1 Permutaciones

La definicion de determinante de una matriz pasa inevitablemente por la definicion

del signo de una permutacion. El lector debe entender bien esta seccion para poderpasar al estudio de los determinantes.

El grupo simetrico

Sea N un conjunto fi nito. Una permutacion de N es una biyeccion de N en N.Al conjunto de todas las permutaciones de N lo denotaremos por SN. La composicionde biyecciones es una biyeccion y toda biyeccion tiene inversa, por lo tanto, SN es ungrupo respecto a la composicion. Al grupo (SN ,

) se le llama el grupo simetrico

de N. Denotaremos por IN a la funcion identidad que es el neutro de SN . Es impor-tante recordar nuestra notacion de la composicion (σ ω) (a) = σ (ω (a)) ya que lacomposicion no es conmutativa.

Si |M| = |N| entonces los grupos SM y SN son isomorfos.

Prueba. Sean M y N son dos conjuntos del mismo

M

σ

←− Mω ↓ ↑ ω−1

N −→ωσω−1

N

cardinal. Si ω : M → N es una biyeccion entonces fi jando-nos en el diagrama conmutativo del recuadro a la derechaobtenemos una funcion ∆ : SM 3 σ 7→ ωσω−1 ∈ SN. Ob-servemos, que ∆ tiene inversa SN 3 ρ 7→ ω−1ρω ∈ SM .

Page 104: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 104/232

94 Cap ıtulo 4. Determinantes

Ademas, ∆ (σθ) = ωσθω−1 = ωσω−1ωθω−1 = ∆ (σ) ∆ (θ) y por lo tanto, ∆ esun isomorfismo de los grupos SM y SN.

El lector debe interpretar este resultado como que, en el grupo SM podemos cam-biarle el nombre a los elementos de M mediante la biyeccion δ : M → N y obteniendoel grupo SN . En particular, el numero de elementos de SN solo depende del numero de

elementos en N.

El n´ umero de permutaciones de un conjunto con n elementos es n!.

Prueba. Para la prueba es mas claro encontrar ρ (n) el numero de biyecciones f :M → N donde |M| = |N| = n. Si n = 1 entonces ρ (n) = 1 = 1!. Hagamos induccionen n. Si i ∈ M entonces, el conjunto de biyecciones lo podemos partir en n partes

disjuntas segun cual sea j = f (i). Cada parte tiene tantos elementos como biyeccionesf : M\i → N\j y por hipotesis de induccion este numero es (n − 1) !. Luego, ρ (n) =n (n − 1) ! = n!.

Ejemplo. Supongamos que N = 1,2,3. El resultado anterior nos dice que hay 6permutaciones y estas son las siguientes:

I =

1 7→ 1

2 7

→2

3 7→ 3

, α =

1 7→ 1

2 7

→3

3 7→ 2

, β =

1 7→ 2

2 7

→1

3 7→ 3

, γ =

1 7→ 2

2 7

→3

3 7→ 1

, δ =

1 7→ 3

2 7

→1

3 7→ 2

, ε =

1 7→ 3

2 7

→2

3 7→ 1

,

La permutacion I es la funcion identidad que es el neutro α β γ δ ε

α I γ β ε δ

β δ I ε α γ

γ ε α δ I β

δ β ε I γ α

ε γ δ α β I

para la composicion. Haciendo unos pocos calculos obtene-mos que la tabla de composicion de estas permutaciones esla del recuadro. Observese que en cada renglon y columnatodas las entradas son diferentes. Esta propiedad se cumplepara la tabla de la operacion de cualquier grupo ya que noes nada mas que el reflejo de que (a

∗b = a

∗c)

⇒(b = c).

Ciclos y orbitas

Sea M = x0, . . . , xn−1 ⊆ N. A la permuta-σ ( y) =

¯ xi+1 modn si y = xi

y si y /∈ Mcion σ mostrada en el recuadro a la derecha se lelama ciclo de orden n. A esta permutacion see denotara por (x0, . . . , xn−1). Dos ciclos (x0, . . . , xn−1) y ( y0, . . . , ym −1) se les llama

disjuntos si ningun xi es igual a algun yj.

Es importante notar que la composicion de ciclos disjuntos es conmutativa (¡pruebe-o!) pero la composicion de ciclos en general no lo es. Tambien debemos notar que

debido a las propiedades de la funcion mod n se tiene que (a , . . . , b , c) es la mismapermutacion que (c , a , . . . , b) , o sea, siempre podemos escoger el principio del ciclo.

Page 105: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 105/232

95Seccion 4.1 Permutaciones

Sea σ ∈ SN una permutaci´ on. La relaci´ on en N de fi nida por ∃n ∈ Z tal que a = σn (b) es de equivalencia.

Prueba. Tenemos a = σ0 (a) y por lo tanto es reflexiva. Si a = σn (b) y b = σm (c)

entonces a = σn+m (c) y por lo tanto es transitiva. Si a = σn (b) entonces, b = σ−n (a)

por lo que la relacion es simetrica.

A las clases de equivalencia de esta relacion se le llaman orbitas de la permutacion.

La restricci´ on de una permutaci´ on a una ´ orbita es un ciclo.

Prueba. Supongamos que M es una orbita. Sea a ∈ M. Tenemos M = σn (a) | n ∈ Z.El conjunto M no puede ser infinito por lo que existe un natural p mas pequeno tal queσ p (b) ya aparecio antes en la sucesion a, σ (a) , . . .. Observemos que σ p (a) = a por-que si no, habr ıa un numero k mayor que cero y menor que p tal que σ p (a) = σk (a)

o sea, σk (a) tendr ıa dos preimagenes diferentes σk −1 (a) 6= σ p−1 (a) y esto no pue-de ser ya que σ es una biyeccion. Dividiendo con resto cualquier entero n entre p

tenemos que n = kp + r con 0 ≤ r < p. Luego, σn (a) = σr¡

σkp (a)¢

= σr (a)

y M = σn (a) | n ∈ Z p. Esto quiere decir que la restriccion de σ a M es el ciclo

¡a, σ (a) , . . . , σ p−1 (a)

¢.

Toda permutacion es composici´ on de ciclos disjuntos.

Prueba. Solo tenemos que tomar los ciclos correspondientes a todas las orbitas ycomponerlos en cualquier orden.

Observese que la descomposicion en ciclos disjuntos de una permutacion es unicasalvo el orden de la composicion.

Ejemplo. Sea σ = (1,2,3,4) ( 4, 5) (2,6,3). Estos ciclos no son disjuntos y lapermutacion es la siguiente

1 7→ 2 , 2 7→ 6 , 3 7→ 3 , 4 7→ 5 , 5 7→ 1 , 6 7→ 4

Luego, la descomposicion en ciclos disjuntos es σ = (1,2,6,4,5) (3).

E jercicio 75 Tome una permutacion y descompongala en composicion de ciclos dis-untos. Repita el ejercicio hasta que entienda bien los conceptos de orbita y de descom-

posicion en ciclos disjuntos.E jercicio 76 ¿Cuantas orbitas tiene un ciclo? ¿Cuantas orbitas tiene la identidad? Siσ tiene k orbitas, ¿cuantas orbitas tiene σ−1?

Page 106: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 106/232

96 Cap ıtulo 4. Determinantes

El grupo alternante

Una permutacion se le llama par si en su descomposicion en ciclos disjuntos hayun n´ umero par de ciclos de orden par . En otro caso se le llama impar.

En particular, los ciclos pares son de orden impar . A los ciclos de orden 2 se les llamatransposiciones. Las transposiciones son impares. La inversa de cualquier transposi-

cion es ella misma.

Al componer una permutaci´ on con una trans-posici´ on la paridad de la permutaci´ on cambia.

Prueba. Sea σ una permutacion y τ = (a, b) una transposicion. Distingamos doscasos: que a y b estan en una misma orbita de σ o que no.

Si estan en la misma orbita M entonces escogiendo el principio del ciclo en M yrenumerando los elementos de N podemos lograr que τ = (1, k ) con k > 1 y que larestriccion de σ a M es (1 , 2 , . . . , n) con n ≥ k . Como τ (σ (k − 1)) = 1 y τ (σ (n)) = k ,obtenemos (1, k ) (1 , 2 , . . . n) = (1 , . . . , k − 1) (k , . . . , n) .

Si n es par entonces, k − 1 y n − k + 1 tienen la misma paridad por lo que la paridadde σ cambia. Si n es impar entonces k − 1 y n − k + 1 tienen diferente paridad por loque la paridad de σ cambia.

Si estan en diferentes orbitas M1 y M2 entonces escogiendo los principios de los

ciclos en M1, M2 y renumerando los elementos de N podemos lograr que τ = (1, k )con k > 1 y que la restriccion de σ a M1 es (1 , . . . , k − 1) y la restriccion de σ a M2

es (k , . . . , n). Como τ (σ (k − 1)) = k y τ (σ (n)) = 1, obtenemos que

(1, k ) (1 , . . . , k − 1) (k , . . . , n) = (1 , 2 , . . . n)

y ya vimos que (1 , . . . , k − 1) (k , . . . , n) tiene paridad diferente que (1 , 2 , . . . n).Con esto hemos demostrado que la paridad de τ σ es diferente a la de σ. La

demostracion de que a paridad de σ τ es diferente a la de σ es analoga.

Toda permutaci´ on es composici´ on de transposiciones.

Prueba. Se comprueba facilmente que (x0, . . . , xn−1) = (xn−1, x0) . . . (x2, x0) x1, x0) y esto prueba que todo ciclo se descompone en composicion de transposiciones.

La prueba se completa porque toda permutacion es composicion de ciclos.

Una permutaci on es par si y solo si es com-

posici´ on de un n´ umero par de transposiciones.

Prueba. Las transposiciones son impares. Aplicando repetitamente 4.6 obtenemos queas composiciones de un numero par de transposiciones son pares y las composiciones

Page 107: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 107/232

97Seccion 4.2 Determinantes. Propiedades basicas

de un numero impar de transposiciones es impar. La prueba se completa con 4.7.

Hay muchas descomposiciones de una misma permutacion en composicionde transposiciones. El resultado anterior nos garantiza que en dos diferentesdescomposiciones la paridad del numero de transposiciones es la misma.

Al conjunto de todas las permutaciones pares de N se le denotara por AN . La com-posicion de dos permutaciones pares es par y la inversa de una permutacion par estambien par. Luego AN es un grupo para la composicion y se le llama grupo alter-nante. Al conjunto de las permutaciones impares lo denotaremos por A−

N. Observeseque AN y A−

N tienen la misma cantidad de permutaciones e igual a n!/2 ya que elcomponer con una transposicion fi ja es una biyeccion entre AN y A−

N .

El signo de una permutacion

En todo campo K hay dos elementos notables, 1 y−

1. El primero es el neutro parael producto y el segundo es el opuesto para la suma del primero. Observese que estosdos elementos son diferentes si y solo si la caracter ıstica del campo es diferente de 2.El signo de una permutacion es la funcion sgn : SN → K que es 1 si la permutacion espar y es −1 si la permutacion es impar.

¨ sgn (π ρ) = sgn π sgn ρ

¨ sgn π −1 = sgn π

Prueba. La composicion de dos permutaciones de la misma paridad es una permu-tacion par. La composicion de dos permutaciones de diferente paridad es impar. Lasorbitas de una permutacion no cambian al tomar la inversa.

La funcion sgn jugara un papel vital en todo lo que sigue. En particular, en ladefinicion de determinante de una matriz los signos de los sumandos estan definidosprecisamente mediante la funcion sgn. Por esto, el lector debe familiarizarse muy biencon la definicion de esta funcion y sus propiedades.

El resultado 4.9 lo que quiere decir es que la funci on sgn : SN → K es un morfismo delgrupo SN al grupo multiplicativo del campo. Su imagen es 1,−1 y su nucleo es AN si elcampo es de caracter ıstica diferente de dos.

4.2 Determinantes. Propiedades basicas

Resolvamos el sistema de ecuaciones lineales de la

x = d−

b∆

y = a − c

¯ ax + by = 1

cx + dy = 1 izquierda. Denotemos ∆ = ad−

bc. Despejando xen la primera ecuacion y substituyendo en la se-

gunda obtenemos y. Substituyendo este y en alguna de las ecuacionesobtendremos x. Esta solucion es la del recuadro a la derecha.

Page 108: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 108/232

98 Cap ıtulo 4. Determinantes

Sean ahora u = (a, b) y v = (c, d) dos vectores en el plano R2

0

y

d

b

c a xp

q v

u

R2

0

y

xp

qR2

v

u

u + v como se muestra en la figura a la izquierda. Estos dos vecto-res definen un paralelogramo cuyos vertices son 0, u, u + v, v.Queremos calcular el area de este paralelogramo. Para esto,sea q el punto de interseccion de la recta u, u + v con la recta

paralela al eje x que pasa por v. Sea p el punto de interseccionde la recta u, u + v con el eje x. Es facil ver que el triangulov, q, u + v es igual al triangulo 0, p, u. Luego, el paralelogramo 0, u, u + v, v tiene areagual a la del paralelogramo 0, v, q, p. En la figura a la dere-

cha los triangulos p,a, u y 0, v,d tienen dos angulos igualeso sea son congruentes. Por el Teorema de Tales tenemos que

(b ÷ (a − p) = d ÷ c) ⇒ ( pd = ad − cb) .

Sabemos que, pd es el area (base por altura) del paralelo-

gramo 0, v, q, p. Luego, hemos demostrado que el area delparalelogramo 0, u, u + v, v es igual a ∆ = ad − bc.

Estos dos ejemplos nos dan una idea de la importancia del numero ∆ = ad − bc

para la solucion de sistemas de dos ecuaciones lineales y para el calculo de areas en R2.Los determinantes son la generalizacion de este numero a dimensiones arbitrarias.

Definicion de los determinantes

Sea N un conjunto finito. Recordemos que SN es el conjunto de todas las las per-

mutaciones de N. Si σ ∈ SN e i ∈ N entonces, denotaremos por σi la imagen de i pora permutacion σ, o sea σi es una forma corta de escribir σ (i).

El determinante de una matriz α NN es por defi-

det α NN =X

σ∈ SNsgn σ

Yi∈N

α iσinicion el elemento del campo definido por la formulaen el recuadro de la derecha. A esta formula se la co-noce como formula de Leibniz.

En los cap ıtulos anteriores ya acostumbramos al lector a las sumatorias en lascuales el conjunto de ındices es un conjunto de vectores. A partir de ahora, el lector

debera acostumbrarse a usar sumatorias en las cuales el conjunto de ındices es unconjunto de permutaciones. Es oportuno enfatizar que el orden en que se efectue lasuma no es relevante ya que la suma en cualquier campo es conmutativa

Recalquemos que el determinante de una matriz esta definido solo cuandolos conjuntos de ındices de renglones y columnas coinciden y son finitos.Por este motivo en este cap´ ı tulo todos los espacios ser´ an de dimensi´ on fi nita y todos los conjuntos de ´ ı ndices ser´ an fi nitos.

E jercicio 77 ¿Como se reescribir ıa la definicion de determinante usando que AN esel conjunto de las permutaciones pares y A−

N el de las impares?.

Page 109: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 109/232

99Seccion 4.2 Determinantes. Propiedades basicas

Determinantes de matrices pequenas

Interpretemos esta definicion para conjuntos N con pocos elementos. Si |N| = 1

entonces la matriz α NN consta de una sola entrada y su determinante es esta entrada.

Si, digamos N = 1, 2 entonces tenemos 2 permutaciones de N queµα 11 α 12

α 21 α 22¶+—

son I y (1, 2). A la primera le corresponde el sumando α 11 α 12 y ala segunda el sumando −α 12 α 21 . Graficamente, cuando N = 1, 2 el

determinante es la suma de los dos productos que se muestran en el recuadro.

Pongamos ahora N = 1,2,3. Hay 6 permutaciones de N y estas son I, (1,2,3),

⎝α 11 α 12 α 13

α 21 α 22 α 23

α 31 α 32 α 33

1,3,2), (2, 3), (1, 2) y (1, 3). Las tres primeras son de signo positivo y se correspondencon los tres sumandos α 11 α 22 α 33 , α 12 α 23 α 31 y α 13 α 21 α 32 . Grafica-mente, estos tres sumandos se pueden representar por la diagonalprincipal de la matriz y los dos “triangulos” con lados paralelos

a esta diagonal como se muestra en el recuadro de la derecha.Las otras tres permutaciones tienen signo negativo y se corresponden con los suman-⎛

⎝α 11 α 12 α 13

α 21 α 22 α 23

α 31 α 32 α 33

⎞⎠

dos −α 11 α 23 α 32 , −α 12 α 21 α 33 y −α 13 α 22 α 31 . Graficamente, estostres sumandos se pueden representar por la diagonal alterna de lamatriz y los dos “triangulos” con lados paralelos a esta diagonalcomo se muestra en el recuadro de la izquierda.

El numero de sumandos en la definicion del determinante es |SN | = |N| !. Estenumero crece rapidamente con |N| como se ve en la siguiente tabla

n 1 2 3 4 5 6 7 8 9 10

n! 1 2 6 24 120 720 5, 040 40, 320 362, 880 30628, 800

Por esto, calcular determinantes con directamente de la definicion es muy ineficiente.

El determinante de la identidad

Ya vimos que el conjunto de matrices α NN es un algebra respecto al producto y

δij =

¯ 1 si i = j

0 si i 6= jµ 1 0

0 1

¶suma de matrices y multiplicacion por elementos del campo. El elemento neutro parael producto lo llamamos matriz identidad, denotamos INN yes la matriz cuyas entradas son iguales al delta de Kroneckerδij definido en el recuadro a la derecha. Cuando el conjunto de

ındices esta ordenado, la matriz identidad se puede representar grafica-mente como una que tiene unos en la diagonal y ceros en todas las demasentradas como se muestra en el recuadro a la izquierda para una matriz

de dos renglones y columnas.

El determinante de la matriz identidad es 1. det INN = 1

Prueba. Si la permutacion σ ∈ SN no es la identidad entonces hay un i ∈ N tal que

Page 110: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 110/232

100 Cap ıtulo 4. Determinantes

i 6= σi y por lo tanto Q

i∈N δiσi = 0. Luego,

det INN =X

σ∈SNsgn σ

Yi∈N

δiσi = sgn (IN )

Yi∈N

δii = 1.

Matrices con filas nulas

Si una matriz tiene una columna o un ren-gl´ on nulo entonces, su determinante es cero.

Prueba. Cada sumando de los determinantes Q

i∈N α iσi contiene como factor una

entrada de cada renglon. Si un renglon es nulo entonces, todos estos sumandos tienenun factor cero y por lo tanto la suma de todos ellos es cero. Lo mismo ocurre con las

columnas.

El determinante de la transpuesta

Dada una matriz α MN su transpuesta se define ⎛⎜⎜⎝

α 11 α 12 α 13 α 14

α 21 α 22 α 23 α 24

α 31 α 32 α 33 α 34

α 41 α 42 α 43 α 44

⎞⎟⎟⎠ T

como la matriz βNM = α TMN tal que βij = α ji. Grafica-mente la operacion de transponer una matriz es haceruna reflexion con respecto a la diagonal de la matriz.Observese que el conjunto de ındices de los renglones

de la matriz α TNM es M y no N como se podr ıa pensarde los sub ındices. La notacion es as ı porque pensamosa transpuesta como la aplicacion de la operacion de transposicion.

El determinante no se altera al transponer una matriz. det A = det AT

Prueba. Tenemos que demostrar que det α NN = det α T NN . Efectivamente, por la

definiciondet α T

NN =X

σ∈SNsgn σ

Yi∈N

α σi i =

∙ cambio de variable

ω = σ−1

¸ =

Xω∈ SN

sgn ωYi∈N

α ω−1 (i)i =

=

∙ cambio de variable

j = ω−1 (i)

¸ =

Xω∈ SN

sgn ωYj∈N

α jωj = det α NN .

El determinante del producto

La siguiente propiedad basica de los determinantes es probablemente la mas impor-tante para el algebra lineal. Como la demostracion de esta propiedad es laboriosa, lerecomiendo al lector omitirla en una primera lectura. La complejidad de esta demostra-cion es el precio que tenemos que pagar por dar una definicion directa del determinante.

Page 111: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 111/232

101Seccion 4.2 Determinantes. Propiedades basicas

Teorema del determinante del producto

El determinante del producto de dos matrices es igual al producto de los determinantes de las dos matrices.

det AB = det A det B

Prueba. Sean A = α

NN y B = β

NN . Para el objeto de esta demostracion denotemospor FN el conjunto de todas las funciones de N en N. Claramente SN ⊂ FN . Sea,

ademas, TNdef = FN \ SN el conjunto de todas las funciones no biyectivas de N en N.

Por la definicion de determinante y de producto de matrices tenemos

det AB =X

σ∈ SNsgn σ

Yi∈N

Xj∈N

α ijβjσi

y usando la formula Q

i∈N

Pj∈N γij =

Pω∈FN

Qi∈N γiωi

(Sec. 1.6, pag. 22) obtenemos

det AB = Xσ∈ SN sgn σ X

ω∈TN Yi∈Nα iωi βωiσi + X

σ∈SN sgn σ Xω∈SN Yi∈N

α iωi βωiσi

Denotando por ∇ el primer sumando nuestro determinante se convierte en

= ∇ +X

σ∈ SNsgn σ

Xω∈ SN

Yi∈N

α iωiβωiσi

=

∙ cambio de variable

σ = ρ ω

¸ =

= ∇ +X

ρ∈ SN

Xω∈ SN

sgn (ρ ω)Yi∈N

α iωi

Yj∈N

βωjρ(ωj) =

∙ cambio de var

k = ωj

¸ =

= ∇ +Ã Xω∈ SN

sgn ωYi∈N

α iωi!ÃXρ∈ SN

sgn ρYk ∈N

βk ρk! = ∇ + det A det B

O sea, para completar la demostracion tenemos que probar que ∇ = 0. Para esto

recordemos que AN es el subgrupo de las permutaciones pares e A−

N es el conjunto detodas las permutaciones impares. Si observamos detenidamente la definicion de ∇

∇ =X

ω∈TN

Xσ∈ SN

sgn σYi∈N

α iωiβωiσi

vemos que para probar

∇= 0 es suficiente construir para cada ω

∈ TN una biyeccion

f : AN → A−N tal que si θ = f (σ) entonces,Yi∈N

α iωiβωiσi

=Yi∈N

α iωiβωiθi

Esto nos garantizara que cada sumando positivo se cancele con otro negativo.Sea ω ∈ TN arbitraria pero fi ja. Como ω no es una biyeccion existen j, k ∈ N

tales que ω (j) = ω (k ) . Sea t ∈ A−

N la transposicion que intercambia j y k. Seaf : AN 3 σ 7

→ σ t ∈ A−

N. La funcion f es biyectiva ya que su inversa es θ 7

→ θ t.

Ademas, tenemosYi∈N

α iωiβωi (σt)i

= α jωjβωjσk

α k ωkβωkσj

Yi∈N\j,k

α iωiβωiσi

= Yi∈N

α iωiβωiσi

donde la ultima igualdad es valida porque ωj = ωk .

Page 112: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 112/232

102 Cap ıtulo 4. Determinantes

Matrices con filas iguales

Si una matriz tiene dos columnas o dos renglo-nes iguales entonces su determinante es cero.

Prueba. Supongamos que para α NN se tiene que α jM = α kM o sea, los renglones j yk son iguales. Todo sumando del determinante depende exactamente de una entradaen el renglon j y de otra en el renglon j. Luego, podemos escribir

det α NN =X

σ∈ SNα jσj

α k σk sgn σ

Yi∈N\j,k

α iσi.

Denotemos ρ la transposicion (j, k ). La funcion Φ : SN 3 σ 7→ σ ρ ∈ SN es unabiyeccion y el sumando correspondiente a σ ρ es igual a

α jσk α k σj sgn (σ ρ) Yi∈N\j,k

α iσi

pero como α jσk = α k σk

y α k σj = α jσj

entonces, α jσkα k σj

sgn (σ ρ) = −α jσjα k σk

sgn σ.Esto significa que Φ es una biyeccion que transforma a un sumando en su negativo ypor lo tanto det α NN = 0. La prueba para las columnas se obtiene transponiendo lamatriz.

Matrices de permutaciones

Sean M y N dos conjuntos finitos y φ : M → N unaφij =

¯ 1 si j = φ (i)

0 en otro casobiyeccion. Denotaremos por φMN a la matriz cuyas en-tradas estan definidas como en el recuadro. A esta matriza llamaremos matriz de la biyeccion φ. Como φ es una biyeccion entonces la matriz

φMN tiene la misma cantidad de renglones y de columnas. Ademas, en cada columnay cada renglon de φMN hay exactamente una entrada igual a 1 y las demas son cero.

Haremos un buen uso de las matrices de biyecciones en la proxima seccion. Aqu ı es-taremos interesados solo en el caso particular cuando N = M, o sea, que φ es una

permutacion. En este caso a φNN se le llama matriz de la permutacion φ.

Si φ y σ son dos permutaciones de N entonces, el producto φNN σNN

de las matrices de permutaciones es la matriz de la permutaci´ on σ φ.

Prueba. Denotemos γNN

def = φNN σNN . Tenemos que

γij = Xk ∈N

φik σkj = σφ(i)j = ¯ 1 si j = σ (φ (i))

0 en otro casoy esta es la definicion de la matriz de la permutacion σ φ.

El resultado anterior se puede escribir de forma corta como φNN σNN = (σ φ)NN .¿Que querra decir φ−1

NN ? Hay dos formas de interpretarlo y en el siguiente resultado se

Page 113: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 113/232

103Seccion 4.2 Determinantes. Propiedades basicas

demuestra que ambas producen la misma matriz.

La matriz de la inversa de una permutaci´ on es igual a la inversa de la matriz de la permutaci´ on.

¡φ−1

¢NN

= (φNN )−1

Prueba. Sea φ una permutacion φNN su matriz y γNN la matriz de φ−1. Por 4.15

tenemos que φNN γNN =¡

φ−1 φ¢

NN = INN . O sea, γNN = (φNN )

−1.

E jercicio 78 ¿Cual es la TL de la matriz de una permutacion? ¿Que tienen que ver4.15 y 4.16 con que la correspondencia entre matrices y TL es un morfismo de algebras?

E jercicio 79 Demuestre que la transpuesta de la matriz de la permutacion φ es lamatriz de la permutacion φ−1.

E jercicio 80 Pruebe que (AB)T = BTAT y ¡AT¢−1 = ¡A−1¢T.

El determinante de la matriz de una permu-taci´ on es igual al signo de la permutaci´ on.

det φNN = sgn φ

Prueba. Sea φ una permutacion y φNN su matriz. Por definicion tenemos que

det φNN = Xσ∈ SN

sgn σYi∈N

φiσi .

Por otro lado, por definicion de φNN tenemos queYi∈N

φiσi =

¯ 1 si σ = φ

0 en otro caso .

Usando estas dos igualdades obtenemos la prueba.

Permutaciones de columnas y renglones

Bueno, ¿y que pasa si multiplicamos una matriz arbitraria por una matriz de per-mutaciones?

Sea α MN cualquier matriz y φNN la matriz de la permutaci´ on φ.El resultado del producto α MNφNN es la matriz α MN a la que se le han permutado las columnas usando la permutaci´ on φ.

Prueba. Sea γMN = α MNφNN . Tenemos γij =

Xk ∈N

α ik φkj = α iφ−1 (j)

y por lo tanto γMj = α Mφ−1 (j) o lo que es lo mismo γMφ(j) = α Mj. Mas descriptivamente,

Page 114: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 114/232

104 Cap ıtulo 4. Determinantes

a columna j de la matriz α MN tiene ındice φ (j) en la matriz γMN .

En este recuadro se ilustra graficamente que es lo que pasa⎛

⎜⎜⎝

α 11 α 12 α 13 α 14

α 21 α 22 α 23 α 24

α 31 α 32 α 33 α 34

α 41 α 42 α 43 α 44

⎟⎟⎠

cuando se permuta una matriz generica de 4 renglones ycolumnas usando la permutacion 1 7→ 2 7→ 4 7→ 1. Losprincipios de las flechas marcan las columnas que se moveran

y los finales de las flechas marcan el lugar donde quedaranlas columnas.

Al permutar las columnas de una matriz con la permutaci´ on φ, el determinante se multiplica por un factor igual a sgn φ.

Prueba. Al permutar la columnas lo que estamos haciendo es multiplicar la matrizpor la matriz de φ. Por 4.17 el determinante de la matriz de φ es igual al signo de φ.

Usando el Teorema del determinante del producto concluimos la demostracion.

¿Que pasa con los renglones? Pues lo mismo, solo hay que multiplicar por el otro la-do. El lector puede modificar los razonamientos anteriores para el caso de los renglones.Tambien puede tomar la via rapida: permutar los renglones de una matriz es lo mismo

que permutar las columnas de la transpuesta y entonces¡

α TMN φMM

¢T= φT

MM α MN =

φ−1MM α MN (veanse los ejercicios 79 y 80). Esto quiere decir que si multiplicamos por

a izquierda con la matriz de permutaciones φ−1MM entonces los renglones se permutan

mediante la permutacion φ y el determinante cambia igual (ya que sgn φ = sgn φ

−1

).

4.3 Expansion de Laplace

En esta seccion encontraremos una descomposicion de los determinantes como unacombinacion lineal de determinantes de matrices mas pequenas. Despues veremos im-portantes consecuencias de esta expansion, en particular que una matriz tiene inversasi y solo si esta tiene determinante diferente de cero.

Cambios de ındices

Sea α MN una matriz y φ : N → L una biyeccion. Sea φNL la matriz de la biyeccionφ (vease la pagina 102). Podemos construir una matriz βML por la formula βML =

α MNφNL . A esta operacion la llamaremos cambio de ındices de las columnas dea matriz α MN mediante la biyeccion φ. De la misma manera se definen los cambios

de ındices de los renglones. Observese que las permutaciones de las columnas y losrenglones son un caso particular de los cambios de ındices cuando N = L. Si N 6= L

entonces, podemos pensar que hacer un cambio de ındices de las columnas es darlenuevos nombres a estas.

Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnascoinciden. A este numero comun se le llama orden de la matriz. Necesitaremos los

Page 115: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 115/232

105Seccion 4.3 Expansion de Laplace

cambios de ındices para definir los determinantes de las matrices cuadradas. As ı, siφ : N → M es una biyeccion entonces, podrıamos definir det α MN = det α MN φNM . Elunico “pero” es que, en principio, esta definicion no solo depende de la matriz α NM

sino tambien de la biyeccion φ. El cuanto depende esta definicion de φ lo responde lasiguiente proposicion.

Si φ y ϕ son dos biyecciones de N en M enton-ces, det α MNφNM = sgn

¡φ ϕ−1

¢det α MN ϕNM .

Prueba. Usando Teorema del determinante del producto (4.13) obtenemos que

det α MN φNM = det α MN ϕNM ϕ−1NM φNM = det α MN ϕNM det ϕ−1

NM φNM

Ahora, observese que φ ϕ−1es una permutacion de M y que la matriz de esta per-mutacion es ϕ−1

NM

φNM

cuyo determinante es igual (por 4.17) a sgn ¡φ

ϕ−1¢.

No podemos poner la conclusion de este resultado como sgn φ det α MN φNM =

sgn ϕ det α MN ϕNM ya que como φ y ϕ son biyecciones de N en M ningunade las dos tiene signo.

Como el signo de cualquier permutacion es o 1 o −1 esto quiere decir que el deter-minante det α NM esta definido “salvo signo” o sea, que hay un elemento a ∈ K tal queel determinante es a o es −a. En un campo de caracter ıstica dos esto es irrelevante ya

que en este caso 1 = −

1. Sin embargo en los casos mas importantes (R y C) de queel campo sea de caracter ıstica diferente de dos tenemos una ambiguedad al definir eldeterminante det α NM .

Esta ambiguedad se resuelve en diferentes casos de varias maneras. En muchos casosno nos interesa el valor concreto det α MN sino solamente saber si es cierto o no quedet α MN = 0. Si este es el caso entonces, en realidad no nos importa que biyeccionse escogio para calcular el determinante. Por ejemplo, una matriz cuadrada α MN see llama singular si det α MN = 0, en el caso contrario se le llama no singular. Es

claro, que el ser singular o no singular NO depende de la biyeccion escogida para definirdet α MN . Otro ejemplo, es que si una matriz tiene una columna o rengl on nulo entoncessu determinante es cero.

En otros casos lo importante no es el valor de algun determinante sino una igualdadentre estos. Al cambiar los ındices en ambos lados de la igualdad los determinantescambian en el mismo signo y la igualdad es cierta independientemente de los cambios dendices escogidos. Por ejemplo, las igualdades det α MN = det α T

MN y det (α LM βMN ) =

det α LM det βMN son validas independientemente de los cambios de ındices usados para

definir los determinantes.En otros casos hay una biyeccion natural que nos dice cual debe ser el valor de

det α MN . Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales.En este caso podemos siempre escoger la unica biyeccion que conserva el orden. Por

Page 116: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 116/232

106 Cap ıtulo 4. Determinantes

ejemplo si N = 2,3,7 y M = 1,4,5 entonces la biyeccion es 2 → 1, 3 → 4, 7 → 5.

¿Y por que no escoger de los dos posibles valores el que sea mayor que cero?Primero, a veces se necesita el valor del signo del determinante y segundo¿que quiere decir que 0 < x ∈ Z5? La desigualdad 0 < x solo tiene sentido siel campo esta ordenado. Este es el caso de R pero no el de Z p ni el de C.

En muchos de los textos de algebra lineal esta ambiguedad se resuelve postulando que losconjuntos de ındices siempre tienen que ser conjuntos de naturales. Esto no solamente esinnecesario, sino que tambien hace la exposicion mas compleja y conceptualmente menos

clara. Por ejemplo, las matrices de cambio de base estan naturalmente indexadas por conjuntos devectores que no poseen un orden natural.

Complementos algebraicos

Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual

todo es mas facil. Sea α NN una matriz y sean i, j ∈ N. La matriz α N\i N\j se obtienede la matriz α NN eliminando el renglon i y la columna j. ¿Habra una manera naturalde definir el determinante de α N\i N\j?. Veremos que si.

Sea ϕ : N\j → N\i. una biyeccion cualquiera. Podemos definir ϕ (j) = i y de

sgn ϕ det α N\i N\jϕN\jN\iesta manera ϕ se convierte en una permutacion de N.Definamos el determinante det α N\i N\j con la expresiondel recuadro a la derecha. Parecer ıa que no hemos hecho nada ya que en principio estadefinicion depende de ϕ.

La expresi´ on sgn ϕ det α N\i N\jϕN\jN\i no depende de ϕ.

Prueba. Sea ω otra permutacion de N tal que ω (j) = i. Aqu ı hay que tener cuidado.Por un lado ω es una biyeccion de N\j en N\i y por otro es una permutacion deN. Otro tanto ocurre con ϕ. Para evitar confusiones, a las permutaciones de N lasdenotaremos en esta demostracion por ω y ϕ respectivamente. Por 4.20 tenemos que

det α N\i N\jϕN\jN\i = sgn ¡ϕ ω−1¢det α N\i N\jωN\jN\i. Observese que ϕω

−1

es unapermutacion de N\i. ¿Que pasa con ω ϕ−1? Pues, en todo elemento de N\i coincidecon ω ϕ−1 y ademas ϕ ω−1 (i) = i. Luego sgn

¡ϕ ω−1

¢ = sgn

¡ϕ ω−1

¢ y por

as propiedades de la funcion signo se tiene que sgn¡

ϕ ω−1¢

= sgn ϕ sgn ω. Luegodet α N\i N\jϕN\jN\i = sgn ϕ sgn ω det α N\i N\jωN\jN\i y pasando sgn ϕ al otro lado dea igualdad terminamos la prueba.

Ahora, podemos dar la siguiente definicion. Si α ij es una entrada de la matriz A =α NN entonces el complemento algebraico de α ij es α ∗ij = sgn ϕ det α N\i N\jϕN\jN\i

donde ϕ es cualquier permutacion de N tal que ϕ (j) = i. A los complementos al-gebraicos tambien se les llama cofactores. La matriz α ∗NN cuyas entradas son loscomplemento algebraicos α ∗ij es la matriz de los complementos algebraicos deα NN o matriz de cofactores de α NN .

Page 117: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 117/232

107Seccion 4.3 Expansion de Laplace

La expansion de un determinante por sus renglones

Teorema de Expansion de Laplace

Sea α iN un rengl´ on arbitrario de la matriz α NN .

El determinante de α NN es igual a la suma de las entradas del rengl´ on por sus cofactores.

det α NN =

Xj∈N

α ijα ∗ij

Prueba. Si i ∈ N entonces tenemos la particion del grupo simetrico en el [j∈N

Si→jN

recuadro a la derecha donde Si→jN = σ ∈ SN | σ (i) = j . Luego, aplicando

a definicion de determinante y sacando factor comun obtenemos

det α NN =

Xj∈N

α ij

Xσ∈Si→

j

N

sgn σ

Yn

∈N\i

α nσn

Sea ω una permutacion de N tal que ω (j) = i. Hagamos el cambio de variableρ = ω σ en la sumatoria interior. Tenemos ρ (i) = i o sea, ρ ∈ Si→i

N = SN\i. Luego,

det α NN =Xj∈N

α ij sgn ωX

ρ∈SN\i

sgn ρY

n∈N\i

α nω−1 (ρn )

=Xj∈N

α ij sgn ω det α N\i N\jωN\jN\i =Xj∈N

α ijα ∗ij

donde la ultima igualdad se obtiene por la definicion de α ∗ij.Como es natural hay un teorema exactamente igual a este correspondiente a las

columnas. El lector debe observar que este teorema se expresa en forma mas compactausando el producto escalar canonico de N-adas: det α NN = α iN α ∗iN .

La expansion de Laplace en forma grafica

El Teorema de expansion de Laplace es la primera herramienta (aparte de la de-finicion) de que disponemos para calcular determinantes. Este reduce el problema a

calcular varios determinantes de matrices mas pequenas. Es especialmente util cuandohay renglones (o columnas) con muchos ceros.

Sin embargo, todav ıa debemos precisar el como calcular los cofactores en formagrafica. Si bien, la definicion de estos es sencilla necesitamos una biyeccion simple deN\i en N\j que facilite los calculos cuando N esta ordenado o sea N = 1,...,n.

Sea por ejemplo i = 2 y j = 7. En este caso, la biyec-1 3 4 5 6 7 8 ... n

↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓1 2 3 4 5 6 8 ... n

cion natural de N\2 en N\7 es la que se muestra enel recuadro y la llamaremos ϕ. Tenemos que definir

ϕ (2) = 7 para completar una permutacion de N.Sabemos que ϕ transforma 7 7→ 6 7→ 5 7→ 4 7→ 3 7→ 2 7→ 7 y que deja fi jos a todos

os demas elementos de N. Luego, ϕ es un ciclo de longitud j − i + 1 (si i > j entonceses un ciclo de longitud i − j + 1).

Page 118: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 118/232

108 Cap ıtulo 4. Determinantes

Como todo ciclo de orden par tiene signo negativo y todo de ⎛⎜⎜⎝

+ − + −

− + − ++ − + −

− + − +

⎞⎟⎟⎠

orden impar tiene signo positivo obtenemos sgn ϕ = (−1)i+j lo

que es muy sencillo ya que es la “regla del tablero de aje-drez”. A la derecha se muestra el sgn ϕ para una matriz con 4renglones y columnas. Observese el parecido con el tablero.

Con estas permutaciones, los complementos algebraicos tienen una interpretacion

−det

⎛⎜⎜⎝

α 11 α 12 α 13 α 14

α 21 α 22 α 23 α 24

α 31 α 32 α 33 α 34

α 41 α 42 α 43 α 44

⎞⎟⎟⎠

grafica muy sencilla. Si se quiere sacar el complemento algebraico de α ij entoncestachese el renglon i, tachese la columna j, saqueseel determinante de la matriz que queda y finalmentemultipl ıquese por el signo de la regla del tablero deajedrez. As ı por ejemplo, en el recuadro se mues-tra una matriz de orden cuatro en la cual estamoscalculando el complemento algebraico de α 23 .

Al matematico y f ısico Pierre-Simon Laplace (Francia 1749-1827) se le conoce fundamentalmente por sus trabajos en me-

canica celeste, ecuaciones diferenciales y teor ıa de las probabi-

lidades. El publico la demostracion del Teorema de Expansion

de Laplace (4.22) en 1772 en un art ıculo donde estudiaba las

orbitas de los planetas interiores del sistema solar. En este

art ıculo, Laplace analizo el problema de solucion de sistemas

de ecuaciones lineales mediante el uso de determinantes.

E jercicio 81 Tome una matriz y calcule su determinante usando el teorema de des-composicion de Laplace. Repita hasta que usted este satisfecho.

E jercicio 82 Demuestre que el determinante de la matriz α ij = Y1≤i<j≤n

(xj − xi)xi−1j es igual a la expresion en el recuadro a la derecha. A este

determinante se le conoce como determinante de Vandermondey la matriz tiene el mismo nombre. [191]

La expansion de Laplace reduce el calculo del determinante de una matriz al calculo de de-terminantes de matrices mas pequenas. Por esto es tambien usada para dar la definicion dedeterminante mediante induccion. En este caso, la formula de Leibniz es una consecuenciade esta definicion.

Multinearidad de los determinantes

El determinante se puede ver como una funcion del espacio de matrices en el campo.

¿Sera el determinante una TL? ¿Se cumplira que det (A + B) = det A + det B? Larespuesta es NO. Para probar que no, basta ver un ejemplo. Para las siguientes matrices

A =

µ 1 0

0 0

¶, B =

µ 0 0

0 1

Page 119: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 119/232

109Seccion 4.3 Expansion de Laplace

tenemos det A + det B = 0 6= 1 = det (A + B). Sin embargo, los determinantes cumplenuna propiedad bastante parecida.

Sea E un espacio vectorial sobre el campo K. A las TL de E en K se le llamafuncionales lineales del espacio E. En esta terminolog ıa vemos que la propiedaddet (A + B) 6= det A + det B lo que quiere decir es que el determinante NO es un

funcional lineal del espacio vectorial de las matrices. Pasemos a considerar una funcionf con valor enK de dos variables x, y que toman sus valores en E o sea, f : E2 3 ( x, y) 7→f ( x, y) ∈ K. Como E2 es un espacio vectorial sobre K entonces podr ıa suceder que f

sea un funcional lineal. Sin embargo, hay una propiedad un poco mas sutil que podrıacumplir la funcion f y es que sea lineal en la primera variable. En otras palabras,que ∀y ∈ E se cumple que f (a + b, y) = f (a , y) + f (b, y) y f (λa , y) = λf (a , y).Analogamente, se define la propiedad de que f sea lineal en la segunda variable.Si f es lineal en las dos variables entonces, se dice que f es un funcional bilineal (el

“bi” es porque son dos variables).Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyocaso nos referiremos a los funcionales multilineales. Mas rigurosamente, sea f :EN → K una funcion donde N es un conjunto de variables. Sea i ∈ N una variable.Podemos pensar a f como una funcion de dos variables f : EN\i ⊕ E → K. Si ∀y ∈ EN\i

a funcion E 3 x 7→ f (y, x) ∈ K es un funcional lineal entonces, diremos que f esineal en la variable i. Diremos que f es un funcional multilineal si f es lineal en

todas sus variables. Por ejemplo, la funcion f : R3 3 (x,y,z ) 7

→x + y + z ∈ R es un

funcional lineal. La funcion g : R3 3 (x,y,z ) 7→ xyz ∈ R es un funcional multilineal

porque (x + x0) yz = xyz + x0 yz y tambien para las otras variables. Observese que f

no es multilineal y que g no es lineal.Ahora queremos ver que los determinantes son funcionales multilineales. El espacio

de matrices KNN es isomorfo a¡KN¢N

. Un isomorfismo de estos es el que a cada matrize hace corresponder la N-ada de sus renglones. Luego, podemos pensar el determinante

como un funcional cuyas variables son los renglones y que toma valores en el campo.

El determinante es un funcional multilineal de los renglones.

Prueba. Para probar que un funcional es multilineal hay que probar que es lineal encada variable. Sea i ∈ N arbitrario pero fi jo en toda esta prueba. Sea A = α NN unamatriz tal que su i-esimo renglon es la suma de dos N-adas xN y yN. Sea B la mismamatriz que A excepto que su i-esimo renglon es xN . Sea C la misma matriz que A

excepto que su i-esimo renglon es yN. Tenemos que probar que det A = det B + det C.(Si el lector no entiende porque entonces, debe regresar al principio de esta seccion y

volver a pensar en la definicion de funcional multilineal.) Usando la descomposicion deLaplace por el renglon i obtenemos

det α NN = α iN α ∗iN = (xN + yN) α ∗iN = xN α ∗iN + yN α ∗iN = det B + det C

donde la ultima igualdad se cumple porque los cofactores de las de las las entradas del

Page 120: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 120/232

110 Cap ıtulo 4. Determinantes

renglon i son los mismos en las matrices A, B y C (recuerdese que hay que “tachar” elrenglon i).

Sea ahora A = α NN una matriz tal que su i-esimo renglon es λxN . Sea B la mismamatriz que A excepto que su i-esimo renglon es xN . Usando la descomposicion deLaplace por el renglon i obtenemos det α NN = α iN α ∗iN = λxN α ∗iN = λ det B.

Por transposicion el determinante es tambien multilineal en las columnas.

Los determinantes son los unicos funcionales multilineales de los renglones que son igualesa 1 en la matriz identidad y que cambian por un factor de sgn θ cuando se permutanlos renglones con la permutacion θ. Esto permite dar una definicion alternativa de losdeterminantes. El primer problema aqu ı es demostrar la existencia del determinante.

La inversa de una matriz

Recordemos que, dada una matriz α MN decimos que α −1

MN

es la matriz inversa deα MN si se cumple que α MNα −1

MN = IMM y α −1MN α MN = INN . Mediante el isomorfismo

de las matrices con las TLs concluimos que α MN y α −1MN son la matrices de dos TLs

una la inversa de otra y por lo tanto estas TLs son isomorfismos. Luego, si α MN tienenversa entonces, ella es cuadrada.

Si las matrices βNL y α MN tienen inver-sa entonces, (α MNβNL )

−1= β−1

NL α −1MN.

(AB)−1 = B−1A−1

Prueba. Usando el isomorfismo de las matrices con las TL la prueba se reduce a laya conocida por nosotros igualdad (f g)−

1= g−1 f−1.

Sea ϕ : N → M cualquier biyeccion y ϕNM la matriz de esa biyeccion. La matrizϕNM siempre tiene inversa e igual a la matriz de la biyeccion ϕ−1. Usando el resultadoanterior obtenemos que ϕNM (α MNϕNM )−

1= α −1

MN.O sea, cualquier cambio de ındicesapropiado reduce el calculo de matrices inversas al caso en que el conjunto de columnascoincide con el conjunto de renglones. Por esto, nos olvidaremos un poco de los ındicespara poder enunciar mas facilmente nuestros resultados.

La siguiente proposicion nos dice que en ciertos casos para probar que una matrizes inversa de otra es suficiente comprobar una de las dos igualdades involucradas ena definicion. Aqu ı, la clave es que las matrices son finitas y cuadradas lo que significa

que sus TLs son entre espacios de la misma dimension finita.

Si AB = I entonces, BA = I.

Prueba. Sean f, g : KM → KM las TLs de las matrices A y B respectivamente.Mediante el isomorfismo de las matrices con las TLs concluimos que f g = I. De 3.29(pagina 85) obtenemos que g f = I y por lo tanto BA = I.

Page 121: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 121/232

111Seccion 4.3 Expansion de Laplace

Si una matriz tiene inversa entonces ella es no singular. Adem´ as, det A−1 = (det A)

−1.

Prueba. Por definicion de matriz inversa y el Teorema del determinante del productotenemos que 1 = det I = det ¡AA−1¢ = det A det A−1. De esta igualdad obtenemos que

det A 6= 0 y det A−1 = (det A)−1.

Para probar que el rec ıproco de esta afirmacion tambien es cierto, lo que haremoses construir la matriz inversa en el caso de que el determinante sea diferente de cero.

Si A es una matriz no singular entonces, su inversa es la transpuesta de la matriz de sus cofactores dividida por el determinante de A.

A−1 = A∗T

det A

Prueba. Para hacer la demostracion lo que hay que hacer es multiplicar. Sea α MM =

A y B = βMM = (det A)−1

A∗T . Tenemos βMj = (det A)−1

α ∗jM y de la definicionde producto de matrices obtenemos que la entrada ij de la matriz AB es igual aα iM βMj = (det A)−

1α iM α ∗jM . Si i = j entonces α iM α ∗jM es la expansion de Laplace del

det A por el renglon i de lo que obtenemos que α iM βMj = 1.Solo queda probar que α iM α ∗jM = 0 si i 6= j. Si nos fi jamos atentamente, vemos que

esta es la expansion de Laplace por el renglon j del determinante de la matriz C obtenidade la matriz A substituyendo el renglon j por el renglon i. Como la matriz C tiene dosrenglones iguales entonces, su determinante es cero y necesariamente α iM α ∗jM = 0.

El determinante de un operador lineal

Sea f ∈ End E un OL. Si escogemos una base de E entonces en esta base el OL f

tiene por coordenadas una matriz A. Podr ıamos definir det f = det A. Sin embargo, no

nos queda claro si esta definicion depende o no de como hallamos escogido la base.

Si A y B son las matrices de f ∈ End E

en dos bases entonces, det A = det B.

Prueba. Sean A = α MM y B = βNN las matrices de f en las bases M y N respectiva-mente. Por la formula del cambio de bases para matrices (3.23) tenemos B = γNM A γ−1

NM

donde γNM es la matriz de cambio de la base M a la base N. Tenemosdet βNN = det

¡ γNM α MM γ−1

NM

¢ = det γNM det α MM det γ−1

NM = det α MM

ya que por 4.26 la igualdad det γNM (det γNM )−1

= 1 es cierta e independiente delcambio de ındices que se utilize para definir el determinante de γNM .

Page 122: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 122/232

112 Cap ıtulo 4. Determinantes

El determinante de un OL f ¡en un espacio de dimension finita! es pordefinicion el determinante de su matriz en alguna base y este escalar nodepende de la base escogida.

Esta definicion nos permite traducir propiedades de las matrices a los OLs. Porejemplo, un OL es biyectivo si y solo si su determinante es diferente de cero.

El determinante de un OL en Rn

tiene una importante interpretacion geometrica: Si A esun subconjunto de Rn que tiene “volumen n-dimensional” (su medida de Lebesgue) iguala vol A ∈ R+ y f es un OL entonces vol f (A) = |det f| vol A. En particular, los OLs de

determinante 1 o −1 son los que “preservan el volumen”. Si el lector se intimida con lo de “volumenn-dimensional”, entonces es mejor que piense en el area en el plano R2 .

El signo del determinante de un OL en Rn tiene otra importante interpretacion geometrica.El espacio Rn es un espacio “orientado”. Esto, intuitivamente, lo que quiere decir es que pormucho que alquien trate de convertir su mano derecha en su mano izquierda no lo lograr a,

a menos que use un espejo. Matematicamente, las reflexiones invierten la “orientacion” del espacio.

Todo lo que es derecho se convierte en izquierdo y rec ıprocamente. Por eso las reflexiones tienen enR3 determinante negativo. Los OLs en Rn que tienen determinante positivo son los que preservan la“orientacion” y los que tienen determinante negativo son los que invierten la “orientacion”

4.4 La expansion generalizada de Laplace

Ahora generalizaremos dramaticamente el teorema de expansion de Laplace. Sea

α NN una matriz y I, J subconjuntos de N de la misma cardinalidad. Para ahorrarnosmucha escritura, denotemos I0 = N\I y J0 = N\J. Ademas, denotemos por ∇IJ =

det α IJ el determinante de la matriz cuyas columnas son las de J y cuyos renglonesson los de I. Claro, este determinante esta definido solo salvo signo. De los signosno nos preocuparemos ahora sino solo mas adelante. Por otro lado, denotemos por∆IJ = det α I0J0 el determinante de la matriz cuyas columnas son las que no estan enJ y cuyos renglones son los que no estan en I (no nos preocupemos por los signos).En estas notaciones, un sumando del Teorema de expansion de Laplace es de la forma

∇IJ∆

IJ donde I

y J

son subconjuntos de cardinal 1. Nos gustar´ı

a tener un teorema deexpansion donde los subconjuntos sean de un cardinal fi jo pero arbitrario.

Para esto, ahora s ı nos tenemos que preocupar por los signos. Sin embargo, lasiguiente proposicion nos dice que esto realmente no es un problema. Sea φ cualquierpermutacion de N tal que φ (J) = I y por lo tanto φ (J0) = I0. La restriccion de φ a J

y la restriccion de φ a J0 son biyeccciones y sus matrices se denotaran por φJI y φJ0I0

respectivamente.

La expresi´ on sgn φ det α IJφJI det α I0J0φJ0I0

no depende de la permutaci´ on φ.

Prueba. Sea ϕ otra permutacion tal que ϕ (J) = I. Observese que ρ = φ ϕ−1 es

Page 123: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 123/232

113Seccion 4.4 La expansion generalizada de Laplace

una permutacion de N tal que ρ (I) = I y ρ (I0) = I0. Sea x el signo de la restriccion deρ a I y y el signo de la restriccion de ρ a I0. Como los conjuntos I y I0 son disjuntostenemos que sgn

¡φ ϕ−1

¢ = xy.

Por 4.20 tenemosdet α IJφJI = x det α IJϕJI y det α I0J0φJ0I0 = y det α I0J0ϕJ0I0. Multiplicando estas dos

gualdades obtenemosdet α IJφJI det α I0J0φJ0I0 = sgn ¡φ ϕ−1¢det α IJϕJI det α I0J0ϕJ0I0

y usando las propiedades de la funcion sgn obtenemos la prueba.

Ahora, para I, J subconjuntos de N definamos ∇IJ y ∆IJ ∇IJ = det α IJφJI

∆IJ = sgn φ det α I0J0φJ0I0

con las formulas de la derecha donde φ denota una permu-tacion (arbitraria pero la misma para las dos definiciones)tal que φ (J) = I (y en consecuencia φ (J0) = I0). Esta definicion no es correcta en el

sentido de que ambos ∇IJ y ∆

IJ dependen de φ

. Sin embargo ∇IJ∆

IJ no depende de φ

y esto es lo importante.

Expansion Generalizada de Laplace

Si I un conjunto de p renglones de la matriz α NN en-tonces, det α NN =

P∇IJ∆IJ donde la suma recorre to-dos los subconjuntos de columnas J de cardinalidad p.

det α NN =X|J|= p

∇IJ∆IJ

Prueba. Si I ⊆ N y |I| = p entonces, tenemos la particion del gru- [|J|= p

SI→JN

po simetrico a la derecha donde SI→JN = σ ∈ SN | σ (I) = J. Aplicando la

definicion de determinante obtenemos

det α NN =X|J|= p

Xσ∈ SI→ J

N

sgn σYn∈N

α nσn

Sea φ una permutacion de N tal que φ (J) = I. Hagamos el cambio de variable ρ = φσ.Entonces,

det α NN = X|J|= p

sgn φ Xρ∈ SI→IN

sgn ρYn∈N

α iφ−1 (ρn )

Como ρ (I) = I entonces, ρ (I0) = I0. Luego ρ se puede descomponer en la composicionde dos permutaciones θ ω donde θ ∈ SI y ω ∈ SI0. Substituyendo ρ por θ ω lasuma se convierte en suma doble y si sacamos factores comunes obtendremos:

det α NN =X|J|= p

sgn φ

ÃXθ∈ SI

sgn θYn∈I

α iφ−1 (θn )

!⎛⎝X

ω∈ SI0sgn ω

Yn∈I0

α iφ−1 (ωn )

⎞⎠

Lo contenido en el primer parentesis es det α Iφ(J) =

∇IJ. Lo contenido en el segundo

parentesis es det α I0φ(J0) y este determinante multiplicado por sgn φ es ∆IJ.

Como ya es costumbre tediosa, hagamos la observacion de que tambien es valida laExpansion Generalizada de Laplace cuando la hacemos por un conjunto de columnas.

Page 124: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 124/232

114 Cap ıtulo 4. Determinantes

Matrices diagonales y triangulares por bloques

Sea α MM una matriz. Supongamos que existe una particion M1 ∪ · · · ∪ Mt = M

y que α ij = 0 si i y j pertenecen a bloques diferentes. Entonces decimos que α MM

es diagonal por bloques. Si cada Mi contiene un solo ındice entonces decimos queα MM es diagonal.

Supongamos ahora que, para la particion M1 ∪ · · · ∪ Mt = M se cumple que sii ∈ M p, j ∈ Mq y p < q entonces α ij = 0. En este caso, decimos que α MM estriangular por bloques. Si cada Mi tiene un solo ındice entonces decimos que α MM

es triangular. Es claro de las definiciones que toda matriz diagonal por bloques estriangular por bloques. En particular, toda matriz diagonal es triangular.

Si α MM es una matriz triangular por bloques entonces,

det α MM = Qt

i=1 det α MiMi .

Prueba. Haremos la prueba por induccion en el numero de bloques t. Para t = 1 laproposicion es trivial. Denotemos M0 = M\M1. Aplicando la expansion generalizadade Laplace al conjunto de renglones I = M1 obtenemos det α MM =

P|J|=|I| ∇IJ∆IJ.

Si J 6= I entonces, en α IJ hay una columna j /∈ M1 y por lo tanto j ∈ Mq con 1 < q.Luego, por definicion de matriz triangular, ∀i ∈ I = M1 se tiene que α ij = 0. O sea, lacolumna j es cero en α IJ e independientemente de la biyeccion que se escoja para calcular

el deteminante tenemos ∇IJ = 0. Luego, det α MM = ∇II∆II = det α M1M1 det α M0M0. Lamatriz M0 es triangular por bloques con un bloque menos y por hipotesis de inducciondet α M0M0 =

Qt

i=2 det α MiMi.

E jercicio 83 ¿Cuales de las siguentes matrices son triangulares?

A =

⎛⎝ a 0 0

1 b 0

1 1 c

⎞⎠B =

⎛⎝ a 1 1

0 b 1

0 0 c

⎞⎠C =

⎛⎝ a 1 1

0 b 0

0 1 c

⎞⎠ [191]

E jercicio 84 Sean M = 1 , . . . , 5 y α MM una matriz triangular por los bloquesM1 = 1, 2, M2 = 3 y M3 = 4, 5. ¿Cual es el aspecto de α MM en forma grafica?192]

La expansion generalizada de Laplace en forma grafica

Ahora, precisaremos los signos de las biyecciones en la expansion generalizada deLaplace cuando la matriz esta dada en forma grafica. Como esto es util solo para

calcular el determinante de matrices concretas y hacerlo as ı es por lo general extre-madamente ineficiente y complicado, recomiendo omitir en una primera lectura lo queresta de esta seccion.

Si N = 1 , . . . , n entonces, entre dos cualesquiera subconjuntos I, J ⊆ N del mismo

Page 125: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 125/232

115Seccion 4.4 La expansion generalizada de Laplace

cardinal hay una biyeccion natural que conserva el orden. Para esto, introduscamos lanotacion m 1, m 2, . . . , m t< para senalar que ∀ p ∈ 2 , . . . , t se tiene que i p−1 < i p.Ahora, si I = i1, . . . , it< y J = j1, . . . , jt< entonces, la biyeccion es φ1 : I 3 i p 7→

p ∈ J. Tambien, tenemos una biyeccion natural entre los complementos de I y J.Para esto sean K = N\I = k 1, . . . , k s< y L = N\J = `1, . . . , `s< y definamos

φ2 : K 3 k p 7→ p ∈ L. Luego, para cualesquiera subconjuntos I, J ⊆ N del mismocardinal la permutacion φJI = φ1 ∪ φ2 cumple lo necesario para calcular el signo de un

sumando de la expansion generalizada de Laplace, o sea φJI (I) = J y φJ

I (N\I) = N\J.

Observese, que la biyeccion φ1 es la natural de renglones a columnas que se obtienesi en una matriz α NN tachamos todos los renglones con ındices en K y todas las colum-nas con ındices en L. De la misma manera φ2 es la biyeccion de renglones a columnassi tachamos todos los renglones con ındices en I y todas las columnas con ındices en J.

Calculemos el signo de φJI. Al estudiar la expansion (normal) de Laplace en forma

(j, j−

1, · · · , i + 1, i) si j > i(j, j + 1, · · · , i − 1, i) si j < i

grafi

ca vimos que si I = i y J = j entonces,φJI = φ

ji es el ciclo que se muestra a la derecha y

por lo tanto sgn φji = (−1)

i+j (la regla del “tablerode ajedrez”).

sgn φJI = sgn φ

j1i1

sgn φJ\j1I\i1

.

Prueba. Sea θ = ¡φJ

I¢−1

φJ\j1I\i1 . Tenemos que demostrar que sgn θ = (

−1)

i1+j1

.

(k p, k p+1, · · · , k q−1, i1) si p < q

(k p−1, k p−2, · · · , k q, i1) si p > q

I si p = q

Para esto, recordemos que K = N\I = k 1, . . . , k s< y L = N\J = `1, . . . , `s<. Sea p elmenor ındice tal que i1 < k p y sea q el menor ındice tal que j1 < `q (es admisible que

p = s+1 y/o q = s+1). Usando la definicion deθ calculamos que esta permutacion es igual a ladel recuadro a la izquierda. Luego, θ es siempreun ciclo de longitud | p − q| + 1 y por lo tantosgn θ = (−1) p+q.

Como i1 y j1 son los elementos mas pequenos de I y J respectivamente entonces, te-nemos que k 1, . . . , k p−1, i1

< = 1 , . . . , p − 1, p y `1, . . . , `q−1, j1

< = 1 , . . . , q − 1, q

y de aqu ı finalmente, p = i1 y q = j1.

Iterando este resultado obtenemos sgn φJI = sgn φ

j1i1

sgn φj2i2

· · · sgn φjtit

. Observeseque α ir jr son las entradas en la diagonal de la submatriz α IJ de α NM . Luego, parahallar sgn φJ

I lo que hay que hacer es multiplicar los signos de la regla del tablero deajedrez de los elementos en la diagonal de α IJ. Tambien se puede hacer, calculando laparidad de Pi

∈I i +Pj

∈J j.

Ejemplo. Calculemos el determinante de una matriz α NN del re-⎛⎜⎜⎝

4 5 1 1

1 2 3 2

4 5 2 3

1 2 3 4

⎞⎟⎟⎠ cuadro a la izquierda haciendo la expansion generalizada de Laplace

por el conjunto I del segundo y cuarto renglones. Tenemos que re-correr todos los subconjuntos J de dos columnas.

Page 126: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 126/232

116 Cap ıtulo 4. Determinantes

Observese, que si la columna 4 no esta en J entonces la matriz α IJ tiene dos renglonesguales por lo que todos los sumandos correspondientes en la expansion seran cero.

Ademas, para J = 3, 4 la matriz α N\I N\J tiene dos renglones iguales por lo quetambien el correspondiente sumando es cero.

Solo nos quedan dos sumandos cuando J = 1, 4 yJ = 1, 4 J = 2, 4µ −

+− +

¶ µ + ++ +

¶cuando J = 2, 4. Para ellos podemos extraer del table-ro de ajedrez las submatrices del recuadro a la derechay multiplicando los signos en las diagonales obtenemossgn φ

1,4I = −1 y sgn φ

2,4I = 1. Luego, por la expansion generalizada de Laplace el

determinante de nuestra matriz es igual a¯

¯2 2

2 4

¯

¯

¯

¯ 4 1

4 2

¯

¯−

¯

¯1 2

1 4

¯

¯

¯

¯5 1

5 2

¯

¯ = 4 × 4 − 2 × 5 = 6

donde usamos las barras verticales para ahorrar espacio al denotar los determinantes.

4.5 El rango de una matriz

En esta seccion definiremos las bases de una matriz como las submatrices masgrandes con determinante diferente de cero. Probaremos que las bases de una matrizdefinen y estan definidas por las bases de los espacios de columnas y renglones. Estoes el fundamento de los diversos metodos de solucion de los sistemas de ecuaciones

ineales.

Matrices no singulares

Agrupemos en un solo resultado lo que hemos probado para las matrices no singu-ares.

Caracterizacion de Matrices No Singulares

Para cualquier matriz cuadrada A las siguientes a fi rmaciones son equivalentes:

1. A tiene inversa, 3. los renglones de A son LI,2. A es no singular, 4. las columnas de A son LI.

Prueba. La implicacion 1⇒2 es el resultado 4.26. La implicacion 2⇒1 es el resultado4.27. La equivalencia 1⇔4 es el resultado 3.21 (pagina 79). De aqu ı, 2⇔4 y como losdeterminantes no cambian por transposicion obtenemos 2

⇔3.

Espacios de columnas y renglones

Al subespacio de KN generado por los renglones de la matriz α MN se le llamaespacio de renglones de la matriz. Aqu ı tenemos un pequeno problema de lenguaje:

Page 127: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 127/232

117Seccion 4.5 El rango de una matriz

es posible que haya renglones iguales y los conjuntos no distinguen elementos iguales.Por esto, diremos que un conjunto de renglones es LI si ellos son distintos dos a dosy es LI en el espacio de renglones de la matriz. Un conjunto de renglones distintos dos ados que es una base del espacio de renglones lo llamaremos base de los renglones deα MN. Analogamente se define el espacio de columnas de una matriz, los conjuntos

de columnas LI y las bases de las columnas.

El espacio de columnas de α MN es la imagen de la TL de α MN.

Prueba. Sea f : KN 3 βN 7−→ α MN βN ∈ KM la TL de la matriz α MN . La imagen def es igual a hf (B)i donde B es cualquier base de KN . En particular si tomamos B iguala la base canonica obtenemos que f (B) es el conjunto de columnas de α MN .

Debido a este resultado, frecuentemente al espacio de columnas de una matriz se le

lama imagen de la matriz. Obviamente, el espacio de renglones de una matriz es lamagen de la TL correspondiente a la transpuesta de la matriz.

Una consecuencia importante de 4.34 es que los espacios de columnas y renglonesson propiedades de TLs. En otras palabras si hacemos cambios de base en KN y KM

a nueva matriz tendra los mismos espacios de columnas y renglones que la original.

Las dimensiones del espacio de columnas y del espacio de renglones de una matriz coinciden.

Prueba. Sea α MN una matriz y f su TL. Sean A una base de ker f y A0 una base de

cualquier subespacio complementario a ker f. Sabemos que I def = A ∪ A0 es una base de

KN. Por el Teorema de Descomposicion de una TL (3.26) sabemos que la restriccion

f : hA0i −→ Im f es un isomorfismo y por lo tanto B def = f (A0) es una base de Im f. Sea

B0 una base de cualquier subespacio complementario a Im f. Sabemos que J def = B ∪ B0

es una base de KM . ¿Como es γJI la matriz de f en las bases I y J?

Por definicion, las columnas de γJI son las J-adas A0 A

B

1 · · · 0...

. . . ...

0 · · · 1

0 · · · 0...

. . . ...

0 · · · 0

B0

0 · · · 0...

. . . ...

0 · · · 0

0 · · · 0...

. . . ...

0 · · · 0

de las imagenes de los vectores en I. O sea f (i) =Pj∈J γjij. Si i ∈ A ⊆ ker f entonces f (i) = 0 y por

o tanto todos los γji con i ∈ A son cero. Si i ∈ A0

entonces entonces f (i) ∈ B y por lo tanto los γji

con i ∈ A0 son iguales a δf(i)i. Luego, ordenando lasbases adecuadamente γJI es en forma grafica la quese muestra en el recuadro a la derecha.

Es claro que la dimension del espacio de columnas y renglones de γIJ coinciden yson iguales a la cantidad de vectores en A0. Como estas dimensiones no cambiaron alcambiar las bases, la tesis tambien es valida para α MN .

A la dimension comun de los espacios de renglones y columnas se le llama rango

Page 128: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 128/232

118 Cap ıtulo 4. Determinantes

de la matriz.

Lema de aumento de matrices no singulares

El siguiente lema es parte importante de las demostraciones de los que siguen. Sudemostracion es clasica e ingeniosa. Este lema es en cierta manera analogo al lema de

aumento de conjuntos LI que vimos en el Cap´ı

tulo 2.Lema de Aumento de Submatrices No Singulares

Sea α IJ una submatriz cuadrada no singular de α MN . Sea m ∈ M\I

tal que el conjunto de renglones indexado por I ∪ m es LI.Entonces, existe n ∈ N tal que la matriz α I∪m J∪n es no singular.

Prueba. Denotemos M0 = I ∪

m y Bn = α M0 J∪

n. Al absurdo, supongamos

Bn =

µ α IJ α In

α mJ α mn

¶que ∀n ∈ N\J se cumple que det Bn = 0. Si n ∈ J entonces, denotemos por Bn lamatriz α M0J a la que artificialmente le agregamos otra columna n. En este caso Bn

tiene dos columnas iguales y por lo tanto tambien det Bn = 0. Para cualquier n, pode-mos pensar la matriz Bn graficamente como se muestra en elrecuadro. Sean Bin los cofactores de las entradas de la ultimacolumna en la matriz Bn. Observemos que en la definicion deos Bin no estan involucradas las entradas de la ultima columna. Luego, Bin no depen-

de de n y podemos denotar Bin = βi

∈ K. De la expansion de Laplace por la ultima

columna en la matriz Bn obtenemos:0 = det Bn =

Xi∈M0

α in Bin =X

i∈M0

α in βi.

Como esto es valido ∀n ∈ N concluimos que βM0α M0N = 0N. Como βm = det α IJ 6= 0

esto significa que los renglones de α M0N estan en una combinacion lineal nula concoeficientes no todos nulos. Esto contradice la hipotesis de que sus renglones son LI.

Bases de una matrizSea α MN una matriz. Entre las submatrices cuadradas no singulares de α MN tene-

mos la relacion de contencion

(α I0J0 ⊆ α IJ) ⇔ (I0 ⊆ I y J0 ⊆ J)

Una base de α MN es una submatriz no singular maximal por contencion.

Caracterizacion de las Bases de una Matriz

Una submatriz α IJ es una base de una matriz si y solo si el con- junto de renglones indexado por I es una base de los renglones y el conjunto de columnas indexado por J es una base de las columnas.

Page 129: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 129/232

119Seccion 4.6 Sistemas de ecuaciones lineales

Prueba. Sea α IJ una submatriz de α MN. Es convenienteα MN =

µ α IJ α IY

α XJ α XY

¶denotar X = M \ I y Y = N \ J y pensar que α MN es dea forma en el recuadro a la derecha. Supongamos que α IJ

es cuadrada y que es una base de α MN . Entonces, por la Caracterizacion de MatricesNo Singulares (4.33) los renglones y las columnas de α IJ son LI y con mas razon los

renglones de α IN y las columnas de α MJ son LI .Si estos renglones de α IN no son una base de los renglones de α MN entonces, existeotro renglon indexado por m ∈ X tal que el conjunto de renglones indexado por I ∪ m

es LI y por el Lema de Aumento de Submatrices No Singulares (4.36) existe n ∈ Y

tal que α I∪m J∪n es no singular y esto contradice la suposicion de que α IJ es una base.Luego, los renglones de α IN son una base de los renglones. Como las columnas de α MJ

son LI y el espacio de columnas tiene la misma dimension que el espacio de renglones(4.35) entonces, las columnas de α MJ son una base del espacio de columnas.

Rec ıprocamente, supongamos que los renglones de α IN

y las columnas α MJ

sonbases de los renglones y las columnas de α MN respectivamente. Por 4.35, la submatrizα IJ es cuadrada. Sabemos que los renglones de α IN son LI. Las columnas de α MJ son ungenerador del espacio de columnas de α MN y con mas razon las columnas de α IJ son ungenerador del espacio de columnas de α IN . Aplicando 4.35 a la matriz α IN obtenemosque las columnas de α IJ son un generador con la misma cantidad de vectores que ladimension del espacio y por lo tanto son LI. Por la Caracterizacion de Matrices NoSingulares (4.33) la matriz α IJ es no singular.

Si hubiera una submatriz α I∪

m J∪

n no singular entonces por la Caracterizacion deMatrices No Singulares (4.33) sus renglones ser ıan LI y con mas razon los renglones deα I∪m N ser ıan LI. Esto contradice que los renglones de α IN es una base de los renglonesde α MN . Luego, α IJ es una base de la matriz α MN .

Una consecuencia importante de la Caracterizacion de las Bases de una Matriz(4.37) es que todas las bases de una matriz tienen orden igual al rango de la matriz.

E jercicio 85 Sean E = F ⊕ G espacios vectoriales y xi = (yi, zi) vectores dondexi ∈ E, yi ∈ F y zi ∈ G. Pruebe que si los yi son LI entonces los xi son LI. Pruebeque si los xi son generadores entonces los yi son generadores. Esto es lo que se usa ena prueba de la Caracterizacion de las Bases de una Matriz (4.37) cada vez que se usaa frase “con mas razon”.

4.6 Sistemas de ecuaciones lineales

Page 130: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 130/232

120 Cap ıtulo 4. Determinantes

Sea A = α NM una matriz y xM = xM1 una columna. El producto Xj∈M

α ijxj = bide estas matrices es nuevamente una columna α NM xM1 = bN1 = bN.

Si desarrollamos este producto por la definicion de producto de ma-trices entonces obtenemos para cada i ∈ N la igualdad en el recuadroa la derecha.

Como ya es usual podemos interpretar la columna xM como un vector x en elespacio vectorial KM y a bN como un vector b en el espacio KN y en estas notacionesa igualdad se escribe en una forma mas simple A x = b. Supongamos que A es una

matriz fi ja. Si hacemos variar x en KN entonces esta igualdad la podemos pensarcomo una TL de KM en KN. Como es logico, si conocemos x entonces como sabemosmultiplicar matrices hallamos b = A x. Mas dif ıcil es el problema inverso, si se conoceb entonces, ¿como hallar x tal que A x = b?

A una igualdad de la forma A x = b donde A y b son conocidos y x es incognita se

e llama sistema de ecuaciones lineales. ¿Porque sistema? ¿Porque ecuaciones enplural si nada mas tenemos UNA?. La respuesta a estas preguntas no es gran misterio,es un problema historico. Cuando sobre la faz de la Tierra aun no viv ıan las matricesy los vectores, los humanos necesitaban encontrar unos numeritos xj tales que paracualquier i ∈ N se cumpla que

Pj∈M α ijxj = bi. Observese que se necesitan encontrar

M| numeritos. En el caso de que |N| = 1 se decıa que tenemos que resolver unaecuacion lineal. Para el caso |N| > 1 los numeritos xj deber ıan de cumplir todas ycada una de las ecuaciones (para cada i ∈ N) y entonces, se dec ıa que se necesitaba

resolver un sistema (conjunto, coleccion, cualquier cosa que signifi

que que hay muchas)de ecuaciones lineales. De hecho, para acercarnos mas a la verdad, debemos substituiren todo lo dicho los “se dec ıa” por “se dice” en presente. Luego, hay dos formas de veros sistemas de ecuaciones lineales:

¨ Tenemos que encontrar |M| elementos del campo xj tales quepara cualquier i, se cumple la igualdad

Pj∈M α ijxj = bi,

¨ Tenemos que encontrar un vector x ∈ KM tal que A x = b.

Ambas formas son en esencia la misma ya que encontrar un vector x es lo mis-mo que encontrar todas sus coordenadas xj. Sin embargo, la elegancia de la segun-da forma hace que nuestra manera de pensarlo sea mucho mas simple y sistemati-ca (a costo de aprender sobre matrices y vectores). Por ejemplo, si ocurre que lamatriz A es no singular entonces multiplicando por A−1 a la izquierda obtenemosA x = b ⇒ A−1A x = A−1b ⇒ x = A−1b y como ya sabemos encontrar la matriznversa y sabemos multiplicar matrices la solucion del sistema de ecuaciones lineales

esta a la mano. Esto no significa que ya sepamos resolver todos los sistemas de ecua-ciones lineales ya que para que una matriz sea no singular se necesita primero que seacuadrada y que ademas el determinante sea diferente de cero.

Page 131: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 131/232

121Seccion 4.6 Sistemas de ecuaciones lineales

Regla de Cramer

Sea A x = b un sistema de ecuaciones lineales. A la matriz A se le llama matrizdel sistema y al vector b lo llamaremos vector de coeficientes libres. Denotaremospor A (j) la matriz obtenida de la matriz del sistema substituyendo la j-esima columnapor el vector de coeficientes libres. Un ejemplo de esta substitucion es el siguiente

A =µ 1 2 3

4 5 6

¶, b =

µ 7

8

¶, A (2) =

µ 1 7 3

4 8 6

¶.

Regla de Cramer

Si la matriz A es no singular entonces, la j-esima coordenada xj del vector x es igual al determi-

nante de A (j) dividido entre el determinante de A.

xj = det A (j)

det A

Prueba. Sea α NM es una matriz no singular. Ya observamos que en este caso ne-cesariamente x = α −1

NM b. Denotemos por βij las entradas de α −1NM entonces, tenemos

xj = βjN bN . Por 4.27 tenemos que βjN = α ∗Nj / det α NM y de aqu ı xj det α NM = bNα ∗Nj .

Para terminar la demostracion basta observar que la expresion a la derecha de la igual-dad es la expansion de Laplace de A (j) por la columna j.

Gabriel Cramer (Suiza 1704-1752) publico su famosa regla en

el art ıculo “Introduccion al analisis de las curvas algebraicas”

(1750). Esta surgio del deseo de Cramer de encontrar la ecuacion

de una curva plana que pasa por un conjunto de puntos dado. El

escribe su regla en un apendice del artıculo y no da prueba algu-

na para ella. Este es uno de los or ıgenes historicos del concepto

de determinante. Es curioso (y educativo) ver con que palabras

Cramer formula su regla:

“Uno encuentra el valor de cada indeterminada formando n

fracciones el com´ un denominador de las cuales tiene tantos terminos como las permutaciones de n cosas.”

Cramer continua explicando como se calculan estos terminos como productos deciertos coeficientes de las ecuaciones y como se determina el signo. El tambien senalacomo los numeradores de las fracciones se pueden encontrar substituyendo ciertos co-eficientes de los denominadores por los coeficientes libres del sistema.

Para nosotros, con mas de dos siglos de ventaja, es mucho mas facil. Las “n frac-ciones” son det A (j) / det A y el “comun denominador” es det A (que tiene tantossumandos como las permutaciones de n cosas).

La Regla de Cramer (4.38) tiene fundamentalmente un interes historico por ser

Page 132: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 132/232

122 Cap ıtulo 4. Determinantes

uno de los or ıgenes del concepto de determinante. Es necesario recalcar que esta reglasolo funciona para el caso de que la matriz es no singular. O sea, cuando en el sistemase tienen tantas incognitas como ecuaciones y el determinante de la matriz del sistemano es nulo.

Existencia de soluciones

Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas:

¨ ¿Existe una solucion?¨ ¿Como encontrar una solucion en el caso de que exista?¨ ¿Como encontrar TODAS las soluciones?

La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz

no singular: la solucion existe, es unica y se halla por la Regla de Cramer. Ahoraresponderemos en general la primera pregunta.

Primero, una definicion. Si A x = b es un sistema de ecuaciones lineales entoncesa matriz ampliada del sistema denotada por (A|b) es la matriz que se obtiene de la

matriz del sistema anadiendo el vector columna de coeficientes libres b.

Teorema de Existencia de Soluciones

El sistema A x = b tiene una soluci´ on si y solo si el rango de la matriz del sistema coincide con el rango de la matriz ampliada.

Prueba. Por definicion de rango de una matriz siempre se tiene que rank A ≤rank (A|b) . Que coincidan es equivalente por la Caracterizacion de las Bases de unaMatriz (4.37) a que b sea combinacion lineal de las columnas de A. El que b sea com-binacion lineal de las columnas de A es equivalente a la existencia de escalares xj talesque α iN xN = bi o sea a que A x = b tenga al menos una solucion.

Eliminacion de ecuaciones dependientes

Lema de Eliminacion de Ecuaciones Dependientes

Sea I el conjunto de ´ ı ndices de una base de renglones de la ma-triz ampliada (α MN |bM ). Entonces, el conjunto de soluciones de

α MN xN = bM es exactamente el mismo que el de α IN xN = bI.

Prueba. Como α MN xN = bM tiene mas ecuaciones que α IN xN = bI entonces cadasolucion de α MN xN = bM es solucion de α IN xN = bI.

Page 133: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 133/232

123Seccion 4.6 Sistemas de ecuaciones lineales

Rec ıprocamente, sea xN tal que α IN xN = bI y m ∈ M\I. El renglon (α mN |bm )

α mN = λIα IN

bm = λIbI

es combinacion lineal de los indexados por I. Luego existen escalaresλi tales que se cumplen las igualdades a la derecha. Multiplicandoa primera igualdad por xN y usando la definicion de xN obtenemos

α mN xN = λIα IN xN = λIbI = bm y por lo tanto xN satisface todas las ecuaciones del

sistema α MNxN .Otra manera, mas algor ıtmica, de ver este lema es que si tenemos un sistema de

ecuaciones α MN xN = bM y un renglon de este sistema es combinacion lineal de losdemas entonces, debemos eliminar la ecuacion correspondiente a este renglon. El Lemade Eliminacion de Ecuaciones Dependientes (4.40) nos garantiza que esta operacionno altera el conjunto de soluciones. Repitiendo esta operacion una cierta cantidad deveces, obtenemos una matriz ampliada con renglones LI.

El nucleo y la imagen de una matriz

Sea α MN una MN-matriz. Ella es la matriz de la TL f : KN 3 xN 7→ α MNxN ∈KM . Luego, podemos definir la imagen de la matriz α MN como Im α MN = Im f yel nucleo de la matriz α MN como ker α MN = ker f. Pasemos ahora a analizar lamagen. Por definicion de imagen tenemos Im α MN = βM | ∃xN α MNxN = βM . O

sea, Im α MN es el conjunto de vectores βM tales que el sistema de ecuaciones linealesα MNxN = βM tiene al menos una solucion. Tenemos α MNxN = Pi

∈N α Mi xi que es una

combinacion lineal de las columnas. Luego, Im α MN es el subespacio generado por lascolumnas de la matriz α MN . Ademas, si γN es una solucion de α MNxN = βM entonces,3.30 (pagina 86) nos dice que el conjunto de todas sus soluciones es el subespacio afınγN + ker α MN . Resumamos todo lo dicho en 4.41 para referencias futuras.

¨ El subespacio ker α MN es el conjunto de soluciones de α MN xN = 0M .¨ El subespacio Im α MN es el generado por las columnas de α MN .

¨ Si γN es una soluci´ on de α MNxN = βM entonces, el conjunto de todas sus soluciones es el subespacio af´ ı n γN + ker α MN .

Bases del subespacio af ın de soluciones

Ahora daremos la solucion general de los sistemas de ecuaciones lineales. Sea α MN xN =bM un sistema de ecuaciones. Primero, podemos suponer que la matriz del sistema

α MN tiene el mismo rango que la matriz ampliada [α MN |bM ] porque si no entonces,el conjunto de soluciones es vac ıo. Segundo, podemos suponer que la matriz ampliadaα MN |bM ] tiene renglones linealmente independientes porque si no, entonces podemos

descartar aquellos que son combinacion lineal de otros.

Page 134: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 134/232

124 Cap ıtulo 4. Determinantes

Luego existe un conjunto de columnas J ⊆ M tal que α MJ es una base de la matriz

α MJxJ + α MY xY = bM

ampliada [α MN |bM ]. Denotando por Y al conjunto de columnas que no estan en la basepodemos representar nuestro sistema de ecuaciones linealescomo se muestra en el recuadro a la izquierda.

Aqu ı las incognitas xJ y xY son aquellas que se corresponden con las columnas en J

y Y respectivamente. Por ejemplo, en el sistema de ecuaciones2x1 + 1x2 + 1x3 + 0x 4 = 5

3x1 + 2x2 + 0x3 + 1x 4 = 5

podemos tomar J al conjunto de las dos primeras columnas y Y al conjunto de la terceray cuarta columnas. Luego a este sistema lo podemos escribir comoµ

2 1

3 2

¶µx1x2

¶+

µ1 0

0 1

¶µx3x4

¶ =

µ5

5

¶.

Ahora, como la matriz α MJ tiene inversa, lo que hacemos es simplemente despejar

xJ y obtenemos xJ = α −

1MJbM −

α −

1MJα MY xY . En nuestro ejemplo obtenemosµx1x2

¶ =

µ 2 −1

−3 2

¶µ5

5

¶−

µ 2 −1

−3 2

¶µx3x4

¶ =

µ−2x3 + x4 + 5

3x3 − 2x4 − 5

¶Esto describe en forma parametrica el conjunto de todas las soluciones, para cual-

quier vector xY hay una solucion¡

α −1MJbM − α −1

MJα MY xY , xY

¢ del sistema. Otra manera

de describir el conjunto solucion es ponerlo en la forma descrita en 4.41. Para encontraruna solucion ponemos xY = 0 y en nuestro ejemplo el vector solucion es (5,−5,0,0).Para encontrar el nucleo de la matriz del sistema ponemos bM = 0. Para encontraruna base del nucleo recorremos con xY a la base canonica de KY . En nuestro ejemplo

(x3, x 4) = (1, 0) ⇒ (x1, x2) = (3,−2)(x3, x 4) = (0, 1) ⇒ (x1, x2) = (6,−7)

y finalmente obtenemos que el conjunto de soluciones (x1, x2, x3, x 4) es el subespacioafın

(5,−5,0,0) + ρ (1,0,3, −2) + τ (0,1,6, −7)

donde ρ y τ son escalares cualesquiera.

4.7 Metodo de eliminacion de Gauss

La idea del metodo de eliminacion de Gauss es realizar ciertas transformaciones deas matrices que no cambian lo que se pretende calcular y que convierte a las matrices en

otras con muchas entradas iguales a cero. Este es el metodo mas universal y eficiente (almenos manualmente) para calcular los determinantes, el rango, el nucleo, las matricesnversas, etc. Aqu ı, estudiaremos brevemente este metodo.

Transformaciones elementales

Sea α MN una matriz. Sean α iN , α jN dos renglones de α MN y λ ∈ K un escalar.Denotemos βjN = λα iN + α jN y sea βMN la matriz obtenida de α MN reemplazando

Page 135: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 135/232

125Seccion 4.7 Metodo de eliminacion de Gauss

el renglon α jN por la N-ada βjN . A la operacion que dados α MN, i, j y λ obtenemosβMN se le llama transformacion elemental de los renglones. Otra manera utilde pensar las transformaciones elementales de los renglones es que en la matriz α MN

al renglon α jN le sumamos el renglon α iN multiplicado por λ. De forma analoga, sedefinen las transformaciones elementales de las columnas. Una transformacion

elemental es de renglones o de columnas.

Las transformaciones elementales no cambian los determinantes.

Prueba. Sean α MM , βMM y γMM matrices que se diferencian solo en el renglon inde-xado por j para el cual se tiene que βjM = λα iM + α jM y γjM = α iM . Como el determi-nante es un funcional lineal de los renglones tenemos det βMM = λ det γMM + det α MM

y como la matriz γMM tiene dos renglones iguales entonces, det βMM = det α MM .

La prueba termina al recordar que el determinante no cambia por transposicion de lamatriz.

Las bases y el rango de una matriz dependen exclusivamente de los determinantesde sus submatrices y por lo tanto no son afectados por las transformaciones elementales.Sin embargo, las trasformaciones elementales de las columnas cambian los nucleos y elsubespacio af ın solucion de un sistema de ecuaciones lineales. Para las transformacioneselementales de los renglones la situacion es diferente.

Las transformaciones elementales de los renglones de la matriz ampliada nocambian el subespacio af ı n soluci´ on de un sistema de ecuaciones lineales.

Prueba. Sea α MNxN = bM un sistema de ecuaciones lineales. Sea βMN xN = cM otrosistema que se diferencia solo en la ecuacion j para la cual se tiene βjN = λα iN + α jN ycj = λbi + bj. Si γN es una solucion del primer sistema entonces, βjN γN = λα iN γN +α jN γN = λbi + bj = cj por lo que γN es una solucion del segundo sistema. Si γN es una

solucion del segundo sistema entonces, α jN γN = βjN γN−

λα iN γN = cj−

λbi = bj poro que γN es una solucion del primer sistema.

Ejemplo

El metodo de Gauss se puede precisar en todo detalle para convertirlo en un algo-ritmo programable en una computadora. Pero como tratamos de ensenar a humanos yno a computadoras la mejor manera no es dar todos los detalles sino dejar a la crea-tividad individual y a la imitacion de ejemplos el como aplicar las transformaciones

elementales.La matriz ampliada siguiente arriba a la izquierda representa un sistema de ecua-

ciones lineales. Despues de las 4 transformaciones elementales de los renglones que semuestran obtenemos la matriz de abajo a la derecha. La solucion del sistema de esta

Page 136: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 136/232

126 Cap ıtulo 4. Determinantes

ultima es obvia.Ã 1 1 0

2 3 4

3 3 1

¯

¯3

2

1

! r2 :=r2−2r1−→

à 1 1 0

0 1 4

3 3 1

¯

¯3

− 4

1

! r3 :=r3−3r1−→

à 1 1 0

0 1 4

0 0 1

¯

¯3

− 4

−8

!

r2 :=r2− 4r3−→ Ã 1 1 00 1 0

0 0 1

¯ 328

−8

! r1 :=r1−r2−→ Ã 1 0 00 1 0

0 0 1

¯ −25

28

−8

!Aqu ı las transformaciones elementales realizadas estan marcadas en las flechas. Porejemplo, la primera es r2:= r2 − 2r1 lo que significa que al segundo renglon le sumamosel primero multiplicado por −2. Observese que despues de dos transformaciones yavemos que el determinante de la matriz del sistema es 1 porque en una matriz triangularel determinante es el producto de las entradas diagonales.

El caso general

Para el calculo de los determinantes no hay mucho mas que decir. Podemos utilizartransformaciones elementales de columnas y renglones para convertir nuestra matrizcuadrada en matriz triangular. Si en el proceso nos aparece un renglon o columna ceroentonces el determinante es cero.

Para resolver los sistemas de ecuaciones lineales trabajamos con la matriz ampliada

y solo podemos realizar transformaciones elementales de los renglones. Podemos ademasmultiplicar un renglon por un escalar porque esto no afecta la ecuacion correspondienteal renglon. Si nos aparece un renglon cero podemos descartarlo como combinacion linealde los otros. Si nos aparece un renglon que es cero en la matriz del sistema pero sucoeficiente libre no es cero entonces el sistema no tiene solucion porque el rango dea matriz ampliada es mayor que el rango de la matriz del sistema. Finalmente, si en

algun momento nos aparece una configuracion del tipo

⎛⎜⎝a ∗ · · · ∗ ∗ ∗0 b · · ·

∗ ∗ ∗· · · · · · · · · · · · · · · · · ·0 0 · · · c ∗ ∗

¯∗

∗· · ·∗⎞⎟⎠

donde a, b, . . . , c son diferentes de cero entonces las primeras columnas forman unabase de la matriz y tenemos mas incognitas que ecuaciones. En este caso debemosseguir diagonalizando la parte correspondiente a las primeras columnas hasta obtener⎛

⎜⎝1 0 · · · 0 ∗ ∗0 1 · · · 0 ∗ ∗

· · · · · · · · · · · · · · · · · ·0 0 · · · 1 ∗ ∗ ¯∗∗

· · ·∗

⎞⎟⎠ .

Para este sistema procedemos como en la seccion anterior y pasamos restando lasncognitas que sobran como parametros hacia la parte derecha del sistema de ecuacio-

Page 137: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 137/232

127Seccion 4.7 Metodo de eliminacion de Gauss

nes. Tomemos el mismo ejemplo de la seccion anterior

µ 2 1 1 0

3 2 0 1

¯

¯5

5

¶ r2 :=3r2−2r1−→

µ 2 1 1 0

0 1 −3 2

¯

¯5

−5

¶ r1 :=

r1−r22−→µ

1 0 2 −1

0 1 −3 2

¯

¯5

−5

y por lo tanto la solucion de este sistema es x1 = 5−

2x3 + x 4 y x2 =−

5 + 3x3−

2x 4donde x3 y x 4 pueden tomar cualquier valor.

Aqu ı es cuando el lector se preguntara ¿Para que diagonalizar la primera y segundacolumna si ya la tercera y cuarta estan en forma diagonal? Pues tiene toda la razon,simplemente esta escogiendo otra base de la matriz. La solucion del sistema se obtienedirectamente de la matriz ampliada original en la forma x3 = 5−2x1−x2 y x 4 = 5−3x1−

2x2 donde x1 y x2 pueden tomar cualquier valor. Que es mejor es cuestion de gustosu otras necesidades. Por ejemplo, si se necesita substituir x1 y x2 en otras formulas

entonces, la mejor solucion es la primera. Si por el contrario se necesita substituir x3 yx 4 en otras formulas entonces, la mejor solucion es la segunda.

Solucion de ecuaciones matriciales, matriz inversa

Si tenemos varios sistemas de ecuaciones lineales α MNxN1 = bM1, . . . , α MNxN` =bM` todos con la misma matriz del sistema α MN entonces, podemos denotar L =1 , . . . , ` y escribirlos todos en la forma α MNxNL = bML. Esta ecuacion matricial

tiene la matriz ampliada [α MN |bML ] y podemos aplicarle a esta matriz la eliminacionde Gauss para resolver todos nuestros sistemas al mismo tiempo. Esto lo podremoshacer porque en la eliminacion de Gauss no se reordenan columnas y solo se aplicantransformaciones elementales a los renglones, as ı que no nos importa cuantas columnashalla despues de la barra vertical.

En particular, si M = N entonces, la unica solucion posible (si existe) a la ecuacionmatricial α MM xMM = IMM ser ıa xMM = α −1

MM . Esta es la forma en que con el metodode eliminacion de Gauss se calculan las matrices inversas. Por ejemplo:

à 1 1 0

2 3 4

3 3 1

¯¯ 1 0 0

0 1 0

0 0 1

! r2 :=r2−2r1−→

r3 :=r3−3r1

à 1 1 0

0 1 4

0 0 1

¯¯ 1 0 0

−2 1 0

−3 0 1

! r2 :=r2− 4r3−→

à 1 1 0

0 1 0

0 0 1

¯

¯

1 0 0

10 1 − 4

−3 0 1

! r1 :=r1−r2−→

à 1 0 0

0 1 0

0 0 1

¯

¯

−9 −1 4

10 1 − 4

−3 0 1

!

y por lo tanto à 1 1 0

2 3 4

3 3 1

!Ã −9 −1 4

10 1 − 4

−3 0 1

! =

à 1 0 0

0 1 0

0 0 1

!.

Page 138: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 138/232

128 Cap ıtulo 4. Determinantes

E jercicio 86 Tome un sistema de ecuaciones lineales y resuelvalo por el metodo deeliminacion de Gauss. Repita cuantas veces le sea necesario.

No esta de mas recalcar aqu ı que el metodo de eliminacion de Gauss funcionaen espacios vectoriales sobre cualquier campo sea este Q, R, C, Z p u otro campo

cualquiera. Solo hay que realizar las operaciones de suma, producto y divisi on comoestan definidas en el campo en particular.

Page 139: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 139/232

Polinomios

apítulo quinto

pesar de que tecnicamente, el estudio de los polinomios no es parte del AlgebraLineal, ellos son una herramienta ineludible para la clasificacion de los opera-dores lineales. Es por esto que necesitamos aprender algunas de las cosas mas

basicas sobre ellos.

5.1 Polinomios sobre campos

Hay muchas maneras de ver los polinomios. La manera mas sencilla den

Xi=0

aixi

verlos es que un polinomio de grado n en la literal x es una expresion

formal del tipo en el recuadro a la derecha donde los coeficientes a0,...,an

son elementos de cierto campo K y an 6= 0. Al coeficiente an se le llamacoeficiente principal del polinomio. Todos los elementos del campo son polinomiosde grado cero. Dos polinomios se consideran iguales solo cuando todos sus coeficientesson iguales.

En la definicion anterior no encaja el polinomio cero cuyos coeficientes son todoscero. Es el unico polinomio con coeficiente principal cero y su grado no esta bien defi-nido. Algunos de los resultados formulados en esta seccion, obviamente no son validos

para el polinomio cero. El lector interesado en cuales s ı y cuales no, debera pensarlopor si mismo en cada caso.

Suma y producto de polinomios

Aunque el lector seguramente conoce las definiciones de suma y producto de poli-nomios, nos parece apropiado recordar el porque de las mismas. Si interpretamos a x

como un elemento del campo K entonces, Paixi tambien es un elemento del campo

K. Esto quiere decir que un polinomio define una funcion K 3 x 7→Paixi ∈ K y enesta interpretacion x no es una literal sino una variable. Siendo esta interpretacion deos polinomios fundamental, necesitamos que la suma y producto de polinomios con-

cuerde con la definicion de suma y producto de funciones (f + g) (x) = f (x) + g (x),

Page 140: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 140/232

130 Cap ıtulo 5. Polinomios

fg) (x) = f (x) g (x). Por esto, tenemosnX

i=0

aixi +

nXi=0

bixi =

nXi=0

¡aixi + bixi

¢ =

nXi=0

(ai + bi) xi

donde la primera igualdad se da por asociatividad y conmutatividad y la segunda pordistributividad. O sea, interpretamos al polinomio como la imagen por la funcion deevaluacion de la variable x que toma sus valores en el campo. Para el producto, usandoa forma general de la ley distributiva tenemosÃ

nXi=0

aixi

!Ã m Xj=0

bjxj

! =

nXi=0

m Xj=0

aibjxi+j =

n+m Xk =0

⎛⎝ mın(n,k )X

i=max(0,k −m )

aibk −i

⎞⎠xk

donde la segunda igualdad se obtiene haciendo el cambio de variable k = i + j y usandoasociatividad, conmutatividad y distributividad. Se puede saber sumar y multiplicarpolinomios sin saberse estas formulas. Lo importante es saber aplicar sistematicamenteasociatividad, conmutatividad y distributividad para obtener el resultado deseado.El conjunto de todos los polinomios sobre un campo arbitrario K forma un anilloconmutativo (para ser campo solo le falta la existencia de inversos multiplicativos). Aeste anillo se lo denota por K [x ].

El lector debe observar en la formula del producto que el coeficiente principal delproducto de dos polinomios es anbm x

n+m . Como en un campo no hay divisores de ceroentonces anbm 6= 0 y por lo tanto el grado del producto de dos polinomios es igual a la

suma de sus grados .La funcion de evaluacion

Sea p (x) =Pn

i=0 aixi un polinomio en K [x ] . Sea b un elemento arbitrario delcampo. Obviamente

Pni=0 aibi es tambien un elemento del campo ya que la suma, la

multiplicacion y las potencias estan bien definidas en un campo arbitrario. Es naturaldenotar p (b) =

Pni=0 aibi. Esto nos da una funcion K 3 b 7→ p (b) ∈ K llamada la

funcion de evaluacion del polinomio p.

Rec ıprocamente, diremos que una funcion f : K → K es polinomial si existe unpolinomio p (x) ∈ K [x ] tal que f es la funcion de evaluacion del polinomio p, o sea que∀b ∈ K se tiene que f (b) = p (b).

Identificar los polinomios con las funciones polinomiales es un craso error. As ı porejemplo, hay solo 4 funciones de Z2 en Z2 pero hay una cantidad infinita de polinomiosen Z2 [x ]. Sin embargo, si el campo es infinito esto no sucede.

Un polinomio de grado n est´ a predeterminado por su evaluaci´ on en n + 1 diferentes elementos del campo.

Prueba. Sea p (x) =Pn

i=0 aixi y b0, . . . , bn diferentes elementos del campo entonces,

Page 141: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 141/232

131Seccion 5.1 Polinomios sobre campos

en forma matricial tenemos⎛⎜⎝

bn0 bn−1

0 · · · b0 1

b1 b1 · · · b1 1...

... . . .

......

bn bn · · · bn 1

⎞⎟⎠⎛⎜⎝

an

an−1

...a0

⎞⎟⎠ =

⎛⎜⎝

p (b0) p (b1)

... p (bn)

⎞⎟⎠.

Si conocemos las evaluaciones p (b0) , . . . , p (bn) entonces, para encontrar los coeficien-

tes a0,...,an tenemos que resolver este sistema de ecuaciones lineales. La matriz deeste sistema es una matriz de Vandermonde cuyo determinante es diferente de cerosi y solo si todos los bi son diferentes (vease el ejercicio 82). Esto quiere decir que elsistema tiene una solucion unica, o sea los ai estan predeterminados por los p (bi).

De este resultado se deduce facilmente, que en el caso de campos infinitos, la corres-pondencia entre funciones polinomiales y polinomios es biyectiva y mas aun, que estacorrespondencia es un isomorfismo de anillos. Por esto, es frecuente que se identifiquenos polinomios reales con las funciones polinomiales reales.

Un problema que frecuentemente aparece en aplicaciones de las matematicas es que setiene una funcion real de la cual no se sabe mucho salvo su valor en n puntos. Entoncesesta funcion se “aproxima” con el unico polinomio de grado n − 1 que pasa por estos

puntos. Hay diferentes formulas para esto pero todas son equivalentes a sacar la matriz inversa dea matriz de Vandermonde. Estas formulas se diferencian en que tan “buenas” y/o “estables” son

computacionalmente.

Division de polinomios

Division con Resto de Polinomios

Sea q un polinomio de grado al menos 1 y sea p otro polinomio.Existen polinomios c y r tales que:

1. p = cq + r

2. El grado de r es estrictamente menor que el grado de q.

Prueba. Sea p = Paixi un polinomio de grado n y q = Pbixi un polinomio degrado m ≥ 1. Si n < m entonces poniendo c = 0 y r = p terminamos.

Supongamos m ≤ n. Sea c1 como en el recuadro a la izquierda. Sa-

c1 = xn−m an

bm

cando cuentas nos podemos convencer de que el grado de r1 = p−c1q

es estrictamente menor que el grado de p. Si el grado de r1 es menorque el grado de q entonces ya terminamos, si no entonces, haciendo

calculos similares podemos escribir r1 = c2q + r2 y vamos disminuyendo el grado de ri

hasta que este sea menor que el grado de q.

Luego, existe un i tal que p = (c1 + ... + ci)q + ri y el grado de ri es estrictamentemenor que el grado de q.

Al polinomio c se le llama cociente de la division de p entre q. Al polinomio r see llama resto de la division de p entre q.

Page 142: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 142/232

132 Cap ıtulo 5. Polinomios

Divisibilidad

Sean p y q dos polinomios. Si existe un polinomio c tal que p = cq entoncesse dice que q divide a p, o que q es un divisor de p, o que p es un multiplode q. Obviamente, cualquier polinomio no cero de grado cero divide a cualquier otro

polinomio (en un campo hay inversos).

Para denotar la relacion de divisilidad entre polinomios usaremos lossımbolos “a” y “`”. O sea, p a q significa que p divide a q. Por otrolado p ` q se lee como p es multiplo de q.

La tradicion exige que la relacion de divisibilidad se denote por el s ımbolo “|”.Nosotros no seguiremos la tradicion por dos razones. Primero en este libro

ese s ımbolo se utiliza sistematicamente para denotar “tal que”. Segundo, esesımbolo sugiere que la relacion es simetrica y no lo es para nada, todo lo contrario. Sinembargo, es importante que el lector conozca esto para poder leer satisfactoriamenteotros libros.

Si p a q y q a p entonces existe un elemento del campo α tal que p = α q.

Prueba. Tenemos que existen polinomios a

y b

tales que p

= aq

y q

= bp

y por lotanto p = abp. El grado de la parte derecha de esta igualdad es la suma de los gradosde a, b y p. As ı vemos que necesariamente los polinomios a y b tienen que tener gradocero, o sea, son elementos del campo.

La relacion de divisibilidad entre polinomios es obviamente reflexiva y transitiva.pero no es ni simetrica ni antisimetrica.

Debido a que en un campo hay siempre inversos multiplicativos, todo polinomiop se expresa de forma unica como α p0 donde α es el coeficiente principal y p0 esun polinonio monico o sea, un polinomio cuyo coeficiente principal es igual a 1. Delresultado anterior se puede deducir facilmente que la relacion de divisibilidad entrepolinomios monicos es antisimetrica y por lo tanto es una relacion de orden (parcial).

Este simple hecho sera fundamental para nosotros ya que frecuentemente usaremosa antisimetr ıa para probar que dos polinomios monicos son iguales.

Ademas, esto significa que el conjunto de polinomios con la relacion de divisibilidades un conjunto parcialmente ordenado y por lo tanto a el se aplican los conceptos

tales como maximo y m ınimo; cotas superiores e inferiores; elementos maximales yminimales; supremos e ınfimos (vease el glosario).

Especial interes tienen el supremo y el ınfimo los cuales para este caso se traducencomo el mınimo comun multiplo y el maximo comun divisor.

Page 143: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 143/232

133Seccion 5.1 Polinomios sobre campos

E jercicio 87 Encuentre todos los divisores monicos del polinomio (x + 1)2

(x + 2).Organ ıcelos de tal manera que se vea claramente la relacion de orden entre ellos.

Factores y raices

Diremos que q es un factor de p si q a p, el grado de q es al menos uno y q esmonico. Los ceros de la funcion de evaluacion son las raices del polinomio p, o sea sonos elementos del campo b tales que p (b) = 0. Al conjunto de todas las raices de p lolamaremos nucleo de p y lo denotaremos por ker p (en ingles “nucleo” es “kernel”).

Las raices y los factores de un polinomio estan enlazados por el siguiente resultado:

Para que b sea una ra´ ı z de p es necesarioy su fi ciente que (x − b) sea un factor de p.

Prueba. Dividamos con resto p entre (x − b). Sean c y r tales que p (x) = c (x) (x − b)+

r. Como (x − b) es de grado uno r tiene que ser de grado cero. Evaluando en b obtene-mos p (b) = c (b) (b − b) + r = r. Luego, si b es ra ız entonces, r = 0 y rec ıprocamente.

Sea b una ra ız del polinomio p. Si n ≥ 1 es el mayor natural tal que (x − b)n es

factor de p entonces a n se le llama multiplicidad de la ra ız b. Es muy incomodo

trabajar con el concepto de multiplicidad. Por ejemplo, tomemos la afirmacion: “Si b1

y b2 son dos raices del polinomio p entonces (x − b1) (x − b2) es un factor de p”. Estaafirmacion es cierta no solo para cuando b1 6= b2 sino tambien cuando son iguales peroa ra ız tiene multiplicidad mayor que 2.

Es mucho mas comodo pensar que si una ra ız tiene multiplicidad n en-tonces hay n “diferentes” raices todas del mismo “valor”. Este abuso dellenguaje sera comun en este libro y a partir de ahora no tendremos necesi-

dad de usar continuamente el concepto de multiplicidad. Le dejamos al lector interesadoa desagradable tarea, de ajustar los hechos expuestos a un lenguaje mas riguroso.

Ahora el nucleo de un polinomio no es exactamente un conjunto sino una “coleccion”de elementos del campo en la cual puede haber elementos repetidos. As ı por ejemplotenemos Ker

¡x3

− 6x2 + 9x − 4¢

= 1,1,4. Ajustada nuestra terminolog ıa, podemosestablecer una importante consecuencia del resultado anterior.

Un polinomio de grado n

≥1 tiene a lo m´ as n raices.

Prueba. Si el polinomio p tiene como raices a b1, . . . , bn+1 entonces p tiene, por 5.4,como factor a

Qn+1i=1 (x − bi) que es un polinomio de grado n + 1. Esto contradice que

p tiene grado n.

Page 144: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 144/232

134 Cap ıtulo 5. Polinomios

E jercicio 88 Sea G un subgrupo finito del grupo multiplicativo de un campo. Calculeel producto de todos los elementos de G. [192]

E jercicio 89 Demuestre que todo subgrupo finito con q elementos del grupo multi-plicativo de un campo es isomorfo a (Zq, +). [192]

Ideales de polinomios

Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propie-dades:

¨ Si p, q ∈ I entonces p + q ∈ I.¨ Si p ∈ I y r ∈ K [x ] entonces rp ∈ I.

En otras palabras, la suma es una operacion binaria dentro del ideal y cualquiermultiplo de un elemento del ideal tambien esta en el ideal. Los ideales mas sencillosson los que se forman tomando todos los multiplos de un polinomio fi jo p. Si qp y q0 p

son dos tales multiplos entonces qp + q0 p = (q + q0) p tambien es un multiplo de p.Esto demuestra la propiedad 1. La propiedad 2 se cumple obviamente. Estos ideales sees llama ideales principales. Lo asombroso es que todo ideal es as ı.

Todo ideal de polinomios es principal.

Prueba. Sea I un ideal. Sea ahora m un polinomio no nulo de grado m ınimo talque m ∈ I y denotemos por el conjunto de todos los multiplo de m o sea, Im =

α m | α ∈ K [x ]. Por definicion de ideal se tiene que Im ⊆ I. Probemos que Im ⊇ I.Efectivamente, si g ∈ I entonces dividiendo g entre m obtenemos polinomios c, r talesque g = cm + r donde el grado de r es menor que el grado de m . Tenemos r = g − cm

y por definicion de ideal r ∈ I. De la minimalidad del grado de m obtenemos r = 0. ypor lo tanto g = cm ∈ Im . Esto prueba que Im = I o sea, que I es principal.

Observese que facilmente podemos definir los ideales en cualquier anillo conmuta-tivo. Sin embargo, no siempre cualquier ideal es principal. Este es el caso por ejemplo,para el anillo de polinomios de dos variables K [x, y ].

Una primera consecuencia de 5.6 es el Teorema de Bezout, el cual tendremos mu-chısimas oportunidades para utilizarlo.

Teorema de Bezout

Sean p y q dos polinomios sin factores comunes.Existen polinomios α y β tales que α p + βq = 1.

Prueba. Denotemos por I pq = α p + βq | α , β ∈ K [x ]. Probemos que I pq es un ideal.

Page 145: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 145/232

135Seccion 5.1 Polinomios sobre campos

Veamos primero que la suma de elementos de I pq esta en I pq . Efectivamente,

(α p + βq) + (α 0 p + β0q) = (α + α 0) p + (β + β0) q = α 00 p + β00q

donde α 00 = (α + α 0) y β00 = (β + β0). Ahora, comprobemos que los multiplos de loselementos de I pq estan en I pq . Tenemos, γ (α p + βq) = γα p + γβq = α 0 p + β0q dondeα 0 = γα y β0 = γβ y con esto concluimos que I pq es un ideal.

Como todo ideal de polinomios es principal, existe m tal que I pq = α m | α ∈ K [x ].Como p, q ∈ I pq , existen polinomios α y β tales que p = α m y q = βm . Como p

y q no tienen factores comunes, esto significa que m es de grado cero y por lo tantoIpq = K [x ]. En particular, 1 ∈ I pq .

Etienne Bezout (Francia, 1730-1783). Famoso en su epoca sobre to-do por los seis volumenes de su libro de texto “Cours complet de mathematiques a l’usage de marine et de l’artillerie” que por muchosanos fueron los libros que estudiaban los que aspiraban a ingresar a

la “Ecole Polytechnique”. Su investigacion matematica la dedico alestudio de los determinantes y de las soluciones de ecuaciones polino-miales.

E jercicio 90 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sinfactores comunes. Entonces, existen dos enteros α y β tales que α p + βq = 1. [193]

E jercicio 91 Demuestre que si p y q son dos polinomios tales que el maximo comun

divisor de p

y q

es r

entonces, existen polinomios α

y β

tales que α p + βq = r

. [193]

Unicidad de la factorizacion en irreducibles.

Diremos que un factor q es factor propio del polinomio monico p, si p 6= q.Un polinomio se le llama irreducible si este es monico, tiene grado al menos 1 y no

tiene factores propios. En otras palabras, cuando no se puede descomponer no trivial-mente en producto de dos factores. Cualquier polinomio p se puede descomponer como

α p1 p2 . . . pn donde α es su coefi

ciente principal y p1 · · · pn son polinomios irreducibles.La prueba de esto es obvia. Si un polinomio no es irreducible puedo descomponerlo enproducto de dos factores. Si estos factores no son irreducibles puedo descomponer enfactores cada uno de ellos y as ı sucesivamente llegamos a factores irreducibles.

Si p y q son dos polinomios y r es un factor irre-ducible de pq entonces r es un factor de p o de q.

Prueba. Supongamos que r no es un factor de p y probemos que es un factor deq. Como r es irreducible p y r no tienen factores comunes. Por el teorema de Bezoutexisten polinomios α y β tales que α r + β p = 1. Multiplicando por q obtenemos queα rq + β pq = q. Como la parte izquierda de esta igualdad se divide entre r entonces r

Page 146: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 146/232

136 Cap ıtulo 5. Polinomios

es un factor de q.

Sea p = α p1 · · · pn una descomposici´ on en factores irreducibles de p. Si qes cualquier factor irreducible de p entonces, q es igual a alguno de los pi.

Prueba. Por induccion en n. Si n = 1 entonces q divide a p1 y como p1 y q sonrreducibles obtenemos que p1 = q. Sea n > 1. Por 5.8 o q es un factor de pn o q es

un factor de p1 · · · pn−1. En el primer caso q = pn y en el segundo el resultado se siguepor hipotesis de induccion.

Teorema de Factorizacion de Polinomios

Cualquier polinomio p se descompone como α p1 p2 . . . pn donde α

es su coe fi ciente principal y p1 · · · pn son polinomios irreducibles.Esta descomposici´ on es ´ unica salvo el orden de los factores.

Prueba. Solamente debemos probar la unicidad. Ademas, sacando como factor elcoeficiente principal podemos suponer que p es monico. Si p es de grado 1 entonces nohay nada que probar ya que entonces p es irreducible y la unica descomposicion de p

es el mismo.Supongamos que el teorema es cierto para cualquier polinomio de grado estric-

tamente menor que k . Sea p monico de grado k que tiene dos descomposiciones enrreducibles p1 . . . pn = p0

1 . . . p0

m . Como pn es irreducible entonces de 5.9 obtenemosque tiene que existir un j tal que pn es un factor de p0

j. Como p0

j es irreducible p0

j = pn.Luego, para p/pn = p/p0

j tenemos dos descomposiciones que por hipotesis de induccionson iguales salvo orden.

El conjunto ordenado de polinomios monicos

Sea p = pj11 p

j22 . . . pjm

m la descomposici´ on factores irreducibles del polinomio m´ onico p. Entonces, todos los divisores m´ onicos de p son de la forma pk 1

1 pk 22 . . . pk m

m con 0 ≤ k i ≤ ji.

Prueba. Sea q un divisor monico de p = pj11 p

j22 . . . pjm

m . Por el resultado 5.9 y latransitividad de la relacion de divisibilidad cualquier factor irreducible de q es factorrreducible de p y por lo tanto q = p

k 11 p

k 22 . . . pk m

m para ciertos k i ≥ 0. Supongamos

que k 1 > j1. Entonces como p1 no divide a pj22 . . . pjmm obtenemos que p

k 11 no divide a

p. Esto contradice que q divide a p. Este mismo argumento funciona si suponemos quepara cierto i se tiene que k i > ji.

Sean p y q dos polinomios monicos. Sea p1, . . . , pm el conjunto de los polinomios

Page 147: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 147/232

137Seccion 5.1 Polinomios sobre campos

rreducibles que son factores de p o de q. Entonces por el Teorema de Factorizacionde Polinomios encontramos descomposiciones unicas p = p

j11 . . . pjm

m y q = pk 11 . . . pk m

m

donde los exponentes son naturales algunos posiblemente iguales a cero.Si p = p

j11 . . . pjm

m y q = pk 11 . . . pk m

m son dos polinomios monicos descompuestos

de la manera anterior, entonces de 5.11concluimos que pmax(j1 ,k 1 )1 . . . p

max(jm ,k m )m es el

mınimo comun multiplo de p y q; y que pmın(j1 ,k 1 )1 . . . p

mın(jm ,k m )m es el maximo comun

divisor de p y q. Esto prueba que cualesquiera dos polinomios tienen maximo com´ un divisor y m´ ı nimo com´ un m´ ultiplo.

Este mismo argumento se puede usar para convencernos de que cualquier conjuntofi nito de polinomios tiene m ınimo comun multiplo y maximo comun divisor.Este asuntoes un poco mas complejo cuando el conjunto de polinomios es in fi nito. As ı por ejemplo,el conjunto de polinomios

©x, x2, x3, . . .

ªno tiene m ınimo comun multiplo. Sin embargo,

cualquier conjunto de polinomios (finito o infinito) si tiene maximo comun divisor. La

prueba de este hecho es en esencia la misma que la anterior, solo hay que observar quecualquier conjunto de naturales (finito o infinıto) tiene m ınimo.

E jercicio 92 Pruebe que cualquier conjunto de polinomios monicos tiene maximocomun divisor.

E jercicio 93 Sea p = pj11 p

j22 . . . pjm

m la descomposicion factores irreducibles del poli-nomio monico p. ¿Cuantos divisores monicos tiene p?

Desarrollo de Taylor

Brook Taylor (Inglaterra 1685-1731). Entre las contribuciones de estematematico, se destacan: La invencion de la rama de las matematicasque hoy en d ıa se conoce como Calculo en Diferencias, la invencionde la integracion por partes, y la formula llamada por su nombre. En1772 Lagrange proclamo esta formula como “el principio basico del

calculo diferencial”. A esta formula, enunciada en la siguiente propo-sicion, se le llama Desarrollo de Taylor alrededor del punto x0.Como el lector sabe de los cursos de calculo, este desarrollo es mucho

mas general y se cumple en cierta clase de funciones. Sin embargo para polinomios,su demostracion es independiente del campo y puramente algebraica (no requiere delconcepto de continuidad).

Desarrollo de Taylor

Para cualquier polinomio p (x) y cualquier elemento del campox0 existen unos ´ unicos coe fi cientes α 0, α 1, . . . , α n tales que

p (x) = α 0 + α 1 (x − x0) + · · · + α n (x − x0)n.

Page 148: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 148/232

138 Cap ıtulo 5. Polinomios

Prueba. Sea p (x) =P

ak xk un polinomio de grado n. Si x0 = 0 entonces, α k = ak .

Supongamos que x0 6= 0. Por el binomio de Newton tenemosnX

j=0

α j (x − x0)j

=

nXj=0

α j

jXk =0

µj

k

¶xk (−x0)

j−k =

nXk =0

à nXj=k

µj

k

¶(−x0)

j−k α j

!xk

y para encontrar los coeficientes α j tenemos el sistema de ecuaciones lineales ak =Pnj=k bkj α j donde bkj = ¡ j

k ¢ (

−x0)j

−k . Observese que bkk = 1 por lo que la matriz de

nuestro sistema de ecuaciones es triangular con unos en la diagonal y por lo tanto sudeterminante es distinto de cero. Luego, el sistema tiene solucion unica.

En otras palabras el desarrollo de Taylor para polinomios lo que afirma es que-1, (x − x0) , (x − x0)

2, . . .

® es una base del espacio vectorial de polinomios. Esto no

es algo muy notable. Lo que s ı es notable es la forma que toman los coeficientes α i enterminos de las derivadas del polinomio (veanse los ejercicios que siguen).

E jercicio 94 Pruebe que si P = p0, p1, p2, . . . es un conjunto de polinomios tales que∀i ∈ N el grado de pi es i entonces, P es una base del espacio vectorial de polinomios.

E jercicio 95 Demuestre que la expresion Pi

j=k (−1)j−k ¡

j

k

¢¡i

j

¢ es igual a la funcion

delta de Kronecker δik o sea, es cero si i 6= k y es uno si i = k . [193]

E jercicio 96 Demuestre que los coeficientes α j del Desarrollo de Taylor (5.12) del

polinomio Pak xk son iguales a βj = P

n

i=j ¡i

j¢aixi−j0 . [194]

E jercicio 97 Pruebe que los coeficientes α j del Desarrollo de Taylor (5.12) del po-inomio p (x) son iguales a p(j) (x0) /j! donde p(j) (x) denota el polinomio derivado j

veces. [194]

5.2 Polinomios complejos. Teorema de Gauss

Johann Carl Friedrich Gauss (Alemania 1977-1855) fue el mas grandematematico de su epoca. Este teorema que lleva su nombre fue de-mostrado por primera vez en su tesis doctoral (1799). Este teoremaes conocido como el “teorema fundamental del algebra”. En este librohemos mencionado otros resultados de Gauss y cualquiera que se de-dique a estudiar matematicas, estadısticas, f ısica o astronom ıa oira deeste cient ıfico en mas de una ocasion.

En esta seccion demostraremos que el campo de los numeros complejos es algebrai-

camente cerrado. Como esta demostracion no es algebraica sino anal ıtica necesitaremosntroducir algunos conceptos basicos de analisis complejo. Para esto, presupondremos

que el lector conoce los correspondientes conceptos de analisis real.Si bien, el contenido de esta seccion no es basico para la comprension del algebra

Page 149: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 149/232

139Seccion 5.2 Polinomios complejos. Teorema de Gauss

ineal, por otro lado, si es fundamental que el lector conosca a la perfeccion el enunciadodel teorema de Gauss: todo polinomio complejo de grado al menos 1 tiene una ra´ ı z.

Forma polar. Igualdad de Moivre

Todo numero complejo z se puede representar en la forma

r cos ϕ

r sin ϕr

ϕ

polar z = r (cos ϕ + i sin ϕ) donde r es la longitud del vector−→0z en el plano complejo y ϕ es el angulo que forma dicho vectorcon el eje real de este plano (vease la figura). Al numero r se lelama modulo del numero complejo y es comun que se denote por

kz k. Al angulo ϕ se le llama argumento del numero complejo.

La forma polar hace mucho mas facil calcular el producto y laspotencias de numeros complejos.

Para hallar el producto de dos n´ umeros complejos hay que multiplicar sus m´ odulos y sumar sus argumentos.

Prueba. Sean r (cos ϕ + i sin ϕ) y ρ (cos ψ + i sin ψ) dos complejos. Tenemos

r (cos ϕ + i sin ϕ) ρ (cos ψ + i sin ψ) =rρ ((cos ψ cos ϕ − sin ψ sin ϕ) + (cos ψ sin ϕ + cos ϕ sin ψ) i) =

rρ (cos (ϕ + ψ) + i sin (ϕ + ψ))

que es lo que se necesitaba probar.

Aplicando este resultado al caso de la potencia de nume-z n = rn (cos nϕ + i sin nϕ)

ros complejos obtenemos la igualdad mostrada en el re-cuadro a la izquierda. Esta igualdad se conoce como la Igualdad de Moivre. Una desus consecuencias mas importantes es el siguiente resultado.

Los polinomios z n − a tienen exactamente n raices complejas.

Prueba. Sea a = r (cos ϕ + i sin ϕ). Para k ∈ 0,1,...,n − 1 denotemos xk el nume-ro complejo con modulo n

√ r y argumento (ϕ + 2k π ) /n. Por la Igualdad de Moivre

tenemos

xnk =

¡ n√ r¢n µcos n

ϕ + 2k π

n + i sin n

ϕ + 2k π

n

¶ = r (cos ϕ + i sin ϕ) = a

que es lo que se necesitaba probar.

Page 150: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 150/232

140 Cap ıtulo 5. Polinomios

Abraham de Moivre (Francia 1667-1754). Uno de los fundadores de laGeometr ıa Anal ıtica y de la Teor ıa de las Probabilidades. A pesar desu exelencia cient ıfica, nunca tuvo la oportunidad de tener un puestoen alguna universidad. Sus ingresos proven ıan de dar clases privadasde Matematicas y murio en la pobreza. Moivre tambien es famoso por

haber predicho el d´ı

a de su muerte. Descubrio que dorm´ı

a 15 minutosmas cada noche y sumando la progresion aritmetica calculo que morir ıaen el d ıa que dormir ıa 24 horas. ¡Tuvo razon!

E jercicio 98 Pruebe que el conjunto de raices complejas del polinomio z n − 1 es ungrupo para el producto. ¿Que grupo es este? [194]

ContinuidadUna funcion f : C → C es continua en el punto z 0 si para todo real positivo ε

existe otro real positivo δ tal que se cumple que (kz − z 0k < δ) ⇒ (kf (z ) − f (z 0)k < ε).Una funcion continua en todo punto del plano complejo se le llama continua.

La funci´ on m´ odulo z 7→ kz k es continua.

Prueba. Veamos la desigualdad kz −

z 0k ≥ kkz k−

kz 0kk. Esta desigualdad es equi-valente a la siguiente: “En un triangulo el valor absoluto de la diferencia de dos desus lados siempre es menor o igual que el tercero”. La prueba de esta la dejaremosen calidad de ejercicio. Por esta desigualdad, tenemos que ∀ε > 0 ∃δ = ε tal que sikz − z 0k < δ entonces, kkz k − kz 0kk ≤ kz − z 0k < ε y esto prueba nuestra tesis.

E jercicio 99 Pruebe que en un triangulo el valor absoluto de la diferencia las lon-

gitudes de dos de sus lados siempre es menor o igual que la longitud del tercero.194]

La suma y el producto de funciones continuas en un punto z 0 son continuas en el punto z 0.

Prueba. Sean f y g funciones continuas en z 0. Con el objetivo de ahorrar espacio

denotemos fz = f (z ), f0 = f (z 0), gz = g (z ) y g0 = g (z 0). Para todo ε > 0 existen δ1

y δ2 tales que(kz − z 0k < δ1) ⇒ (kfz − f0k < ε)(kz − z 0k < δ2) ⇒ (kgz − g0k < ε)

Page 151: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 151/232

141Seccion 5.2 Polinomios complejos. Teorema de Gauss

y en particular para el m ınimo (que llamaremos δ) de δ1 y δ2 se cumplen las dos des-gualdades a la derecha. Sumando y aplicando la desigualdad del triangulo obtenemos:

θ = 2ε > kfz − f0k + kgz − g0k ≥ kfz − f0 + gz − g0k = k(f + g) (z ) − (f + g) (z 0)k

Luego, para todo θ > 0 existe δ tal que (|z − z 0| < δ) ⇒ |(f + g) (z ) − (f + g) (z 0)| < θ

con lo que se prueba que la suma de continuas es continua.

Por otro lado, por la desigualdad del triangulo y 5.13 tenemosk(fg) (z ) − (fg) (z 0)k = kfz gz − f0g0k =

k(fz − f0) (gz − g0) + (fz − f0) g0 + (gz − g0) f0k ≤kfz − f0k kgz − g0k + kfz − f0k kg0k + kgz − g0k kf0k <

< ε2 + ε |g0| + ε |f0| < (1 + |g0| + |f0 |) ε = cε = θ

donde la ultima desigualdad se da para ε < 1. Como c es una constante que nodepende de z obtenemos que para todo θ > 0 existe δ tal que (|z − z 0| < δ) ⇒(fg) (z ) − (fg) (z 0)| < θ lo que prueba que el producto de continuas es continua.

Para cualquier polinomio complejo p la funci´ on de evaluacion C 3 z 7→ p (z ) ∈ C es continua.

Prueba. La funcion de evaluacion de un polinomio se obtiene usando sumas y pro-ductos de funciones constantes y la funcion identidad f (z ) = z . Estas funciones soncontinuas y de 5.16 obtenemos la prueba.

Sea g una funci´ on continua en el punto z 0 y f una funci´ on continua en el punto g (z 0) entonces, la composici´ on f g es continua en el punto z 0.

Prueba. Por la continuidad de f en g (z 0) tenemos que ∀ε > 0 ∃δ (kz − g (z 0)k < δ) ⇒kf (z ) − f (g (z 0))k < ε. Por otro lado, de la continuidad de g en z 0 sabemos que ∀δ >

0 ∃δ0 (k y − z 0k < δ0) ⇒ kg ( y) − g (z 0)k < δ. Componiendo estas dos propiedadesobtenemos

∀ε > 0

∃δ0 (k y − z 0k < δ0)

⇒ kf (g ( y)) − f (g (z 0))k < ε que es lo que

necesitabamos.

El m´ odulo de un polinomio es una funci´ on continua.

Prueba. Por 5.18 y porque los polinomios y el modulo son funciones continuas.

Lımite de sucesiones complejasUna sucesion de numeros complejos z j = aj + bji tiene lımite z = a + bi si las

sucesiones reales aj y bj tienen l ımites a a y b respectivamente. Esto es equivalentea que los modulos y los argumentos de la sucesion converjan al modulo y al argumento

Page 152: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 152/232

142 Cap ıtulo 5. Polinomios

del l ımite. Tambien, esto es equivalente a que ∀ε > 0 ∃N tal que ∀k > N kz k − z k < ε.Una sucesion es convergente si esta tiene l ımite. Por una propiedad analoga paraas sucesiones reales se tiene que toda subsucesion de una sucesion convergente es

convergente y converge al mismo l ımite. Una sucesion z j = aj + bji es acotadasi ambas sucesiones aj y bj son acotadas. Esto es equivalente a que la sucesion

real kz jk sea acotada. Es claro que una sucesion no acotada no puede tener l´ı

mite.Tambien, que toda sucesion acotada tiene una subsucesion convergente pues esta mismapropiedad se cumple para sucesiones reales. Expongamos otras dos propiedades que sonun poco mas dif ıciles de probar.

Sea f una funci´ on continua en z 0 y z k una sucesi´ on de n´ ume-ros complejos que converge a z 0. Entonces, lım f (z k ) = f (lım z k ).

Prueba. Como f es continua en z 0 y lım z k = z 0 entonces tenemos que∀ε > 0 ∃δ (kz − z 0k < δ) ⇒ (kf (z ) − f (z 0)k < ε)

∀δ > 0 ∃N (k > N) ⇒ (kz k − z 0k < δ) .

Por la transitividad de la implicacion obtenemos que

∀ε > 0 ∃N (k > N) ⇒ kf (z k ) − f (z 0)k < ε

y esto quiere decir que lım f (z k ) = f (z 0).

Si z k es no acotada y p es un polinomio de grado al menos 1 entonces, la sucesion k p (z k )k es no acotada.

Prueba. Sea p (z ) un polinomio de grado n > 1. Por la desigualdad triangular,tenemos

k p (z )k ≥n

Xi=0 °°aiz i

°° =

n

Xi=0

kaik kz ki= kank kz kn

+

n−1

Xi=0

kaik kz ki ≥ kank kz kn

Como z k no es acotada, tampoco lo son kank kz k kn

y k p (z k )k.

Teorema de Gauss

Ya estamos listos para demostrar el Teorema de Gauss pero antes, veamos unresultado preliminar que hace la mayor ıa del trabajo.

Sea p un polinomio complejo de grado al menos 1. Si z 0 no es una ra´ ı z de p entonces, existe z ∈ C tal que k p (z )k < k p (z 0)k.

Page 153: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 153/232

143Seccion 5.2 Polinomios complejos. Teorema de Gauss

Prueba. Hagamos el desarrollo de Taylor de p (z ) alrededor del punto z 0. Tenemos

p (z ) =

nXj=0

α j (z − z 0)j

= p (z 0) +

nXj=1

α j (z − z 0)j

ya que α 0 = p (z 0) . Sea α k el primero de los α j | j > 0 diferente de cero y escojamosz = z 0 + tθ donde θ es una (vease 5.14) de las raices de la ecuacion α k x

k + p (z 0) = 0

y t es un real tal que 0 < t < 1 que definiremos despues. Por la definicion de θ, z y k tenemos

p (z ) = p (z 0) + α k θk tk +

nXj=k +1

α jθjtj = p (z 0)¡

1 − tk ¢

+

nXj=k +1

α jθjtj

y por lo tanto, de la desigualdad del triangulo obtenemos:

k p (z )k ≤

¡1 − tk

¢k p (z 0)k +

n

Xj=k +1 °°α jθj

°°tj = k p (z 0)k + tk q (t)

donde q (t) denota el polinomio (con coeficientes re-− k p (z 0)k +

nXj=k +1

°°α jθj°° tj−k

ales) del recuadro a la derecha. Observemos que secumple la desigualdad q (0) = − k p (z 0)k < 0.

Por continuidad (de los polinomios reales) existe un t0 > 0 suficientemente pequenotal que q (t0) < 0. Luego, k p (z 0 + t0θ)k ≤ k p (z 0)k + tk

0 q (t0) < k p (z 0)k.

E jercicio 100 ¿Donde se usa en la demostracion anterior que t < 1? [194]

Teorema de Gauss

Todo polinomio de grado mayor que cero tiene al menos una ra´ ı z compleja.

Prueba. Sea p un polinomio. Denotemos A = k p (z )k : z

∈C. El conjunto A es

un conjunto de reales acotado inferiormente pues k p (z )k ≥ 0. Luego (por un teoremaclasico de analisis matematico), A tiene un ınfimo que denotaremos por μ .

Demostremos que μ es el m ınimo o sea, que μ ∈ A. Como μ es ınfimo hay una suce-sion aj de elementos de A que converge a μ y por lo tanto hay una sucesion de comple-os z j tales que lım k p (z j)k = μ . Si la sucesion z j no estuviera acotada entonces, por

5.21 la sucesion k p (z j)k tampoco lo ser ıa lo que contradice que esta sucesion convergea μ . Luego, z j es acotada y podemos escoger una subsucesion convergente que pode-mos suponer la misma. Denotemos y = lım z j. Como el modulo de un polinomio es una

funcion continua entonces, por 5.20 tenemos μ = lım k p (z j)k = k p (lım z j)k = k p ( y)k.Luego, μ ∈ A.

Si μ 6= 0 entonces, por 5.22 existir ıa un y0 tal que k p ( y0)k < k p ( y)k = μ lo quecontradice que μ es el m ınimo de A. Luego, k p ( y)k = 0 y por lo tanto p tiene una

Page 154: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 154/232

144 Cap ıtulo 5. Polinomios

raız.

5.3 Factorizacion de polinomios complejos y reales

En esta seccion utilizaremos el teorema de Gauss para averiguar cuales son todosos polinomios irreducibles con coeficientes complejos y los polinomios irreducibles con

coeficientes reales. Esto nos dara la posibilidad de encontrar la descomposicion enfactores (unica salvo orden de los factores) de los polinomios complejos y reales.

Caso Complejo

Clasificacion de los polinomios complejos irreducibles

Los polinomios complejos irreducibles son exactamente los m´ onicos de grado uno.

Prueba. Al absurdo supongamos que un polinomio irreducible tiene grado mayorque uno. Por el Teorema de Gauss (5.23) este polinomio tiene una ra ız α . Por 5.4 elpolinomio se divide entre (x − α ) y esto contradice que el polinomio es irreducible.

Este resultado nos da la posibilidad de factorizar completamen-

an

k Qj=1

(x − α j)nj te los polinomios complejos. Por el Teorema de Factorizacion dePolinomios (5.10) cada polinomio complejo p (x) se tiene que des-componer como en el recuadro a la izquierda. En esta formula, an

es el coeficiente principal del polinomio. Los complejos α j son las diferentes raices dep (x). El natural nj es la multiplicidad de la ra ız α j y n =

Pni es el grado de p (x).

Nuevamente, por el Teorema de Factorizacion de Polinomios (5.10) esta descomposiciones unica salvo orden de los factores.

Caso real

Recordemos que si a+bi es un numero complejo entonces su1. z ∈ R⇒ z = z

2. z + u = z + ¯ u

3. zu = z u

complejo conjugado es a−bi. Denotaremos por z el complejoconjugado del numero complejo z . Es facil comprobar que laoperacion de conjugacion cumple las propiedades del recuadroa la derecha.

Las propiedad 1 es trivial de la definicion. Las propiedades 2 y 3 significan que la

conjugacion compleja es un automorfi

smo del campo de los numeros complejos.

E jercicio 101 Demuestre que la conjugacion es un automorfismo. [194]

Page 155: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 155/232

145Seccion 5.3 Factorizacion de polinomios complejos y reales

Sea p un polinomio con coe fi cientes reales y α una ra´ ı z compleja de p. Entonces α es tambien una ra ı z de p.

Prueba. Como α es ra ız de p =

Paixi y por las propiedades de la conjugacion

tenemos

0 = 0 = Xaiα i = Xaiα i = Xaiα i

que es lo que se quer ıa probar.

Clasificacion de los polinomios reales irreducibles

Si p es un polinomio real irreducible entonces p es de la forma x − α o es de la forma (x − a)2 + b2 con b 6= 0.

Prueba. Si p es de grado 1 entonces necesariamente es igual a x−

α para ciertonumero real α . Si p es de grado 2 entonces por el teorema de Gauss este tiene un factorx − α para cierto α complejo. Si α fuera real esto contradecir ıa que p es irreducible.Luego, α = a + bi con b 6= 0. Por la proposicion anterior a − bi tambien es una raızde p por lo que

p (x) = (x − (a + bi)) (x − (a − bi)) = (x − a)2

+ b2

Si p es de grado al menos 3 entonces, por el teorema de Gauss este tiene una ra ızcompleja α . Si α fuera real entonces x−α ser ıa un factor de p. Si α = a + bi con b 6= 0

entonces (x−

a)2 + b2 ser ıa un factor de p. En ambos casos se contradice la suposicionde que p es irreducible.

Ahora, ya podemos descomponer completamente en factores los polinomios concoeficientes reales. Cada polinomio real p (x) se tiene que expresar como:

p (x) = an

k Yj=1

(x − α j)nj

k Y`=1

³(x − a`)

2+ b2

`

´m

En esta formula, an es el coeficiente principal del polinomio. Los numeros reales α j sonas diferentes raices reales de p (x). El numero natural nj es la multiplicidad de la ra ız

α j. Los numeros complejos (a` + b`i) y (a` − b`i) son las diferentes raices complejasde p (x). El numero natural m es la multiplicidad de la ra ız compleja (a` + b`i).Obviamente, n =

Pni + 2

Pm es el grado de p (x). Nuevamente, por el Teorema

de Factorizacion de Polinomios (5.10) esta descomposicion es unica salvo orden de losfactores.

La diferencia fundamental entre los numeros reales y los numeros complejos se

expresa de manera muy evidente en los resultados de esta seccion. Esta diferenciahara que posteriormente nos sea mucho mas facil clasificar los operadores lineales en unespacio vectorial complejo que en un espacio vectorial real. En general, todo es mas facilpara los campos que cumplen el Teorema de Gauss o sea, los campos algebraicamente

Page 156: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 156/232

146 Cap ıtulo 5. Polinomios

cerrados.

5.4 Campos de fracciones. Funciones racionales

Sea (A, +, ·) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 elneutro multiplicativo respectivamente . Queremos construir un campo que contenga aA. Esta es una situacion analoga a cuando construimos el campo de los racionales Qpara que contenga al anillo conmutativo Z . ¿Funcionara esta misma construccion enel caso general? Investiguemos para lograr una respuesta.

Campos de fracciones

Lo primero es definir las fracciones. Consideremos con-

³a

b =

c

d´⇔ (ad = bc)unto de todas las fracciones a/b donde a ∈

A y b ∈A \ 0. Dos fracciones las consideraremos iguales si se cum-

ple la igualdad en el recuadro a la derecha.

E jercicio 102 Pruebe que la igualdad de fracciones es una relacion de equivalencia.194]

Ahora, necesitamos definir las operaciones entre fracciones. Primero el

ab

cd = ac

bd producto porque es el mas facil. Definamos el producto por la formulaen el recuadro a la izquierda. Nos tenemos que convencer primero de que

esta definicion es correcta. O sea que si las fracciones son iguales sus productos songuales. Mas precisamente, necesitamos ver que se cumple lo siguiente:µ

a

b =

a0

b0y

c

d =

c0

d0

¶⇒µ

ac

bd =

a0c0

b0d0

¶y efectivamente de las hipotesis de esta implicacion tenemos ab0 = a0b , cd0 = c0d ymultiplicando estas dos igualdades obtenemos acb0d0 = a0c0bd, lo que es equivalente a

a tesis de la implicacion.Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen

en los “numeradores” y en los “denominadores”. La fraccion 1/1 es neutro para elproducto y cualquier fraccion a/b donde a 6= 0 tiene inverso multiplicativo b/a yaque ab/ba = 1/1 por la conmutatividad del producto en A. Todo esto significa que elconjunto de fracciones con numerador distinto de cero forman un grupo conmutativo.

Definamos ahora la suma de fracciones por la formula en el a

b

+ c

d

= ad + cb

bd

recuadro a la derecha. Para convencernos que la definicion es

correcta tenemos que probar que las sumas de fracciones igualesson iguales. O sea que:µ

a

b =

a0

b0y

c

d =

c0

d0

¶⇒µ

ad + cb

bd =

a0d0 + c0b0

b0d0

Page 157: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 157/232

147Seccion 5.4 Campos de fracciones. Funciones racionales

y efectivamente haciendo algunos calculos inteligentes obtenemosµ ab0 = a0b

cd0 = c0d

¶⇒µ

0 = (ab0− a0b) dd0 =

= (c0d − cd0) bb0 = 0

¶⇒µ

(ad + cb) b0d0 == (a0d0 + c0b0) bd

¶que era lo que se necesitaba probar.

La comprobacion de que esta suma es conmutativa es obvia. La asociatividad se

comprueba calculando que ab

+ cd

+ u v

= adv + cbv + ubdbdv

ndependientemente del orden en que se haga la suma. La fraccion 0/1 es neutro paraa suma y cualquier fraccion a/b tiene opuesto −a/b (para esto ultimo es necesario

observar que 0/1 = 0/v para todo v 6= 0). Luego, el conjunto de todas las fracciones esun grupo abeliano respecto a la suma.

Solo nos falta la distributividad para comprobar que las fracciones con las opera-ciones definidas forman un campo y esto se comprueba con los siguientes calculos:

u v³a

b + c

d´ = uad + ucb

vbd = uad

vbd + ucb

vbd = ua

vb + uc

vd = u

vab

+ u v

cd

.

Por ultimo observemos que si identificamos al elemento a ∈ A con la fraccion a/1

podemos pensar que el anillo A es un subconjunto de las fracciones ya que que la sumay el producto de estas fracciones coinciden con la suma y el producto dentro de A.

Hemos hecho todas estas pruebas detalladamente para no equivocarnos al afir-mar que esto que hemos demostrado sirve para cualquier anillo conmutativo. El lectordeber ıa analizar cuidadosamente cada igualdad en los razonamientos anteriores para

convencerse de que todas ellas se desprenden de los axiomas de anillo conmutativo yde las definiciones de las operaciones entre fracciones. Al conjunto de todas las frac-ciones con las operaciones as ı definidas se le llama el campo de fracciones del anilloconmutativo A.

MENTIRA, no hay tal campo de fracciones para cualquier anillo conmu-tativo. ¿Puede usted encontrar el error? Si cree que puede regrese arribay busquelo, si no, siga leyendo.

El problema es el siguiente. Al definir el producto (a/b) (c/d) = (ac/bd) con b yd distintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. Estono es cierto en cualquier anillo conmutativo, por ejemplo en Z6 tenemos 2 × 3 = 0.

Si en el anillo hay tales elementos no podemos definir adecuadamente el producto defracciones (tampoco la suma). Ya vimos, que si un anillo conmutativo es tal que paracualesquiera b y d distintos de cero se tiene que bd es distinto de cero entonces, se diceque este anillo es un dominio de integridad. Ahora si, todo dominio de integridad tiene su campo de fracciones . El ejemplo evidente de dominio de integridad es Z. Su campo

de fracciones es Q.Funciones racionales

El ejemplo por el cual hemos escrito esta seccion es el siguiente:

Page 158: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 158/232

148 Cap ıtulo 5. Polinomios

Todo anillo de polinomios con coe fi cientes en un campo es un dominio de integridad.

Prueba. Tenemos que probar que el producto de dos polinomios diferentes de ceroes diferente de cero (recuerdese que un polinomio es cero cuando todos sus coeficientes

son cero).Sean p (x) =

Pn

i=0 aixi y q (x) =Pm

i=0 bixi dos polinomios cualesquiera de grados n

y m respectivamente. Denotemos p (x) q (x) =Pn+m

i=0 cixi. Por la formula del productode polinomios, tenemos cn+m = an bm . Como an 6= 0, bm 6= 0 y todo campo es dominiode integridad obtenemos cn+m 6= 0 y por lo tanto p (x) q (x) 6= 0.

Observese que en la demostracion no se uso el hecho de que en el campo K hay inversosmultiplicativos. Eso quiere decir que de hecho, hemos demostrado algo mucho mas fuerte:Los anillos de polinomios con coeficientes en un dominio de integridad son dominios de

ntegridad.

Como el anillo de polinomios K [x ] es un dominio de integridad este tiene su campode fracciones que se denota por K (x) . Notese la diferencia entre K [x ] y K (x). A loselementos de K (x) se les llama funciones racionales (en la variable x). Las funcionesracionales son fraciones de polinomios p (x) /q (x) que se suman y multiplican medianteas reglas a las que todos estamos acostumbrados.

E jercicio 103 ¿Conoce usted un campo infi

nito de caracter´ıstica 2? [195]E jercicio 104 ¿Que pasa si construimos el campo de fracciones de un campo? [195]

Page 159: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 159/232

apítulo sexto

Descomposición de Operadores Lineales Descomposición de

Operadores Lineales

ay dos teoremas que son muy conocidos por el lector y que son muy parecidos.El primero es que todo numero natural se descompone de forma unica salvoorden de los factores en producto de numeros primos. El segundo es que todo

polinomio se descompone de forma unica salvo orden de los factores en producto depolinomios irreducibles. Para los operadores lineales hay un teorema parecido todooperador lineal se descompone en suma directa de OLs irreducibles, el “tipo” de tal descomposici´ on es ´ unico. En este cap ıtulo daremos la demostracion de este teorema yo que es mas importante, encontraremos cuales son todos los OLs irreducibles de un

espacio vectorial de dimension finita.

6.1 Suma directa de operadores lineales

Recordemos que el acronimo OL significa para nosotros un operador lineal, o sea unatransformacion lineal de un espacio en si mismo. Con otras palabras, un endomorfismo

del espacio. Usaremos sistematicamente este acronimo. Sin embargo, al conjunto detodos los OLs de un espacio vectorial E lo denotaremos por End (E). Ya vimos queel conjunto End (E) es un algebra para la suma de funciones, la multiplicacion porescalares y la composicion de OLs. El conjunto End (E) contiene el neutro para lasuma que es el operador lineal O que a cualquier vector le hace corresponder el vector0. Tambien contiene al neutro para la composicion de funciones I que es la identidadI (a ) = a .

En este cap ıtulo todos los espacios vectoriales seran de dimension finita. Si f : E

→E

y g : F → F son dos OLs entonces, a la funcionf ⊕ g : E ⊕ F 3 (a , b) 7→ (f (a ) , g (b)) ∈ E ⊕ F

se le llama suma directa de los OLs f y g. Es facil comprobar que la suma directa dedos OLs es un OL.

Page 160: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 160/232

150 Cap ıtulo 6. Descomposicion de operadores lineales

E jercicio 105 Pruebe que la suma directa de OLs es siempre un OL. [195]

El lector no debe confundir la suma directa de OLs con la habitual suma defunciones. Si f : E

→E y g : E

→E son dos OLs entonces su suma se define

como (f + g) (a ) = f (a ) + g (a ).Veamos ahora un ejemplo. Sea f : R2 → R2 la rotacion en el

[a,b,c ]

[a, b ]

α

[f ⊕ g ] [a,b,c ]

c

2c

f [a, b ]

angulo α en contra de las manecillas del reloj o en otras palabras1, 0) 7→ (cos α , sin α ) y (0, 1) 7→ (− sin α , cos α ). Sea g : R→ Ra dilatacion de factor 2 o sea z 7→ 2z . El espacio R2 ⊕ R lo

podemos pensar como R3 en el cual el primer sumando es elplano x, y y el segundo es el eje z . Sabemos como transforma f

el plano x, y (rotando) y como transforma g el eje z (dilatando).

Vease la figura a la derecha.Ahora si (a,b,c) es un vector arbitrario de R3 entonces podemos rotar a (a, b)

en el plano xy obteniendo (a cos α − b sin α , b cos α + a sin α ) y dilatar c en el eje z

obteniendo 2c. De esta manera, obtenemos el OL de todo R3 que a (a,b,c) le hacecorresponder (a cos α − b sin α , b cos α + a sin α , 2c) . Este OL es precisamente f ⊕ g.

E jercicio 106 Dado f ⊕ g ∈ End (E ⊕ F) podemos definir a f0 = f ⊕ I y g0 = I ⊕ g.

Pruebe que f ⊕ g = f

0

g

0

= g

0

f

0

. Esto signifi

ca que podemos pensar la suma directacomo la composicion de dos OLs que conmutan. [195]

Subespacios invariantes, componentes irreducibles

A partir de ahora y en todo este cap´ ı tulo la funcion h : E → E es unOL del espacio vectorial fi nito dimensional E. La dimension de h es pordefinicion la dimension de E.

La simplicidad de la operacion de suma directa de OLs nos lleva a querer descom-poner h en suma directa de otros OLs. La pregunta es: ¿Dado h sera posible encontrarOLs f y g tales que h = f ⊕ g?. Detallemos un poco mas el problema. Si F y G

son subespacios complementarios de E entonces, por el isomorfismo canonico entrea suma de subespacios complementarios y la suma directa de subespacios tenemos

E = F + G = F ⊕ G. La pregunta es ¿cuando existen OLs f : F → F y g : G → G talesque h = f ⊕ g?

Supongamos que efectivamente h = f

⊕g y sea a un vector en F. Por definicion

de f ⊕ g para calcular h (a ) tenemos que expresar a como suma de un vector en Fy otro en G. Esta descomposicion es unica y en este caso es a = a + 0 por lo queh (a ) = f (a ) + g (0) = f (a ) + 0 = f (a ). De aqu ı deducimos que h (a ) ∈ F y comoesto se hizo para un vector arbitrario en F obtenemos que h (F) = h (a ) | a ∈ F ⊆ F.

Page 161: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 161/232

151Seccion 6.1 Suma directa de operadores lineales

De la misma manera se demuestra que h (G) ⊆ G.

Esto nos lleva a la siguiente definicion. Diremos que F ⊆ E es un subespacionvariante de h (o que F es h -invariante) si se cumple que h (F) ⊆ F.

. 1

6 Un OL se descompone como suma directa de dos OLs si y solo si el tiene dos subespacios invariantes complementarios.

Prueba. Ya demostramos la necesidad. Demostremos la suficiencia. Para esto su-pongamos que h : E → E tiene dos subespacios invariantes complementarios F y G.Tenemos E = F ⊕ G, h (F) ⊆ F y h (G) ⊆ G. Sean f : F → F y g : G → G lasrestricciones de la funcion h a los subespacios F y G respectivamente. Obviamente f yg son OLs. Sea x un vector arbitrario en E. Existen unos unicos a ∈ F, b ∈ G tales que

x = a + b y por linearidad tenemos h ( x) = h (a + b) = h (a ) + h (b) = f (a ) + g (b)por lo que h = f ⊕ g.

Acabamos de traducir nuestro problema original al de la existencia de subespaciosnvariantes complementarios pero hay un caso degenerado que no nos facilita en nadaas cosas. Todo el espacio E es invariante pues obviamente h (E) ⊆ E. Igualmente el

subespacio 0 formado solo por el origen es invariante ya que h (0) = 0. Ademas, lossubespacios 0 y E son complementarios y en este caso h se descompone como la suma

directa de f : 0 7→ 0 y g = h . Tal descomposicion siempre existe, pero no nos da nadaya que g = h .

Un subespacio se le llama no trivial si el no es ni todo el espacio y ni el origen. UnOL se le llama reducible si el tiene dos subespacios invariantes complementarios notriviales y en otro caso se le llama irreducible. A la restriccion de h a un subespacionvariante no trivial que tiene un complementario invariante se le llama componente

de h . En otras palabras, f es una componente de h si existe g tal que h = f ⊕ g

y esta descomposicion es no trivial. Los OLs irreducibles son exactamente aquellos

cuya unica descomposicion como suma directa de dos es la trivial o sea, aquellos queno tienen componentes. Si un OL es reducible entonces, este se descompone comosuma directa de dos componentes. Si alguna de las componentes es reducible entoncespodemos descomponerla. Asi, vemos que cualquier OL es suma directa de componentesrreducibles.

E jercicio 107 Sea α un escalar no nulo y f un OL. Pruebe que si f es irreducible

entonces α f es irreducible. [195]E jercicio 108 Se dice que dos operadores f y g son conjugados si existe un OLbiyectivo ρ tal que f = ρ g ρ−1. Pruebe que la relacion de conjugacion es deequivalencia. [195]

Page 162: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 162/232

152 Cap ıtulo 6. Descomposicion de operadores lineales

E jercicio 109 Pruebe que f y g son conjugados si y solo si existen bases A y B delespacio tales que la matriz de f en la base A es igual a la matriz de g en la base B.195]

E jercicio 110 Pruebe que si f es irreducible y g es un conjugado de f entonces, g

tambien es irreducible. [195]Ejemplos en dimension 2

Todo OL de dimension 1 es irreducible pues los unicos subespacios posibles sonos triviales. Veamos que sucede en dimension 2. Supongamos que E es de dimension

2. Si h es reducible entonces, E = F ⊕ G y necesariamente F y G son subespaciosh -invariantes de dimension 1. Por la proposicion 3.2 las restricciones f y g de h a F

y G respectivamente son homotecias, o sea, existen escalares α y β tales que f es lamultiplicacion por α y g es la multiplicacion por β.

Si x es una base de F y y es una base de GR2

x 7→ 3x y 7→ 2y

y

x

µ α 0

0 β

¶ entonces la matriz de h en la base x, y es la del

recuadro a la izquierda, o sea es diagonal. Hemosdemostrado que cualquier operador lineal reduci-

ble de dimension 2 cumple que existe una base en la cual sumatriz es diagonal. En la figura de la derecha esta representadael OL de este tipo cuando E = R2 , x, y es la base canonica,α = 3 y β = 2.

Una rotacion de R2

en un angulo α en contra de las manecillas del reloj es obvia-mente irreducible para α /∈ 0,180 ya que en este caso, ninguna recta por el origen sequeda en su lugar. O sea, las rotaciones no tienen subespacios invariantes no triviales.

Otro ejemplo es el que surge si a un cuadrado le apli- µ λ 1

0 λ

¶R2 y

x

camos dos fuerzas en sentido contrario a dos de suslados opuestos. Mas precisamente, al OL que tiene co-mo matriz en la base canonica de R2 la del recuadro ala derecha la llamaremos λ-deslizamiento. La figura de la izquierda

muestra intuitivamente como se mueven los puntos de R2

al aplicarun 1-deslizamiento. De esta figura, se ve que la unica recta por elorigen que es invariante es el eje x. Luego un λ-deslizamiento es irreducible (λ 6= 0) yaque el eje x no tiene complementario invariante.

E jercicio 111 ¿Sera cierto que si un operador es irreducible entonces es biyectivo?195]

Las matrices y los subespacios invariantes

Sea F es un subespacio invariante del OL h : E → E. Sea G un subespacio comple-mentario a F. Escojamos bases A y B de F y G respectivamente. Sabemos que A ∪ B

Page 163: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 163/232

153Seccion 6.2 Polinomios de operadores lineales

es una base de todo el espacio. Sea x un vector en la base A. Podemos hallar lascoordenadas de h ( x) en la base A ∪ B

h ( x) =Xa ∈A

α a a +Xb∈B

βbb

y como h ( x) ∈ hAi entonces, todas las coordenadas βb son iguales a cero.

Estas coordenadas forman una columna de la matriz de h en la baseµ M ∗0 ∗

¶ A ∪ B y por lo tanto despues de ordenar las bases, esta matriz tiene

que verse como en el recuadro a la izquierda. La matriz M es la de larestriccion de h a F. El 0 representa una submatriz con entradas cero

con |A| columnas y |B| renglones. Finalmente, los “*” representan submatrices de lasdimensiones apropiadas. Resumiendo para futuras referencias:

. 2

6 Si F es un subespacio invariante de h y A es una base de todo

el espacio que contiene a una base B de F entonces, la matriz de h en la base A es triangular por bloques y el bloque superior izquierdo es la matriz de la restricci´ on de h a F en la base B.

Si ademas, G es h invariante entonces, el mismo razonamiento nos µ M 0

0 M0

¶hace ver que el “*” superior derecho es una submatriz con entradascero con |B| columnas y |A| renglones. En este caso la matriz tieneque verse como en el recuadro a la derecha. La matriz M0 es la dea restriccion de h a G. Resumiendo para futuras referencias:

. 3

6 Si F y G son subespacios invariantes complementarios de h y los conjuntos A y B son bases de F y G respectivamente enton-ces, la matriz de h en la base A ∪ B es diagonal por bloques y los bloques diagonales son las matrices de las restricci´ ones de h a F en la base A y de h a G en la base B respectivamente.

E jercicio 112 Demuestre que (f ⊕ g)2

= f2 ⊕ g2. Traduzca esta igualdad al lenguajede matrices.

6.2 Polinomios de operadores lineales

En esta seccion introduciremos una herramienta para el calculo de los subespaciosnvariantes de un OL a saber, los polinomios de OLs. Se recomienda que el lector lea

(o vuelva a leer) la seccion 5.1 en la cual se introducen los ideales de polinomios y se

Page 164: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 164/232

154 Cap ıtulo 6. Descomposicion de operadores lineales

demuestra que todo ideal de K [x ] es principal.

El morfismo de K [x ] en End (E)

Para cualquier numero natural n el operador h n

h n

=

⎧⎨⎩

n veces

z | h ... h si n > 0I si n = 0

se define como en el recuadro a la derecha. De aqu ı,

como sabemos sumar OLs y multiplicar por escalaresa los OLs, vemos que una expresion como por ejemploh 2 − 2h 1 + 5I es un OL que conocemos si tan soloconocemos a h

En general si p (x) =Pn

i=0 α ixi ∈ K [x ] es un polinomio arbitrario con coeficientesen el campo del espacio vectorial E, entonces ph =

Pni=0 α ih i es un OL bien definido. Al

proceso de substituir la variable x por el OL h y de esta manera convertir el polinomiop (x) en el OL ph se le llama evaluacion de p en h .

El lector debe prestar atencion a la notacion. Usaremos ph y no p (h ) aun-que al parecer esta ultima es mas natural. El problema es que tendremosque evaluar polinomios en operadores lineales y a su vez estos en vectores.

Si usaramos la notacion p (h ) tendr ıamos que escribir p (h ) (a ) y estos son demasiadosparentesis en comparacion con ph (a ).

Recordemos de la seccion 3.2 que un algebra es un espacio vectorial con un pro-ducto de vectores asociativo, distributivo, con elemento neutro y que conmuta con el

producto por escalares. Ya vimos, que el espacio vectorial End (E) es un algebra paraa composicion de OL. Tambien vimos que el espacio vectorial de todos los polinomiosK [x ] es un algebra para el producto de polinomios.

Una subalgebra es un subconjunto de una algebra que es algebra para las ope-raciones inducidas en el subconjunto. Un subconjunto de una algebra es subalgebracuando es subespacio del espacio vectorial, es cerrado para el producto y contiene el 1.

Una transformacion lineal entre dos algebras es un morfismo de algebras si estaconmuta con el producto y preserva el 1.

. 4

6 La funci´ on de evaluaci´ on de polinomios en un operador lineal es un mor fi smo de ´ algebras.

Prueba. La funcion de evaluacion K [x ] 3 p (x) 7→ ph ∈ End (E) es una funcioncuyo dominio y codominio son algebras. Sean α 0, ..., α n y β0, ..., βn los coeficientes dedos polinomios p y q respectivamente. Tenemos la misma cantidad de coeficientes enambos polinomios ya que siempre podemos agregar suficientes ceros. Sea λ un escalar.

Tenemos(λ p)h =

nPi=0

λα ih i = λnP

i=0

α ih i = λ ph

( p + q)h =nP

i=0

(α i + βi) h i =nP

i=0

α ih i +nP

i=0

βih i = ph + qh

Page 165: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 165/232

155Seccion 6.2 Polinomios de operadores lineales

y esto muestra que la evaluacion en h es una TL.Por definicion de producto de polinomios, tenemos

( pq)h =

à nPi=0

nPj=0

α iβjxi+j

!h

=nP

i=0

nPj=0

α iβjh i+j =nP

i=0

nPj=0

α iβj

¡h i h j

¢ =

=n

Pi=0

n

Pj=0 ¡α ih i

β

jh j¢ =

n

Pi=0

α ih i

n

Pj=0

βjh j = p

h q

h

y finalmente, con 1h =¡

x0¢

h = h 0 = I terminamos la prueba.

La subalgebra K [h ]

El morfismo de evaluacion en h tiene como imagen el conjunto de todos los OLque son la evaluacion en h de algun polinomio de K [x ]. Este conjunto de OLs sedenotara por K [h ]. Esto refleja que en la evaluacion lo que hacemos es substituir la

variable x por el OL h .

. 5

6 K [h ] es una sub´ algebra conmutativa del ´ algebra de operadores lineales.

Prueba. Como la imagen de una transformacion lineal es un subespacio, obtenemosqueK [h ] es un subespacio de End (E). Como 1 (h ) = I, obtenemos que I ∈ K [h ]. Comoph qh = ( pq)h obtenemos queK [h ] es cerrado para la composicion. La conmutatividadse sigue de la conmutatividad del producto de polinomios. Efectivamente, ph

qh =

pq)h = (qp)h = qh ph y por lo tanto, los OLs en K [h ] conmutan entre ellos.

La conmutatividad de K [h ] es un hecho trivial pero muy notable. Los operadoresineales en general, no son conmutativos para la composicion. Sin embargo, los que

estan en K [h ] sı conmutan entre ellos. Esto jugara un papel importante en lo quesigue.

Cada vez que se tiene un morfismo de algebras, la imagen de este morfismo es una subalgebradel codominio del morfismo. Si el dominio del morfismo es un algebra conmutativa entoncesla imagen es una subalgebra conmutativa.

El polinomio m ınimo

El morfismo de evaluacion en h tiene como nucleo el conjunto de todos los polino-mios p tales que ph = O.

. 6

6 El n´ ucleo del mor fi smo de evaluaci´ on en h es un ideal de K [x ].

Prueba. El nucleo de una transformacion lineal es un subespacio y por lo tanto siph = qh = O entonces ( p + q)h = O. Sea r (x) cualquier polinomio. Necesitamosmostrar que (rq)h = O. Para cualquier a ∈ E tenemos

(rq)h (a ) = (rh qh ) (a ) = rh (qh (a )) = rh (0) = 0

Page 166: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 166/232

156 Cap ıtulo 6. Descomposicion de operadores lineales

y esto es todo lo que quer ıamos probar.

Por 5.6 todo ideal de K [x ] es principal y por lo tanto existe un unico polinomioh (notese la letra gotica) de coeficiente principal 1 (o sea, monico) tal que si ph = Oentonces, p es un multiplo de h. En s ımbolos matematicos p (x) ∈ K [x ] | ph = O =

qh | q

∈K [x ]. Al polinomio h se le llama polinomio mınimo de h . El polinomio

mınimo de h es el polinomio monico de grado mas pequeno que al evaluarlo en h seobtiene el OL nulo O. Por ahora, no sabemos mucho del polinomio m ınimo de h , solosabemos que existe y que es unico.

Otra manera mas descriptiva de ver el polinomio m ınimo es la siguiente. Consi-deremos la sucesion infinita de operadores I, h, h 2, . . .. Todos los elementos de estasucesion no pueden ser LI en el espacio vectorial End (E) porque este espacio es dedimension finita e igual a (dim E)

2. Esto quiere decir que hay un primer natural n yunos coeficientes escalares α i tales que h n = α 0h 0 + α 1h 1 + · · · + α r−1h n−1. Denotando

p (x) = xn−

α r−1xn−

1−

· · ·−

α 1x1−

α 0x0 vemos que ph = O y que este es el unicopolinomio monico de grado mas pequeno que cumple esto. Luego, p es el polinomiomınimo de h .

El per ıodo de un vector

Si p es un polinomio entonces ph es un OL. Si a es un vector entonces a la imagenpor ph de a se le denotara por ph (a ). Luego, ph (a ) se obtiene en dos pasos: primerotomamos el polinomio p lo evaluamos en h y as ı obtenemos ph ; segundo la funcion ph

a evaluamos en a y as ı obtenemos ph (a ).

. 7

6 Para cualquier vector a , el conjunto de todos los polinomios p tales que ph (a ) = 0, es un ideal.

Prueba. Si ph (a ) = qh (a ) = 0 y r es cualquier polinomio entonces( p + q)h (a ) = ( ph + qh ) (a ) = ph (a ) + qh (a ) = 0

(rp)h (a ) = rh ( ph (a )) = rh (0) = 0y esto es todo lo que se requer ıa probar.

Nuevamente, como todo ideal de polinomios es principal entonces, existe un uni-co polinomio monico q tal que el conjunto p ∈ K [x ] | ph (a ) = 0 es exactamente elconjunto de todos polinomios que son multiplos de q. Al polinomio q se le llama elh -per ıodo del vector a o sencillamente el per ıodo de a si esta impl ıcito cual es eloperador h . En otras palabras, el per ıodo de a es el polinomio q monico de grado maspequeno tal que qh (a ) = 0.

Mas descriptivamente. En la sucesion infinita de vectores a , h (a ) , h 2 (a ) , . . . todosos elementos no pueden ser LI porque el espacio E es de dimension finita. Esto quiere

decir que hay un primer natural n y unos coeficientes escalares α i tales que h n =α 0h 0 (a ) + · · · + α r−1h n−1 (a ). Denotando p (x) = xn

− α n−1xn−1− · · · − α 1x1

− α 0x0

Page 167: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 167/232

157Seccion 6.2 Polinomios de operadores lineales

vemos que ph (a ) = 0 y que este es el unico polinomio monico de grado mas pequenoque cumple esto. Luego, p (x) es el per ıodo de a .

E jercicio 113 Pruebe que 0 es el unico vector cuyo per ıodo es de grado cero. [195]

E jercicio 114 Pruebe que los vectores no nulos cuyo per ıodo es el polinomio x sonexactamente aquellos que estan en el nucleo de h . [196]

Anuladores

Sea ahora A ⊆ E un conjunto arbitrario de vectores. El h -anulador de A esel conjunto de polinomios p ∈ K [x ] | ∀a ∈ A ph (a ) = 0. Previamente ya hab ıamosconsiderado dos anuladores. En el caso de que A es todo el espacio entonces el anuladores el ideal usado para definir el polinomio m ınimo. En el caso de que A es un solo vectorentonces el anulador es el ideal usado para definir el per ıodo del vector. Analogamentea las pruebas de 6.6 y 6.7 podemos probar que cualquier anulador es un ideal. Esto nospermite definir el h -per ıodo de un conjunto de vectores como el polinomio generadorde su anulador. El anulador de un conjunto de vectores es el conjunto de polinomiosque son multiplos de su per ıodo.

De aqu ı en lo adelante denotaremos por perh (A) al h -per ıodo de un con- junto de vectores A. As ı, perh (a ) es el h -per ıodo del vector a y perh (E)

es el h -per ıodo de todo el espacio o sea, el polinomio m ınimo de h .

Propiedades del per ıodo.

. 8

6 El h -anulador de A es el conjunto de los m´ ulti-plos comunes a los per´ ı odos de los vectores en A.

Prueba. Sea A

0

= p ∈ K [x ] | ∀a ∈ A ph (a ) = 0 el h -anulador de A. Sea A

1

=p ∈ K [x ] | ∀a ∈ A p ` perh (a ) el conjunto de los multiplos comunes a los per ıodosde los vectores en A.

Si p ∈ A1 y a ∈ A, entonces existe q tal que p = q perh (a ) y por lo tantoph (a) = qh (perh (a )h (a )) = qh (0) = 0. Luego, A1 ⊆ A0.

Rec ıprocamente, sean p ∈ A0 y a ∈ A entonces ph (a ) = 0 y por definicion deper ıodo perh (a ) a p. Luego, A0 ⊆ A1.

Una consecuencia directa de esto son los siguientes dos resultados:

. 9

6 perh (A) es el m´ ı nimo com´ un m´ ultiplode los per ı odos de los vectores en A.

Page 168: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 168/232

158 Cap ıtulo 6. Descomposicion de operadores lineales

. 1 0

6 El polinomio m´ ı nimo de h es el m´ ı nimo com´ un

m´ ultiplo de los per ı odos de todos los vectores.

. 1 1

6 Si h = f ⊕ g entonces el polinomio m´ ı nimo de h es igual al m´ ı nimo com´ un m´ ultiplo de los polinomios m´ ı nimos de f y g.

Prueba. Demostraremos que el h -anulador de todo el espacio es igual al conjunto deos multiplos comunes de los polinomios m ınimos de f y g. Lo que se quiere demostrar

es una consecuencia directa de esto.Sea E = E1 ⊕ E2 la descomposicion en subespacios invariantes de tal manera que

f y g son las restricciones de h a E1 y E2 respectivamente. Sean a ∈ E1 y b ∈ E2.

Cualquier vector en E es de la forma a + b.Si p es un comun multiplo de los polinomios m ınimos de f y g entonces ph (a + b) =pf (a ) + pg (b) = 0 y por lo tanto p esta en el h -anulador de todo el espacio.

Reciprocamente si p esta en el h -anulador de todo el espacio, entonces tiene queanular a todos los vectores en E1 y por lo tanto es un multiplo del polinomio m ınimode f. Por la misma razon es un multiplo del polinomio m ınimo de g.

monoton ıa del per ıodo

. 1 2

6 Si A ⊆ B entonces, perh (A) a perh (B).

Prueba. Sea A0 el h -anulador de A. Si p es el per ıodo de B entonces ph (b) = 0 paracualquier b ∈ B y por lo tanto ph (a ) = 0 para cualquier a ∈ A. Luego p ∈ A0 y poro tanto es un multiplo del per ıodo de A.

6.3 Subespacios radicales

Nucleos de polinomios de operadores lineales

Los nucleos de los polinomios evaluados en un OL son un objeto importante paraa descomposicion de ese OL en componentes irreducibles. Su importancia esta dada

por el siguiente resultado.

invariancia de los nucleos

. 1 3

6 El n´ ucleo de cualquier operador en K [h ] es un subespacio h -invariante.

Page 169: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 169/232

159Seccion 6.3 Subespacios radicales

Prueba. Sabemos que el nucleo de cualquier OL es un subespacio. Demostremos lanvariancia. Sea p un polinomio y a ∈ ker ph . Entonces ph (a ) = 0. Por la conmu-

tatividad de los OL en K [h ] tenemos ph (h (a )) = h ( ph (a )) = h (0) = 0. O sea,h (a ) ∈ ker ph .

monoton´ı

a de los nucleos . 1

4

6 Si p a q entonces Ker ph ⊆ Ker qh .

Prueba. Sea q = p0 p. Si x ∈ Ker ph entonces qh ( x) = p0

h ( ph ( x)) = p0

h (0) = 0 ypor lo tanto x ∈ Ker qh .

En lo que sigue muy frecuentemente nos encontraremos parejas de polinomios sinfactores comunes. Necesitamos hacer un aparte para hablar de estas parejas. Primero,

es daremos un nombre mas corto. Dos polinomios p y q se les llama coprimos sicualquier divisor comun a ambos es de grado 0. O sea, no tienen factores comunes notriviales. Dos polinomios p y q son coprimos si y solo si los factores irreducibles de p

son diferentes a los factores irreducibles de q.

Lema de Descomposicion de Nucleos

. 1 5

6 Si p y q son polinomios coprimos entonces, ker ( pq)h = ker ph ⊕ ker qh .

Prueba. Todos los nucleos involucrados son subespacios. Lo que hay que probar esque ker ph ∩ker qh = 0 y que ker ( pq)h = ker ph + ker qh . O sea, es una suma directa.

Por el Teorema de Bezout existen polinomios r, s tales que rp + sq = 1.Sea x ∈ ker ph ∩ ker qh . Tenemos que

x = 1h ( x) = (rp + sq)h ( x) = rh ( ph ( x)) + sh (qh ( x)) = rh (0) + sh (0) = 0

o que prueba que ker ph ∩ ker qh = 0.Sea x ∈ ker ( pq)h y denotemos y = (sq)h ( x), z = (rp)h ( x). Como rp + sq = 1

tenemos z + y = x. Ademas, por la conmutatividad tenemos que ph (y) = ( psq)h ( x) = sh (( pq)h ( x)) = sh (0) = 0

qh (z) = (qrp)h ( x) = rh (( pq)h ( x)) = rh (0) = 0

o sea, y ∈ ker ph y z ∈ ker qh . Luego ker ( pq)h ⊆ ker ph + ker qh .Para probar la otra inclusion sean a ∈ ker p (h ) y b ∈ ker q (h ). Tenemos que

( pq)h (a + b) = ph (qh (a + b)) = ph (qh (a ) + qh (b)) == ph (qh (a )) = qh ( ph (a )) = qh (0) = 0

y por lo tanto ker ph + ker qh ⊆ ker ( pq)h .

Operadores lineales radicales

Por la invariancia de los nucleos (6.13) y el Lema de Descomposicion de Nucleos(6.15) si ( pq)h = O y p, q son coprimos entonces, h tiene dos subespacios invariantes

Page 170: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 170/232

160 Cap ıtulo 6. Descomposicion de operadores lineales

complementarios ker ph y ker qh y podr ıamos tener (si la descomposicion es no trivial)que h es reducible. El candidato que tenemos para el polinomio pq es el polinomiomınimo de h .

Un polinomio p se descompone en producto de dos factores coprimos si y solo si p

tiene al menos dos factores irreducibles distintos. Esto nos lleva a la siguiente definicion.

Diremos que h es radical de tipo p si el polinomio m´ınimo de h tiene un solo factorrreducible e igual a p. Equivalentemente, h es radical si el per ıodo de cualquier vector

es de la forma pm donde p es un polinomio monico sin factores no triviales.

En la teor ıa de anillos el radical de un ideal I es el conjunto de todos los elementos x talesque para cierto natural m se tiene que xm ∈ I. El radical de cualquier ideal es un ideal. Eneste lenguaje, un operador es radical de tipo p (irreducible) si el radical del anulador del

espacio es el ideal generado por p.

. 1 6

6 Si h es irreducible entonces, es radical.

Prueba. Si h no es radical entonces el polinomio m ınimo h de h se descompone notrivialmente como un producto h = pq donde p y q son coprimos. Por el Lema deDescomposicion de Nucleos (6.15) tenemos E = ker ( pq)h = ker ph ⊕ ker qh siendoker ph y ker qh subespacios invariantes de h (por la invariancia de los nucleos (6.13)).Como p es un factor propio de h que es el m ınimo comun multiplo de los per ıodos detodos los vectores entonces, ker ph 6= E y por la misma razon ker qh 6= E. Esto quiere

decir que la descomposicion ker ph ⊕ ker qh es no trivial y por lo tanto h es reducible.

Este resultado no alcanza para caracterizar a los operadores lineales irreducibles.Por ejemplo la identidad en R2 tiene polinomio m ınimo x − 1 o sea, es radical. Sinembargo, es evidentemente la suma directa de la identidad en el eje x y la identidaden el eje y.

Componentes radicales

Un vector se le llama radical de tipo p si su per ıodo es igual a pm y p es irreducible.Un conjunto de vectores se le llama radical de tipo p si todos sus vectores son radicalesde tipo p.

. 1 7

6 Si p es factor irreducible de multiplicidad m del polinomio m´ ı nimo de h

entonces, ker pm h es el conjunto de todos los vectores radicales de tipo p.

Prueba. Sea a un vector de per ıodo pk . Si k > m entonces pk = perh (a ) no divideal polinomio m ınimo y esto no puede ser. Luego k ≤ m . De la monoton ıa de losnucleos (6.14) obtenemos ker pk

h ⊆ ker pm h y por lo tanto a ∈ ker pm

h . Rec ıprocamente,si a ∈ ker pm

h entonces pm h (a ) = 0 y por lo tanto perh (a ) es un divisor de pm . Como

Page 171: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 171/232

161Seccion 6.3 Subespacios radicales

p es irreducible, necesariamente perh (a ) es igual a pk para cierto k ≤ m .

Por el teorema de descomposicion de un polinomio en factores irreducibles el poli-nomio m ınimo de h es igual a un producto

Q p∈P pm p donde P es el conjunto de sus

factores irreducibles y m p es la multiplicidad del polinomio irreducible p. Por el resul-tado anterior, los espacios ker p

m ph son los subespacios radicales maximales de h .

De la invariancia de los nucleos (6.13) sabemos que los subespacios radicales maxima-es son invariantes. A la restriccion de h a un subespacio radical maximal se le llama

componente radical de h .

Teorema de Descomposicion en Componentes Radicales

. 1 8

6 Todo operador lineal es la suma directa de sus componentes radicales.

Prueba. Sea h = Q p∈P

pm p

el polinomio m´ı

nimo de h

. Si en P

hay un solo polinomiorreducible entonces h es radical y no hay nada que probar. Hagamos induccion enel numero de polinomios irreducibles en P. Sea r un polinomio irreducible fi jo peroarbitrario en P. Denotemos q = rm r y q0 =

Q p∈P\r pm p . Tenemos que h = qq0 y

que q, q0 son coprimos. Del Lema de Descomposicion de Nucleos (6.15) obtenemos ladescomposicion en subespacios invariantes complementarios E = F ⊕ G donde F =

ker qh y G = ker q0

h .Sean f y g las restricciones de h a F y G respectivamente. Tenemos que f = f ⊕ g

y que f es una componente radical. De 6.11 el polinomio m ınimo de g es q. Como q

tiene menos factores irreducibles que h, podemos aplicar hipotesis de induccion.

Como la descomposicion de un polinomio en polinomios irreducibles es unica salvoorden de los factores entonces, la descomposicion de un operador lineal en componentesradicales es unica salvo orden de los sumandos.

Existencia de un vector de per ıodo maximo

La descomposicion en componentes radicales nos permite limitarnos a considerar

el caso en que el operador lineal h es radical. Esto simplifi

ca mucho las cosas por lasimplicidad de la relacion de divisibilidad entre los divisores de los polinomios tipo pn

cuando p es irreducible. Esta relacion orden es total. Por ejemplo, si A es un conjuntode divisores de pn entonces se cumple que el m ınimo comun multiplo de A es unpolinomio en A.

. 1 9

6 Para cualquier operador lineal h existe un vector tal

que su per ı odo es igual al polinomio m´ ı nimo de h .

Prueba. Sea h el polinomio m ınimo de h : E → E. Primero para el caso cuandoh = pn con p irreducible. El polinomio h es el m ınimo comun multiplo de los per ıodosde todos los vectores y todos estos son divisores de pn. Por la observacion que precede

Page 172: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 172/232

162 Cap ıtulo 6. Descomposicion de operadores lineales

a este resultado tiene que ocurrir que uno de esos per ıodos es pn.El caso general por induccion en el numero de componentes radicales. Descom-

pongamos h = f ⊕ g donde f es una componente radical. Esta descomposicion secorresponde con la descomposicion E = F ⊕ G en subespacios invariantes. Los opera-dores f y g son las restricciones de h a F y G respectivamente. Los polinomios m ınimos

f y g de f y g respectivamente son coprimos y cumplen que h = fg. Por hipotesis denduccion existen vectores a y b en F y G respectivamente tales que f = perh (a ) yg = perh (b).

Denotemos p = perh (a − b). Tenemos p a h = fg. Ademas, ( ph (a − b) = 0) ⇒ph (a ) = ph (b)). Como F y G son invariantes F 3 ph (a ) = ph (b) ∈ G. Como F y G

son complementarios ph (a ) = ph (b) = 0. Luego, p ` perh (a ) = f y p ` perh (b) = g.Como f y g son coprimos entonces, p ` fg = h.

6.4 Subespacios cıclicos

h -combinaciones

Sea h : E → E un operador lineal. Sea V = v1, . . . , vn ⊆ E un conjunto devectores. Una h -combinacion de V es un vector de la forma

ph ( v1) + qh ( v2) + · · · + rh ( vn)

donde los coefi

cientes p, q, ..., r son polinomios arbitrarios en K [x ].Le dejamos al lector dar la definicion para el caso de que V es infinito. En este caso,hay que exigir soporte finito, o sea que el conjunto de coeficientes no nulos sea finito.

Las h -combinaciones son combinaciones lineales en el caso de que los coeficien-tes sean polinomios de grado cero. Recordemos que hV i denota el conjunto de to-das las combinaciones lineales de V . Denotemos por hV ih el conjunto de todas lash -combinaciones de V . La observacion anterior significa que hV i ⊆ hV ih .

Conjuntos h -generadores

. 2 0

6 El conjunto de todas las h -combinaciones

de V es un subespacio invariante.

Prueba. Sea λ un escalar. Sean a = ph ( v1)+· · ·+qh ( vn) y b = rh ( v1)+· · ·+sh ( vn)

dos h -combinaciones de V . Entonces,a + b = p0

h ( v1) + · · · + q0

h ( vn) donde p0 = p + r , . . . , q0 = q + s,

λa = p0h ( v1) + · · · + q0

h ( vn) donde p0 = λ p, . . . , q0 = λq,h (a ) = p0

h ( v1) + · · · + q0

h ( vn) donde p0 (x) = xp (x) , . . . , q0 (x) = xq (x) .

Las dos primeras igualdades prueban que es un subespacio. La tercera muestra que esnvariante.

Page 173: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 173/232

163Seccion 6.4 Subespacios cıclicos

Ya es la tercera vez que nos tropezamos con una situacion similar. Las anterioresfueron la cerradura lineal y la cerradura af ın. Los ejercicios siguientes tres resultadosmuestran que la funcion V 7→ hV ih es un operador de cerradura que llamaremos h -cerradura. Las pruebas son completamente analogas a las que dimos en el Cap ıtulo2 para la cerradura lineal.

E jercicio 115 Pruebe que la interseccion de subespacios invariantes es invariante.

E jercicio 116 Pruebe que hV ih es la interseccion de todos los subespacios invariantesque contienen a V .

E jercicio 117 Pruebe que la h -cerradura cumple las siguientes propiedades:¨ V ⊆ hV ih (incremento),¨ V 0 ⊆ V

⇒hV 0ih ⊆ hV ih (monoton ıa),

¨ hhV ih ih = hV ih (idempotencia).

A hV ih le llamaremos el subespacio invariante h -generado por V . Si hV ih es todoel espacio diremos que V es un h -generador. Obviamente los sobreconjuntos de h -generadores y los conjuntos generadores (sin la h ) son h -generadores.

. 2 1

6 perh hV ih = perh V .

Prueba. Tenemos V ⊆ hV ih y por la monoton ıa del per ıodo (6.12) sabemos queperh V a perh hV ih . Denotemos q = perh V . Si x ∈ hV ih entonces, x es una h -combinacion x = ph ( v1) + · · · + rh ( vn), donde v1, . . . , vn ⊆ V . De la linearidady conmutatividad obtenemos que

qh ( x) = qh ( ph ( v1)) + · · · + qh (rh ( vn)) = ph (qh ( v1)) + · · · + rh (qh ( vn)) = 0.

Luego, perh V esta en el anulador de hV ih y por lo tanto perh V ` perh hV ih .

Subespacios c ıclicos

Un subespacio invariante se le llama h -cıclico si este esta h -generado por un solovector. Los subespacios c ıclicos son los h -analogos de las rectas por el origen que estangeneradas (sin la h ) por un solo vector. Al operador h se le llama cıclico si todo elespacio es h -cıclico.

El siguiente resultado es “analogo” a que si una recta por el origen esta generadapor a entonces tambien esta generada por los multiplos de a .

.

2 2

6 Si q es un polinomio coprimo con perh a enton-ces, ha ih = hqh (a )ih y perh a = perh qh (a ).

Prueba. Denotemos p = perh a . Sea q un polinomio coprimo con p y denotemos

Page 174: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 174/232

164 Cap ıtulo 6. Descomposicion de operadores lineales

a 0 = qh (a ). Demostremos que existe un polinomio r tal que a = rh (a 0). Efectivamentepor el Teorema de Bezout existen polinomios s y r tales que sp + rq = 1 y por lo tanto

rh (a 0) = (rq)h (a ) = (sp)h (a ) + (rq)h (a ) = I (a ) = a

y as ı el polinomio r cumple lo que queremos.Luego a 0 ∈ ha ih y a ∈ ha 0ih . Usando la monoton ıa y la idempotencia de la h -

cerradura obtenemos que ha 0

ih ⊆ ha ih y ha ih ∈ ha 0

ih .Por esto, usando 6.21 obtenemos que

perh qh (a ) = perh hqh (a )ih = perh ha ih = perh a .

Ahora veremos que los subespacios c ıclicos pueden tener dimension grande. Estosignifica que la analog ıa con las rectas por el origen no hay que llevarla demasiado lejos.

. 2 3

6 Si el per ı odo de a es de grado n, entonces el conjunto de

vectores ©a , h (a ) , . . . , h n−1 (a )ª es una base de ha ih .

Prueba. Denotemos p = perh a y B =©

a , h (a ) , . . . , h n−1 (a )ª

. Tenevos que con-vencernos que B es una base del subespacio ha ih . Si hubiera una combinacion lineal

β0a + β1h (a ) + · · · + βn−1h n−1 (a ) = 0

con no todos sus coeficientes nulos entonces, el polinomio no nulo

q (x) = β0 + β1x + · · · + βn−1xn−1

ser ıa tal que qh (a ) = 0 y esto contradice (q tiene grado menor que n) que los polino-mios en el anulador de a son los multiplos de p. Luego, B es LI.

Por otro lado, para cualquier vector x ∈ ha ih existe un polinomio q tal que x =qh (a ). Efectuando la division con resto obtenemos q = cp + r donde el grado de r esestrictamente menor que n y por lo tanto rh (a ) ∈ hBi.

Tenemos que

rh (a ) = (q − cp)h (a) = qh (a ) − ch ( ph (a )) = qh (a ) = x

Esto significa que hBi = ha ih y por lo tanto es una base de ha ih .

Una consecuencia obvia de este resultado es la siguiente.

. 2 4

6 dim ha ih es igual al grado del per´ ı odo de a .

Conjuntos h -independientes

Un conjunto de vectores v1, . . . , vn no nulos se le llama h -independiente si

( ph ( v1) + · · · + qh ( vn) = 0) ⇒ ( ph ( v1) = · · · = qh ( vn) = 0)Esto es equivalente a que si una h -combinacion de ellos es cero entonces, para todo i elcoeficiente de vi es un multiplo del per ıodo de vi. Al considerar coeficientes de gradocero vemos que los conjuntos h -independientes siempre son linealmente independien-

Page 175: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 175/232

165Seccion 6.4 Subespacios cıclicos

tes. En particular, el numero de elementos en un conjunto h -independiente no puedesobrepasar la dimension del espacio.

Es posible imaginar tres definiciones distintas de h -independencia:( ph ( v1) + · · · + qh ( vn) = 0)

⇒( p = · · · = q = 0)

( ph ( v1) + · · · + qh ( vn) = 0) ⇒ ( ph = · · · = qh = O)

( ph ( v1) + · · · + qh ( vn) = 0) ⇒ ( ph ( v1) = · · · = qh ( vn) = 0)

En la primera se pide que los polinomios sean cero. En la segunda que los operadoresineales sean cero. En la tercera que los vectores sean cero. Las dos primeras son

erroneas.

. 2 5

6 Si V = v1, . . . , vn es h -independiente entonces hV ih = h v1ih ⊕ · · · ⊕ h vnih .

Prueba. Por induccion en el natural n. Si n = 1 el resultado es obvio. DenotemosV 0 = v2, . . . , vn. Tenemos que probar que hV ih = h v1ih +hV 0ih y que h v1ih ∩hV 0ih = 0.

Si a ∈ hV ih entonces existen coeficientes polinomiales tales que a = ph ( v1) +qh ( v2)+· · ·+rh ( vn). Obviamente, a 0 = ph ( v1) ∈ h v1ih , a 00 = qh ( v2)+· · ·+rh ( vn) ∈hV 0ih y a = a 0 + a 00. Luego, hV ih ⊆ h v1ih + hV 0ih . La otra inclusion se demuestra igual.

Supongamos que a ∈ h v1ih ∩ hV 0ih . Entonces, existen polinomios tales que

ph ( v1) = a = qh ( v2) + · · · + rh ( vn)

por lo tanto ph ( v1) − qh ( v2) − · · · − rh ( vn) = 0.

Como V es h -independiente entonces, a = ph ( v1) = 0. Luego, hV ih = h v1ih ⊕ hV 0ih yusando la hipotesis de induccion terminamos la prueba

h -bases

El resultado anterior es bueno para nosotros. Si solo V ademas de h -independientefuera h -generador, obtendrıamos una descomposicion de todo el espacio en suma directa

de subespacios invariantes h -generados por un solo vector o sea c´ıclicos.Una h -base es un conjunto de vectores que es h -independiente y h -generador. El

unico problema es que no sabemos si existen o no las h -bases. Veremos en la siguienteseccion que s ı existen, sin embargo, el demostrarlo no es tan sencillo como en el casode las bases ordinarias.

Por lo pronto, nos conformaremos con dos consecuencias obvias de lo ya demostrado:

. 2 6

6 Si A es una h -base entonces, la dimensi´ on del espacio es igual

a la suma de los grados de los h -per ı odos de los vectores en A.

Prueba. Es consecuencia de que la dimension de la suma directa es la suma de lasdimensiones y de que la dimension de un subespacio c ıclico es igual al grado del per ıodo

Page 176: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 176/232

166 Cap ıtulo 6. Descomposicion de operadores lineales

de su h -generador (6.23).

. 2 7

6 Si A es una h -base entonces, el polinomio m´ ı nimo de h es igual

al m´ ı nimo com´ un multiplo de los h -per ı odos de los vectores en A.

Prueba. Es consecuencia de que el perıodo de la suma directa es el m ınimo comunmultiplo de los perıodos de los sumandos (6.11) y de 6.21.

6.5 Descomposicion en subespacios c ıclicos radicales.

Entre todos los subespacios h -cıclicos los mas grandes son aquellos que estan h -generados por vectores cuyo per ıodo tiene grado lo mas grande posible (6.23), o sea,

aquellos cuyo per ıodo es igual al polinomio m ınimo. A estos subespacios les llamaremoses llamaremos h -cıclicos maximales. Por 6.19 siempre existe algun subespacio h -

cıclico maximal.

La estrategia para deshacernos del problema de que no cualquier subespacio inva-riante tiene complementario invariante es limitarnos a los operadores radicales, fi jarnossolamente en los subespacios invariantes maximales y construir un complementario que

sı es invariante. Para eso necesitaremos usar espacios cocientes.

El espacio cociente por un subespacio invariante

Sea h : E → E un OL y F un subespacio h -invariante o sea h (F) ⊆ F. El espaciocociente E/F es el conjunto de todos los subespacios afines paralelos a F. Lo quequeremos ver es que si los vectores v y u estan en un mismo subespacio af ın paraleloa F entonces h ( v) y h (u) cumplen exactamente lo mismo.

Efectivamente, si v y u estan en un mismo subespacio af´ın paralelo a F entoncesv − u ∈ F. Como F es h -invariante entonces h ( v) − h (u) = h ( v − u) ∈ F y por lo

tanto h ( v) y h (u) estan en un mismo subespacio af ın paralelo a F. Notese que aqu ı elargumento crucial es que F es h -invariante.

Definiremos la funcion eh en el espacio cociente con la igualdad eh ( v + F) = h ( v)+F.

Por la observacion precedente, eh esta bien definida, o sea, si v + F = u + F entonces,h ( v) + F = h (u) + F. Observese que

eh es un OL en E/F ya que

eh ( v + F + u + F) = eh ( v + u + F) = h ( v + u) + F =

= h ( v) + F + h (u) + F = eh ( v + F) + eh (u + F) ;eh (λ ( v + F)) = eh (λ v + F) = h (λ v) + F = λh ( v) + F = λ (h ( v) + F) = λeh ( v + F) .

Necesitaremos conocer mejor los OLs del espacio cociente End (E/F).

Page 177: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 177/232

167Seccion 6.5 Descomposicion en subespacios c ıclicos radicales.

. 2 8

6 El conjunto EndF (E) de todos los operadores lineales que dejan invariante F es una sub´ algebra de End (E).

Prueba. Sean f y g dos operadores en EndF (E). Sea λ un escalar. Para cualquiervector v

∈F tenemos f ( v)

∈F y g ( v)

∈F y por lo tanto

(g + f) ( v) = g ( v) + f ( v) ∈ F ; I ( v) ∈ F ;(g f) ( v) = g (f ( v)) ∈ F ; (λf) ( v) = λf ( v) ∈ F.

Luego, EndF (E) es una subalgebra.

. 2 9

6 La funci´ on EndF (E) 3 h 7→ eh ∈ End (E/F) es un mor fi smo de ´ algebras.

Prueba. Probaremos que h 7→ eh es morfi

smo para la composiciongf g ( v + F) = (f g) ( v) + F = f (g ( v)) + F = ef (g ( v) + F) =

= ef (g ( v) + F) = ef (eg ( v + F)) =³ef eg´ ( v + F) ;

y para la suma]f + g ( v + F) = (f + g) ( v) + F = f ( v) + F + g ( v) + F =

=

ef ( v + F) +

eg ( v + F) =

³ef +

eg´

( v + F) ;

y para el producto por escalares

eλf ( v + F) = (λf) ( v) + F = f (λ v) + F = ef (λ v + F) == ef (λ ( v + F)) =

³λef´ ( v + F) ;

y que preserva la identidad eI ( v + F) = I ( v) + F = v + F = I ( v + F) .

E jercicio 118 Muestre que el morfismo h 7→ eh es sobreyectivo y su nucleo esta for-mado por aquellos operadores lineales cuya imagen es F. [196]

Polinomios y el espacio cociente

Sea F ⊆ E un subespacio h -invariante. Ya vimos como se define eh en E/F a sabereh ( v + F) = h ( v) + F y comprobamos que esta definicion es correcta debido a la h -nvariancia de F. Para poder definir f ph ( v + F) = ph ( v) + F necesitamos que F sea

ph -invariante. Por suerte, esto se cumple automaticamente.

. 3 0

6 Sea p un polinomio. Si F es h -invariante entonces tambien es ph -invariante.

Prueba. Como el conjunto de los operadores que preservan F es una subalgebra delalgebra de todos los operadores entonces todos los h n estan ah ı, tambien todas las

Page 178: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 178/232

168 Cap ıtulo 6. Descomposicion de operadores lineales

combinaciones lineales de estos o sea, todos los polinomios evaluados en h .

Luego, f ph es un OL bien definido en el espacio cociente. Por otro lado, si evaluamosel polinomio p en el operador eh obtendremos ph

que es otro OL bien definido en elespacio cociente.

. 3 1

6 f ph = ph

Prueba. Sea p (x) = Σα ixi. Como la funcion h 7→ eh es un morfismo de algebras,tenemos

f ph =

Xn

i=0α ih i =

Xn

i=0

gα ih i =Xn

i=0α i eh i =

Xn

i=0α i

³eh i

= ph

y esto es lo que se necesitaba probar.

Esto es muy comodo, ya que en el cociente tenemos la formula ph ( v + F) =fph ( v + F) = ph ( v) + F.

El per ıodo en el espacio cociente

. 3 2

6 Si b ∈ v + F entonces perh (b) ` perh

( v + F).

Prueba. Sea b ∈ v+F. Si p = perh (b) entonces ph (b + F) = ph (b)+F = 0 +F = F

y por lo tanto p ` perh (b + F). La prueba concluye observando que v + F = b + F.

E jercicio 119 Pruebe que perh (b) a perh (b + F) si y solo si hbih ∩ F = 0. [196]

El resultado que sigue no es trivial y consiste en que bajo ciertas condiciones es

posible encontrar un b ∈ v+F tal que perh (b) a perh ( v + F) y por lo tanto perh (b) =perh

( v + F).

Lema del Per ıodo

. 3 3

6 Sea h ∈ End (E) radical y F = ha ih un subespacio h -c ı clico maximal. Pa-

ra cualquier v+F ∈ E/F existe b ∈ v+F tal que perh (b) a perh ( v + F).

Prueba. Sea pn (con p irreducible) el polinomio m ınimo de h . Como F = ha ih esmaximal, el h -per ıodo de a es pn. Los h -per ıodos de todos los vectores son potenciasde p. Los eh -per ıodos de todos v + F son potencias de p ya que por 6.32 estos sondivisores de los per ıodos de los vectores.

Page 179: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 179/232

169Seccion 6.5 Descomposicion en subespacios c ıclicos radicales.

Sea v + F ∈ E/F de eh -per ıodo pm . Sabemos que m ≤F = ha 0ih

perh (a 0) = pn

pm h ( v) = pk

h (a 0) (*)

n. Veamos que existe un natural k y un vector a 0 talesque se cumplen las propiedades del recuadro a la derecha.Efectivamente, sabemos que pm

h ( v) + F = pm h

( v + F) = F

o lo que es lo mismo pm h ( v) ∈ F = ha ih . Luego, existe

un polinomio r tal que p

m

h ( v) = rh (a ). Usando el teorema de descomposicion de unpolinomio en producto de irreducibles, existen un polinomio q coprimo con p y un

natural k ≥ 0 tales que r = pk q. Por 6.22 el vector a 0 def

= qh (a ) es tambien un h -generador de F y a 0 tiene el mismo h -per ıodo que a o sea, pn. Ademas pm

h ( v) =rh (a ) = pk

h (qh (a )) = pk h (a 0) y esto demuestra la igualdad (*).

Si ocurriera que m > k entonces, aplicando pn−m h a la igualdad (*) y observando

que pn es el polinomio m ınimo, obtendr ıamos que 0 = pnh ( v) = pn−m +k

h (a 0) . Comon − m + k < n esto contradecir ıa que el h -per ıodo de a 0 es pn.

Luego, m ≤ k y esto nos sirve para defi

nir el siguiente vectorb

def = v − pk −m

h (a 0) .

Observese que b ∈ v + F ya que pk −m h (a 0) ∈ ha 0ih = F. Aplicando pm

h a la definicionde b, obtenemos que

pm h (b) = pm

h ( v) − pk h (a 0)

(*)= 0

por lo que perh (b) a pm .

Existencia de h -bases

Lema del Cociente

. 3 4

6 Sea h : E → E un operador radical y F = ha ih un subespacio h -c ı clico

maximal. Si v1 + F , . . . , vm + F es una eh -base del espacio cociente E/F entonces, existen vectores b1 ∈ v1 + F, . . . , bm ∈ vm + F tales que

a , b1, . . . , bm es una h -base de E.

Prueba. Sea a un h -generador de F. Aplicando el Lema del Per ıodo (6.33) a v1 +F, . . . , vm + F, obtenemos b1 ∈ v1 + F, . . . , bm ∈ vm + F tales que el h -per ıodo de bi es

gual al eh -per ıodo de vi + F. Denotemos B def = a , b1, . . . , bm . Observese que

Br a def = b1 + F, . . . , bm + F = v1 + F, . . . , vm + F

es una

eh -base de E/F. Probemos que B es h -generador de E. Si x ∈ E entonces

x + F

∈ -Br a ®h

, o sea, existen coeficientes polinomiales tales que

x + F = qh (b1 + F) + · · · + rh (bm + F) = qh (b1) + · · · + rh (bm ) + Fo lo que es lo mismo x−qh (b1)−· · ·−rh (bm ) ∈ F = ha ih . Luego, existe otro polinomios tal que x − qh (b1) − · · · − rh (bm ) = sh (a ) y por lo tanto

x = sh (a ) + qh (b1) + · · · + rh (bm ) ∈ hBih .

Page 180: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 180/232

170 Cap ıtulo 6. Descomposicion de operadores lineales

Para probar que B es h -independiente supongamos que existen polinomios tales que

0 = sh (a ) + qh (b1) + · · · + rh (bm ) . (*)

Pasando al cociente (sumando F) obtenemos0 + F = sh (a ) + F + qh (b1) + F + · · · + rh (bm ) + F =

= qh (b1 + F) + · · · + rh

(bm + F)

y como Br a es independiente obtenemos queqh

(b1 + F) = · · · = rh (bm + F) = 0 + F.

Como el h -per ıodo de bi es igual al eh -per ıodo de bi + F concluimos que

qh (b1) = · · · = rh (bm ) = 0.

Substituyendo esto en la igualdad (*) obtenemos sh (a ) = 0.

Teorema de Existencia de h -bases

. 3

5

6 Cualquier operador lineal radical h tiene una h -base.

Prueba. Sea h : E → E un operador radical y F = ha ih subespacio h -cıclico maximal.Hagamos induccion en dim h . Si dim h = 1 entonces, F = E y por lo tanto a es unah -base.

Supongamos dim h > 1. Si F = E entonces, otra vez a es una h -base. Si no,entonces E/F es no trivial y dim E/F < dim h . Por hipotesis de induccion E/F tiene

una eh -base y por el Lema del Cociente (6.34) existe una h -base de E.

E jercicio 120 Demuestre la siguente afirmacion. Sean h : E → E un OL y E = F⊕G

una descomposicion de E en subespacios h -invariantes. Si A es una h -base de F y B esuna h -base de G entonces A ∪ B es una h -base de E. [196]

E jercicio 121 Use el ejercicio anterior, el Teorema de Descomposicion en Compo-nentes Radicales (6.18) y el Teorema de Existencia de h -bases (6.35) para probar todooperador lineal h tiene una h -base.

Teorema de Descomposicion en Componentes Radicales Cıclicas

. 3 6

6 Todo operador lineal es suma directa de componentes radicales c´ ı clicas.

Prueba. Sea h : E → E un OL. Si h es radical entonces E tiene una h -basea 1, . . . , a n. Por 6.25 E = ha 1ih ⊕· · ·⊕ha nih . Por 6.20 todos los ha 1ih son subespacios

nvariantes. Denotando por fi la restriccion de h a ha iih obtenemos h = f1 ⊕ · · · ⊕ fn.Si h no es radical entonces usando el Teorema de Descomposicion en ComponentesRadicales (6.18) lo descomponemos en componentes radicales y posteriormente cadacomponente radical la descomponemos en componentes c ıclicas.

Page 181: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 181/232

171Seccion 6.5 Descomposicion en subespacios c ıclicos radicales.

Unicidad de la descomposicion

A diferencia de la descomposicion en componentes radicales una descomposicion encomponentes radicales c ıclicas no es unica. Esto sucede porque h -bases pueden habermuchas. Por ejemplo para la identidad en R2 cualesquiera dos rectas diferentes porel origen forman una descomposicion en subespacios invariantes radicales c ıclicos. Sin

embargo, lo que s ı es unico es el “tipo” de la descomposicion.Si h = f1 ⊕ · · · ⊕ fn es una descomposicion entonces, a la sucesion p, q, . . . , r de los

polinomios m ınimos de las componentes se le llama el tipo de la descomposicion.Dos tipos se consideran iguales si uno se puede obtener del otro reordenando la sucesion.

Teorema de Unicidad del Tipo

. 3 7

6 Dos descomposiciones cualesquiera en compo-

nentes radicales c´ ı clicas tienen el mismo tipo.

Antes de demostrar nuestro teorema de unicidad necesitamos demostrar tres re-sultados auxiliares sencillos. El lector avido puede saltarselos y regresar a ellos en lamedida de sus necesidades. En los siguientes tres resultados h : E −→ E es un operadorradical con polinomio m ınimo pn (no se necesita que sea c ıclico).

. 3 8

6 perh x = p × perh ph ( x).

Prueba. Los per ıodos de los vectores son divisores del polinomio m ınimo, en par-ticular, el per ıodo de x es pk para cierto k ≤ n. Tenemos pk −1

h ( ph ( x)) = pk h ( x) = 0.

Por otro lado pk −2h ( ph ( x)) = pk −1

h ( x) 6= 0. Luego, pk −1 es el polinomio monico degrado mas pequeno que anula a ph ( x). Un lector cuidadoso deber ıa analizar los casosk ∈ 0, 1 para los cuales esta prueba es formalmente incorrecta.

. 3

9

6 ph (E) es un subespacio invariante y dim ph (E) < dim E.

Prueba. El subespacio F = ph (E) = Im ph es invariante ya que h ( ph ( x)) =ph (h ( x)). Sea x un vector no nulo de per ıodo pk (claramente estamos asumiendoque E 6= 0). Si k = 1 entonces, x ∈ ker ph . Si k > 1 entonces, el vector no nuloy = pk −1

h ( x) es tal que ph (y) = 0. De aqu ı, el OL ph tiene nucleo no trivial y por lotanto F 6= E. Luego, dim F < dim E.

. 4 0

6 Si X es una h -base de E entonces ph (X) \ 0 es una h -base de ph (E).

Prueba. Para todo x ∈ E denotemos x def = ph ( x). Sea X = u, . . . , v una h -base de

Page 182: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 182/232

172 Cap ıtulo 6. Descomposicion de operadores lineales

E. Comprobaremos que X def = x | x ∈ X y x 6= 0 es una h -base de F. Efectivamente, si

y ∈ F def = ph (E) entonces, como X es h -generador, existen polinomios tales que:

y = qh (u) + · · · + rh ( v) = qh (u) + · · · + rh ( v) .

Es claro que en la suma de la derecha podemos descartar aquellos sumandos para loscuales x = 0. Luego, F

⊆ -X®h o sea, X es un h -generador de F. Supongamos que para

ciertos polinomios q, . . . , r se tiene que0 = qh (u) + · · · + rh ( v) = (qp)h (u) + · · · + (rp)h ( v) .

Como X es h -independiente, entonces

0 = (qp)h (u) = qh (u) = · · · = (rp)h ( v) = rh ( v)

y por lo tanto X es h -independiente. Luego, X es una h -base de F.

Ya estamos listos para probar el teorema de unicidad.Prueba. (Del Teorema de Unicidad del Tipo) De la definicion del tipo y de la

unicidad de la descomposicion en componentes radicales queda claro que es sufi

cientedemostrar el teorema para OLs radicales h : E −→ E cuyo polinomio m ınimo es unapotencia de un polinomio irreducible que denotaremos por p.

Para cualquier vector x denotaremos x def = ph ( x). Para cualquier conjunto de vec-

tores X denotaremos X def = x | x ∈ X y x 6= 0.

Sean E = ha 1ih ⊕ · · · ⊕ ha nih = hb1ih ⊕ · · · ⊕ hbm ih dos descomposiciones ensubespacios c ıclicos. Como h es radical los per ıodos de todos sus vectores son poten-cias del polinomio irreducible p. Sean pni los per ıodos de los a i y pm i los per ıodos

de los bi. Los tipos de estas dos descomposiciones son pn1 , . . . , pnn y pm 1 , . . . , pm m

respectivamente. Reordenando los sumandos podemos suponer que n1 ≥ · · · ≥ nn yque m 1 ≥ · · · ≥ m m . Tambien podemos suponer que n ≥ m . Tenemos que probar quen = m y que los ni son iguales a los m i.

Hagamos la prueba del teorema por induccion en dim h . Si dim h = 1 entonces,necesariamente n = m = 1 y n1 = m 1.

Los conjuntos A = a 1, . . . , a n y B = b1, . . . , bm son dos h -bases de E. Por 6.40tenemos que A y B son bases de F = ph (E). Sea k ∈ 0 , . . . , n el mayor ındice tal que

nk > 1. Sea ` ∈ 0 , . . . , m el mayor ındice tal que m > 1.Si i > k entonces, perh (a i) = p y por lo tanto a i = 0. Luego, A = a 1, . . . , a k .

Un argumento analogo nos dice que B =©

b1, . . . , b`

ª.

Luego, F = ha 1ih ⊕ · · · ⊕ ha k ih =-

b1

®h ⊕ · · · ⊕ -b`

®h

son dos descomposicionesde F en subespacios ciclico-radicales. Por 6.38 los tipos de estas descomposiciones sonpn1−1, . . . , pnk−1 y pm 1−1, . . . , pm −1. Como por 6.39 dim F < dim E, podemos aplicarhipotesis de induccion y as ı obtenemos que

k = `, n1 − 1 = m 1 − 1, · · · , nk − 1 = m k − 1.

O sea, todos los ni son iguales a los m i desde i = 1 hasta k = `.Sea ∇ el grado de p. De 6.26 obtenemos que

(n1 + · · · + nn) ∇ = dim E = (m 1 + · · · + m m ) ∇y por lo tanto nk +1 + · · · + nn = m k +1 + · · · + m m .

Page 183: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 183/232

173Seccion 6.5 Descomposicion en subespacios c ıclicos radicales.

Todos los ni y los m i para i > k son iguales a 1 y por lo tanto n = m . Con esto,para todo i el natural ni es igual a m i.

E jercicio 122 Sean p = perh (a ) y q = perh (b) los per ıodos de dos vectores. De-muestre que si p y q son coprimos entonces, ha + bih = ha ih

⊕hbih . [196]

E jercicio 123 Use el ejercicio anterior y el Teorema de Descomposicion en Compo-nentes Radicales C ıclicas (6.36) para probar que cualquier OL tiene una descomposicionen OL c ıclicos f1 ⊕· · ·⊕ft en la cual el polinomio m ınimo de cada fi divide al polinomiomınimo del siguiente. [197]

E jercicio 124 Usando el Teorema de Unicidad del Tipo (6.37) demuestre que el tipode las descomposiciones introducidas en el ejercicio anterior es unico. [197]

Estructura de los operadores c ıclico-radicales

Ahora queremos conocer todos los subespacios invariantes de los operadores c ıcli-co radicales para poder demostrar que estos son irreducibles. En los tres siguientesresultados h : E → E es un operador c ıclico-radical con polinomio m ınimo pn.

. 4 1

6 Si x es un vector de per´ ı odo pk con k < n entonces, exis-te un vector y tal que x = ph (y) y perh (y) = pk +1.

Prueba. Sea a un vector h -generador. Existe un polinomio q tal que x = qh (a ). Siq fuera coprimo con p entonces el per ıodo de x fuera el mismo que el de a y eso no escierto por hipotesis. Luego q = pr y si ponemos y = rh (a ) obtenemos que x = ph (y).Por 6.38 perh (y) = pk +1.

. 4 2

6 Si perh ( x) = pk entonces h xih = ker pk

h .

Prueba. Sea x de per ıodo pk . Aplicando repetidamente 6.41 existe un vector a tal quex = pn−k

h (a ) y perh (a ) = pn y por lo tanto a es un h -generador de todo el espacio.Como x ∈ ker pk

h por monoton ıa de la h -cerradura tenemos que h xih ⊆ ker pk h .

Rec ıprocamente, sea b ∈ ker pk h entonces, perh b a pk y por 6.41 existe y tal que

b = pn−k h (y). Sea q tal que y = qh (a ) . Entonces b = pn−k

h (qh (a )) = qh ( x). Luego,ker pk

h ⊆ h xih .

. 4 3

6 Los subespacios ker pk

h , k ∈ 0 , 1 , . . . , n son los ´ unicos subespacios invariantes de h .

Page 184: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 184/232

174 Cap ıtulo 6. Descomposicion de operadores lineales

Prueba. Sea F cualquier subespacio h -invariante de E. Sea k ≤ n tal que perh F = pk .De aqu ı, F ⊆ ker pk

h . Por 6.19 existe un vector x ∈ F de per ıodo pk . Por monoton ıa dea h -cerradura h xih ⊆ F. Por 6.42 h xih = ker pk

h .

Teorema de Caracterizacion de los OLs irreducibles

. 4 4

6 Un operador lineal es irreducible si y solo si es c ı clico y radical.

Prueba. Sea h un OL. Si h no es c ıclico radical entonces por el Teorema de Descom-posicion en Componentes Radicales C ıclicas (6.36) este se descompone no trivialmente.Si h es c ıclico radical entonces, por 6.43 sus subespacios invariantes son del tipo ker pk

h .Por monoton ıa de los nucleos (6.14), dados dos de estos, siempre hay uno incluido den-tro del otro. Luego, h no tiene una pareja de subespacios invariantes complementarios

no triviales.

6.6 Polinomio caracterıstico

Rectas invariantes

Los subespacios invariantes no triviales mas sencillos que nos podemos imaginarson los de dimension 1 o sea, las rectas por el origen. Si h : E → E es un OL y F

es invariante de dimension 1 entonces, la restriccion de h a F es una homotecia. Seaa una base de F. Entonces, existe un escalar λ (la razon de la homotecia) tal que

h (a ) = λa .

Rec ıprocamente, supongamos que existen un escalar λ y un vector no nulo a talesque h (a ) = λa entonces, al vector a se le llama vector propio del operador h y alescalar λ se le llama valor propio de h . Tambien decimos que λ es el valor propiocorrespondiente al vector propio a . Observese que el valor propio correspondientea un vector es unico pues de λa = λ0a obtenemos (λ − λ0) a = 0 y como a 6= 0 estomplica que λ = λ0.

. 4 5

6 La recta ha i es h -invariante si y solo si a es un vector propio de h .

Prueba. Ya vimos la parte “solo si”. Supongamos que a es un vector propio. Sea λ sucorrespondiente valor propio. Por linearidad de h , para cualquier escalar α se cumple

que h (α a ) = α h (a ) = α (λa ) = (αλ) a y esto significa que ha i es h -invariante.

Page 185: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 185/232

175Seccion 6.6 Polinomio caracterıstico

El polinomio caracter ıstico de un operador lineal

Recordemos que el determinante de un OL esta bien definido como el determinantede su matriz en una base arbitraria.

El hecho de que h (a ) = λa lo podemos expresar como que el operador λI − h

evaluado en el vector a es cero. O sea el vector esta en el nucleo de λI−h . Esto quieredecir que ker (λI− h ) es el conjunto de todos los vectores propios correspondientes aλ. Sabemos que ker (λI− h ) 6= 0 si y solo si det (λI− h ) = 0 (vease 4.26, 4.27, 3.25y 3.28). Luego, λ es un valor propio de h si y solo si det (λI− h ) = 0.

Ası, para calcular los valores propios de h podr ıamos probar todos los elementos λ

del campo y comprobar si det (λI− h ) = 0. Esta estrategia es imposible de realizar si elcampo K es infinito. Por esto es mejor considerar la funcion K 3 x 7→ det (xI− h ) ∈ Ky encontrar sus raices.

. 4 6

6 det (xI− h ) es un polinomio m´ onico de grado dim h en la variable x.

Prueba. Sabemos que el determinante de un OL no depende de la base en el cual secalcule. Tomemos una base cualquiera N del espacio vectorial. Tenemos |N| = dim h .Sea α NN la matriz de h en la base N. La matriz de xI − h en la base N es βNN =xδNN − α NN donde δNN es el delta de Kronecker (la matriz identidad). Las entradasde βNN son βii = x − α ii y βij = −α ij para cualquier j 6= i.

El determinante lo calculamos por la definiciondet βNN =

Xσ∈SN

sgn σYi∈N

βiσi.

Como los βij son polinomios, el producto y la suma de polinomios son polinomios,tenemos que det βNN es un polinomio. Observemos ademas que βNN solo contiene lavariable x en la diagonal. Por esto, la potencia mas grande de x en det βNN se obtienecuando la permutacion σ es la identidad, o sea en el producto

Yi∈N

βii = Yi∈N

(x − α ii) .

Por la ley distributiva vemos que es de grado |N| y tiene coeficiente principal 1.

Al polinomio det (xI− h ) se le llama polinomio caracteristico de h . De esta ma-nera, los valores propios de h son las raices del polinomio caracter ıstico. Si α NN es la ma-triz de h en la base N entonces, los vectores propios correspondientes a un valor propioλ se pueden hallar resolviendo el sistema de ecuaciones lineales (λδNN − α NN ) aN = 0N .Este es un sistema de ecuaciones lineales y su conjunto de soluciones es ker (λI− h ). Elconjunto ker (λI− h ) es un subespacio invariante (porque es el nucleo de un polinomio

evaluado en h ) que se conoce como el subespacio propio correspondiente al valorpropio λ. La restriccion de h a un subespacio propio es una homotecia. De hecho, lossubespacios propios son los subespacios invariantes mas grandes en los que h es unahomotecia.

Page 186: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 186/232

176 Cap ıtulo 6. Descomposicion de operadores lineales

E jercicio 125 A la suma de las entradas en la diagonal de una matriz se le llamatraza de la matriz. Demuestre que la traza es una propiedad de los operadores lineales,o sea que la traza no cambia al hacer un cambio de base. [197]

El polinomio caracter ıstico y el polinomio m ınimo

Para ver como se relacionan el polinomio caracter ıstico ⎛⎜⎜⎜⎜⎝

0 0 ... 0 −α 01 0 ... 0 −α 1... ... ... ... ...

0 0 ... 0 −α n−20 0 ... 1 −α n−1

⎞⎟⎟⎟⎟⎠

y el polinomio m ınimo daremos la siguiente definicion. Seap = xn + α n−1xn + ... + α 1x + α 0 un polinomio monico.A la matriz cuadrada de orden n que se muestra en elrecuadro a la derecha se le llama matr ız acompanantedel polinomio p.

. 4 7

6 El polinomio caracter ı stico de la matriz

acompa˜ nante del polinomio p es igual a p.

Prueba. Por definicion el polinomio caracter ısti- ⎛

⎜⎜⎜⎜⎝

x 0 ... 0 α 0−1 x ... 0 α 1... ... ... ... ...

0 0 ... x α n−20 0 ... −1 x + α n−1

⎟⎟⎟⎟⎠

co de la matriz acompanante del polinomio p = xn +α n−1xn +...+α 1x+α 0 es el determinante de la matriz

que se muestra a la derecha. Calculemoslo. Triangu-ando con el metodo de eliminacion de Gauss obtene-

mos que este determinante es igual al de la siguientematriz:

⎛⎜⎜⎝

x 0 ... 0 α 00 x ... 0 α 1 + α 0x−1

... ... ... ... ...

0 0 ... x α n−2 + α n−3x−1 + · · · + α 1x−n+3 + α 0x−n+2

0 0 ... 0 x + α n−1 + α n−2x−1 + · · · + α 1x−n+2 + α 0x−n+1

⎞⎟⎟⎠ .

Multiplicando las entradas en la diagonal obtenemos p. El lector debe observar eluso de potencias negativas de la variable. Esto quiere decir que el calculo lo hicimos enel campo de funciones racionales K (x).

. 4 8

6 Sea h un OL c´ ı clico con polinomio m´ ı nimo p de grado n. La matriz de

h en la base ©

a , h (a ) , . . . , h n−1 (a )ª

es la matriz acompa˜ nante de p.

Prueba. Denotemos B = v0, . . . , vn−1 def

= ©a , h (a ) , . . . , h n−1 (a )ª. Sabemos por

6.23 que B es una base. Veamos como transforma h a los vectores de la base B. Tenemosque para k ∈ 0 , . . . , n − 2 se cumple que h ( vk ) = vk +1 lo que justifica las n − 1

primeras columnas de la matriz acompanante. Por otro lado si p = xn + α n−1xn−1 +

Page 187: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 187/232

177Seccion 6.6 Polinomio caracterıstico

· · + α 1x + α 0 es el polinomio m ınimo de h . entonces

h ( vn−1) = h n (a ) = ph (a ) −

n−1Xi=0

α ih i (a ) = 0 −

n−1Xi=0

α i vi

y esto justifica la ultima columna de la matriz acompanante.

Una consecuencia inmediata de 6.48 y 6.47 es el siguiente:

. 4 9

6 Si h es c´ ı clico entonces, los polinomios

m´ ı nimo y caracter´ ı stico de h coinciden.

. 5 0

6 Si h = f ⊕ g entonces, el polinomio caracter´ ı stico de h es

igual al producto de los polinomios caracter´ ı sticos de f y g.

Prueba. Sean F y G los subespacios invariantes en los cuales estan µ M 0

0 M0

¶definidas f y g. Por 6.3, si A es una base de F y B es una base de Gentonces, en la base de todo el espacio A ∪ B, la matriz de xI− h esdiagonal por bloques. El determinante de cualquier matriz diagonal por bloques es igualal producto de los determinantes de los bloques diagonales. El determinante del bloquesuperior izquierdo es el de xI−f o sea, el polinomio caracter ıstico de f. El determinantedel bloque inferior derecho es el de xI− g o sea, el polinomio caracter ıstico de g. ¥

Teorema de Hamilton-Caley-Frobenius

. 5 1

6 El polinomio caracter ı stico es un m´ ultiplo del polinomio m´ ı nimo.

Estos dos polinomios tienen los mismos factores irreducibles.

Prueba. Por el Teorema de Descomposicion en Componentes Radicales C ıclicas (6.36)todo OL tiene una descomposicion en componentes c ıclicas. Por 6.49 los polinomios

mınimos y caracter ısticos coinciden en cada una de las componentes. Por 6.50 el po-inomio caracter ıstico es el producto de los de las componentes. Por 6.11 el polinomio

mınimo es el m ınimo comun multiplo de los de las componentes. El m ınimo comunmultiplo es siempre un divisor del producto. El m ınimo comun multiplo siempre tieneos mismos factores irreducibles que el producto.

La primera afirmacion se conoce en la literatura como Teorema de Hamilton-Caleyy es equivalente por definicion de polinomio m ınimo a que el polinomio caracter ısticode h , evaluado en h es el operador nulo. La segunda se conoce como Teorema de

Frobenius. Una curiosidad historica es que fue Frobenius el que dio la primera pruebacompleta del Teorema de Hamilton-Caley.

Es posible dar muchas diferentes demostraciones del Teorema de Hamilton-Caleyque no pasan por la descomposicion de un operador en componentes c ıclicas (que es

Page 188: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 188/232

178 Cap ıtulo 6. Descomposicion de operadores lineales

el resultado “duro” de esta teor ıa). La idea de una de ellas es tomarse un vector a ,

observar que en el subespacio invariante ha ih los polinomios caracter ıstico y m ınimocoinciden y por lo tanto el polinomio caracter ıstico esta en el h -anulador de a . Comoel vector a es arbitrario entonces el polinomio caracter ıstico esta en el h -anulador detodo el espacio y por lo tanto es un multiplo del polinomio m ınimo.

El Teorema de Frobenius se prueba facilmente sobre los complejos ya que lo esencialaqu ı, es saber que si p es un factor irreducible del polinomio caracter ıstico entonces,ker ( ph ) 6= ∅ o sea, existen vectores de per ıodo p. Esto es inmediato en el caso complejoporque todos los irreducibles son de grado 1 y todo valor propio tiene al menos unvector propio correspondiente. En el caso general, para que esto funcione, es necesariaa introduccion del campo de descomposicion de un polinomio y esto queda fuera deos objetivos de este libro.

Por otro lado, el saber a priori la veracidad de estos dos teoremas no ayuda enmucho para la prueba de la existencia de h -bases, o lo que es lo mismo, la existenciade una descomposicion en componentes c ıclicas.

E jercicio 126 Un OL es diagonalizable si existe una base en la cual su matriz esdiagonal. Pruebe que un OL es diagonalizable si y solo si su polinomio m ınimo es unproducto de diferentes polinomios de grado 1. [198]

E jercicio 127 Pruebe que si un operador lineal en dimension n tiene n diferentesvalores propios entonces es diagonalizable. [198]

E jercicio 128 Un OL es triangulable si existe una base ordenada en la cual sumatriz es triangular. Pruebe que un OL es triangulable si y solo si existe una cadenade subespacios invariantes 0 ⊆ E1 ⊆ · · · ⊆ En = E tales que dim Ek = k . [198]

E jercicio 129 Pruebe que f ⊕ g es triangulable si y solo si f y g lo son. [198]

E jercicio 130 Pruebe que un OL es triangulable si y solo si los factores irreduciblesde su polinomio caracter ıstico (que son los mismos del m ınimo) son polinomios de grado1. En particular, todo OL complejo es triangulable. [199]

Los OL sobreC que no son diagonalizables tienen medida de Lebesgue cero. Estos estan con-tenidos en una hipersuperficie (definida por el discriminante del polinomio caracter ıstico)y por lo tanto, en cualquier vecindad de cualquier operador casi todos son diagonalizables.

Este hecho tiene importantes consecuencias para las aplicaciones en las ciencias naturales.

6.7 Formas normales

Un OL h siempre se descompone en suma directa de sus componentes radicalescıclicas. Por lo tanto, existen bases del espacio vectorial en las cuales la matriz de h esdiagonal por bloques. Los bloques son las matrices de las componentes c ıclico-radicalesde h . Nuestra tarea ahora es encontrar bases en las cuales la matriz de un operador

Page 189: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 189/232

179Seccion 6.7 Formas normales

cıclico-radical es lo mas “simple” posible. Estas matrices dependen mucho de cual esel polinomio m ınimo (que para operadores c ıclicos son iguales al caracter ıstico) deloperador lineal. Por esto, empezaremos con casos particulares. Esto significa que en loque sigue usaremos los mismos argumentos varias veces.

Forma normal de Jordan

Camille Jordan (Lyon 1838 - Par ıs 1922) Matematico e ingeniero.Conocido tanto por su trabajo en la teor ıa de grupos como por suinfluyente libro “Cours d’analyse”. Su libro “Traite des substitu-tions et des equations algebriques” publicado en 1870 contiene sudescubrimiento de las ahora conocidas como formas normales deJordan. Fue el primero que realmente entendio a Galois despuesde la publicacion postuma de los trabajos de Galois en 1846 y con-

tribuyo mucho a que la Teor´ı

a de Grupos y la Teor´ı

a de Galoisfueran parte de la corriente principal de las matematicas.Una matriz del tipo que se muestra en el recuadro de la de- ⎛

⎜⎜⎜⎜⎜⎝

λ 1 · · · 0

0 λ · · · 0...

... . . .

...0 0 · · · 1

0 0 · · · λ

⎞⎟⎟⎟⎟⎟⎠

recha se le llama celda de Jordan. Observese que el polino-mio caracter ıstico de una celda de Jordan es igual a (x − λ)

n

y su polinomio m ınimo es el mismo. Esto ultimo se puede pro-bar directamente de Hamilton-Caley y haciendo algunos calculosrutinarios.

Como no necesitaremos esto, no haremos los calculos. Sin embargo, el lector puedehacerse una idea de la prueba general con lo siguiente:

A =

⎛⎜⎝

0 1 0 0

0 0 1 0

0 0 0 1

0 0 0 0

⎞⎟⎠ , A2 =

⎛⎜⎝

0 0 1 0

0 0 0 1

0 0 0 0

0 0 0 0

⎞⎟⎠ , A3 =

⎛⎜⎝

0 0 0 1

0 0 0 0

0 0 0 0

0 0 0 0

⎞⎟⎠ , A 4 = 0.

. 5 2

6 Si h es un operador c´ ı clico-radical con polinomio m´ ı nimo (x − λ)

n

entonces, en cierta base, la matriz de h es una celda de Jordan.

Prueba. Denotemos por p al polinomio (x − λ). Sea h : E −→ E cıclico-radical conpolinomio m ınimo pn. Sabemos que dim E = n. Sea a tal que ha ih = En. Tal vectorexiste ya que h es c ıclico. Sabemos que perh (a ) = pn.

Para k ∈ 1 , . . . , n denotemos a k = pn−k h (a ). Sea A

def = a 1, . . . , a n y demostremos

que A es linealmente independiente y por lo tanto una base del espacio.Supongamos que para ciertos escalares Pβk a k = 0. Entonces

0 =

nXk =1

βk a k =

nXk =1

βk pn−k h (a ) =

Ãn−1Xj=0

βn−j pj!

h

(a ) def = qh (a )

El polinomio q es de grado estrictamente menor que el grado del per ıodo de a n y por

Page 190: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 190/232

180 Cap ıtulo 6. Descomposicion de operadores lineales

o tanto q = 0. Ademas, en la familia de polinomios pj hay exactamente un polinomiode grado t para cualquier t ∈ 0 , . . . , n − 1 . Luego, estos polinomios son linealmentendependientes y de q = 0 concluimos que todos los βkj son cero.

Veamos como es la matriz de h en esta base. Para k ∈ 1 , . . . , n − 1 tenemosa k = ph (a k +1) = h (a k +1) − λa k +1 y despejando obtenemos h (a k +1) = a k + λa k +1.

En otras palabras, en la base A el vector h (a k +1) tiene coordenadas (0 , . . . , 1 , λ, . . . , 0)donde el 1 aparece en el ındice k y λ aparece en el ındice k + 1. Estas son las columnas2 , . . . , n de una celda de Jordan.

Para ver como es la primera columna, observemos que a 1 ∈ E1 = ker ph y poro tanto h (a 1) − λa 1 = 0. En otras palabras, en la base A el vector h (a 1) tiene

coordenadas (λ, . . . , 0) y esa es la primera columna de una celda de Jordan.

El resultado anterior se aplica para operadores c ıclico-radicales cuyo polinomio m ıni-

mo es potencia de un polinomio de grado 1. Como por el Teorema de Gauss, los poli-nomios irreducibles en C [x ] siempre son de grado 1, entonces este siempre es el casopara los OL c ıclico-radicales definidos en un espacio vectorial sobre los complejos.

Conjugando esto con la descomposicion de un operador lineal en sus componentescıclico-radicales obtenemos el siguiente:

Forma normal de Jordan

. 5 3

6 Si h es un operador lineal en un espacio vectorial fi nito dimensional sobre el campo de los n´ umeros complejos entonces, existe una base del espaciovectorial en la cual la matriz del operador es diagonal por bloques y los bloques son celdas de Jordan.

Forma normal real

En el caso de los operadores lineales en un espacio vectorial sobre el campo R de losnumeros reales el problema es un poco mas complicado ya que tenemos mas polinomiosde grado 2 que son irreducibles. Mas precisamente, un polinomios del tipo (x − α )

2+β2

es irreducible si β 6= 0. Denotemos

Λ =

µ α −β

β α

¶ , I =

µ 0 1

0 0

¶ , O =

µ 0 0

0 0

¶.

La matriz Λ tiene polinomio caracter ıstico (x−

α )2 + β2 y como este polinomio esrreducible entonces por Hamilton-Caley su polinomio m ınimo es el mismo. La matriz

Λ es muy parecida a la de una rotacion en el plano R2. De hecho, si α 2 + β2 = 1

entonces, es la matriz de una rotacion de un angulo igual a arc cos α .

Page 191: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 191/232

181Seccion 6.7 Formas normales

Una matriz del tipo que se muestra en el recuadro de la derecha se le llama celda

⎛⎜⎜⎜⎜⎜⎝

Λ I · · · O

O Λ · · · O...

... . . .

...O O · · · I

O O · · · Λ

⎞⎟⎟⎟⎟⎟⎠

cuadratica. Observese que el polinomio caracter ıstico de una celda cuadratica es igual

(x − α )2

+ β2´n

. El lector debe notar el parecido con las

celdas de Jordan. El parecido esta dado por la correspondenciade s ımbolos λ

↔Λ , 1

↔I y 0

↔O. La diferencia fundamental

esta en que en el caso de las celdas de Jordan las entradas sonelementos del campo y aqu ı son matrices de orden 2.

. 5 4

6 Si ³

(x − α )2

+ β2´n

con β 6= 0 es el polinomio m´ ı nimo de un operador c´ ı clico-

radical h entonces, en cierta base, la matriz de h es una celda cuadr´ atica.

Prueba. Denotemos por p al polinomio ³(x − α )2

+ β2´. Sea h : E

−→ E cıclico

radical con polinomio m ınimo pn. Sabemos que dim E = n. Sea a tal que ha ih = En.Tal vector existe ya que h es c ıclico. Sabemos que perh (a ) = pn.

Denotemos por r al polinomio (x − α ) /β. El lector puede comprobar facilmenteque se cumple la siguiente iqualdad polinomial

xr = p

β − β + α r †

Para k ∈ 1 , . . . , n denotemos a k = ( p/β)n−k

h (a ) y bk = rh (a k ). Sea A def

=

a 1, b1, . . . , a n, bn y demostremos que A es linealmente independiente y por lo tantouna base del espacio.Supongamos que para ciertos escalares

Pωk a k +

Pρk bk = 0. Entonces

0 =

nXk =1

(ωk a k + ρk bk ) =

Ãn−1Xj=0

µωn−j + ρn−jr

β

¶ pj

!h

(a ) def = qh (a ) .

El polinomio q es de grado estrictamente menor que el grado del per ıodo de a ypor lo tanto q = 0. Ademas, en la familia de polinomios pj, rpj hay exactamente un

polinomio de grado t para cualquier t ∈ 0 , . . . , 2 n−

1 . Luego, estos polinomios soninealmente independientes y de q = 0 concluimos que todos los coeficientes son cero.

Veamos como es la matriz de h en la base ordenada A. Tenemos bk = rh (a k ) =1β

(h (a k ) − α a k ) y despejando h (a k ) = α a k + βbk . Esto justifica todas las columnascon ındice impar de la celda cuadratica. Ademas, usando la igualdad polinomial †tenemos

h (bk ) = (xr)h (a k ) =

µ p

β

¶h

(a k ) − βa k + α r (a k ) = a k −1 − βa k + α bk

Esta igualdad es valida incluso para k = 1 si defi

nimos a 0 = 0. Esto justifi

ca todas lascolumnas con ındice par de la celda cuadratica.

El resultado anterior es valido sobre cualquier campo (por ejemplo Q) en el cualx − α )

2+ β2 sea un polinomio irreducible. Para R esto termina el analisis ya que todo

Page 192: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 192/232

182 Cap ıtulo 6. Descomposicion de operadores lineales

polinomio real irreducible es de esta forma o es de grado 1.

Conjugando esto con la descomposicion de un operador lineal en sus componentescıclico-radicales obtenemos el siguiente:

Forma normal real

. 5 5

6 Si h es un operador lineal en un espacio vectorial fi nito dimensional sobre el

campo de los n´ umeros reales entonces, existe una base del espacio vectorial en la cual la matriz del operador es diagonal por bloques y los bloques son celdas de Jord´ an o celdas cuadr´ aticas.

Forma normal canonica

Ahora analizaremos el caso general en el cual el polinomio irreducible es arbitrario.Denotaremos por p al polinomio α 0 + α 1x + · · · + α m −1xm −1 + xm . As ı, p es monico degrado m y supondremos que p es irreducible en nuestro campo. En este caso, nuestrosbloques para construir las celdas son las matrices de orden m siguientes

Λ =

⎜⎜⎜⎝

0 0 · · · 0 -α 01 0 · · · 0 -α 1...

... . . .

......

0 0 · · · 0 -α m−20 0 · · · 1 -α m−1

⎟⎟⎟⎠ , I =

⎜⎜⎝0 · · · 0 1

0 · · · 0 0..

.

. .

.

..

.

..

.0 · · · 0 0

⎟⎟⎠ O =

⎛⎝

0 · · · 0...

. . . ...

0 · · · 0

⎞⎠.

El lector debe reconocer que Λ es la matriz acompanante del polinomio p.

Una matriz del tipo que se muestra en el recuadro de la ⎛⎜⎜⎜⎜⎜⎝

Λ I · · · O

O Λ · · · O...

... . . .

...O O · · · I

O O · · · Λ

⎞⎟⎟⎟⎟⎟⎠

derecha donde los bloque son los definidos previamente se lelama celda canonica. Usando 6.47 obtenemos que el polino-

mio caracter ıstico de una celda canonica es a igual a pn. Ladiferencia con las celdas cuadraticas es que los bloques son di-

ferentes aunque esten denotados con las mismas letras.

Observese que las celdas canonicas para p = (x − λ) son celdas de Jordan. Sinembargo, las celdas canonicas y las celdas cuadraticas son diferentes. Efectivamente,supongamos m = 2 y p = (x − α )

2+ β2 = x2

− 2α x + γ donde γ = α 2 + β2 entonces,en la desigualdad ⎛

⎜⎝0 − γ 0 1

1 2α 0 0

0 0 0 − γ

0 0 1 2α

⎟⎠ 6=

⎜⎝α −β 0 1

β α 0 0

0 0 α −β

0 0 β α

⎟⎠a celda canonica es la de la izquierda y la celda cuadratica es la de la derecha. La

ventaja de las celdas cuadraticas es que son mas faciles de intuir geometricamentemediante rotaciones. La ventaja de las celdas canonicas es que siempre funcionan.

Page 193: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 193/232

183Seccion 6.7 Formas normales

. 5 6

6 Si h es un operador c´ ı clico-radical con polinomio m´ ı nimo pn

entonces, en cierta base, la matriz de h es una celda can´ onica.

Prueba. Sea p monico de grado m . Sea h : E −→ E cıclico radical con polino-

a jk =

¡xj pn−k

¢h

(a n)

mio m ınimo pn. Tenemos que dim Ek = mk . Sea a tal que ha ih = En. Tal vectorexiste ya que h es c ıclico. Sabemos que perh (a ) = pn. Parak ∈ 1 , . . . , n y j ∈ 0 , . . . , m − 1, denotemos a

jk como en el

recuadro a la derecha.Tenemos nm vectores a

jk y necesitamos convencernos que estos forman una base del

espacio, o lo que es lo mismo, que son linealmente independientes. Sean βkj escalares

tales que Pβkj a jk = 0. Tenemos

0 =X

k,j

βkj a jk =

Xk,j

βkj¡

xj pn−k ¢h

(a ) =ÃX

k,j

βkj xj pn−k !h

(a ) def = qh (a ) .

El polinomio q es de grado estrictamente menor que el grado del per ıodo de a n y por lotanto q = 0. Ademas, en la familia de polinomios xj pk hay exactamente un polinomiode grado t para cualquier t ∈ 0 , . . . , n m − 1 . Luego, estos polinomios son linealmentendependientes y de q = 0 concluimos que todos los βkj son cero.

Ordenemos nuestra base de la siguiente manera

a

0

1, a

1

1, . . . , a

m −1

1 , a

0

2, a

1

2, . . . , a

m −1

2 , . . . , a

0

n, a

1

n , . . . , a

m −1

ny veamos como es la matriz de h en esta base ordenada.

Para j ∈ 0 , . . . , m − 2 tenemos

h ³

a jk = h

¡¡xj pn−k

¢h

(a n)¢

= h ¡

h j¡ pn−k

h (a n)¢¢

= a j+1k

y esto justifica las columnas de la celda canonica cuyos ındices no son divisibles entrem que son del tipo (0 , . . . , 0 , 1 , 0 , . . . , 0).

Denotemos los coeficientes de p por α i, o sea, p = α 0 + α 1x + · · · + α m −1xm −1 + xm

y definamos r def = p − xm . Tenemosh ¡a m

−1

k ¢ = ¡xm pn

−k ¢

h (a n) = ¡( p

−r) pn

−k ¢

h (a n) =

= pn−(k −1)h (a n) −

¡rpn−k

¢h

(a n) =

= a 0k −1 − α 0a 0k − α 1a 1k − · · · α m −1a m −1k

a cual es valida incluso para k = 1 si definimos a 00 = 0. Esto justifica las co-umnas de la celda canonica cuyos ındices son divisibles entre m que son del tipo0 , . . . , 0 , 1 , 0 , . . . 0 , −α 0, . . . , α m −1, 0 , . . . , 0).

Conjugando esto con la descomposicion de un operador lineal en sus componentescıclico-radicales obtenemos el siguiente:

Page 194: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 194/232

184 Cap ıtulo 6. Descomposicion de operadores lineales

Forma normal canonica

. 5 7

6 Si h es un operador lineal en un espacio vectorial fi nito dimensional sobre

cualquier campo entonces, existe una base en la cual la matriz del operador es diagonal por bloques y los bloques son celdas canonicas.

Definamos el tipo de un OL como el tipo de una de sus descomposicionesen componentes radicales c ıclicas. Hay muchısima libertad al construirformas normales. Por esto, no hay que sobredimensionar la importancia de

as diferencias entre unas y otras. Lo importante y comun a todas las formas normaleses que ellas solo dependen del tipo del operador y no del operador en si mismo.

E jercicio 131 Se dice que dos OL f

y g

son conjugados si existe un OL invertible h

tal que f = h g h −1. Demuestre que dos OL tienen el mismo tipo si y solo si sonconjugados. [199]

Page 195: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 195/232

Ejercicio 2 (Seccion 1.1 pagina 2) Una operacion unaria en el conjunto A es unafuncion de A en A. Por ejemplo para cada entero x hay otro entero −x. De esta maneraa operacion x 7→ −x es una operacion unaria. Otros ejemplos comunes son el hallar el

complemento de un conjunto o el hallar el complejo conjugado de un numero complejo.

Ejercicio 3 (Seccion 1.1 pagina 2) El area del triangulo con lados a, b y c no esuna operacion ternaria en R ya que no para cualesquiera a, b y c existe un triangulocon lados de esas longitudes.

Ejercicio 4 (Seccion 1.1 pagina 2) La formula (a + b) (x + y) se expresa en nota-cion sufi ja como ab + xy + ×.

Ejercicio 5 (Seccion 1.1 pagina 3) La suma, el producto, el maximo comun divisorel m ınimo comun multiplo y el maximo son operaciones conmutativas. Las demas noo son.

Ejercicio 6 (Seccion 1.1 pagina 3) Ya vimos en el texto que la exponenciacion no

es asociativa. Observemos que 4 = 4−

(2−

2) 6= ( 4−

2)−

2 = 0 por lo que la restano es asociativa. Tenemos 4 = 4/ (2/2) 6= ( 4/2) /2 = 1 y por lo tanto la division no esasociativa. Tampoco es asociativo el logaritmo. El resto de las operaciones mancionadassı son asociativas.

Ejercicio 7 (Seccion 1.1 pagina 4) La resta no tiene elemento neutro ya que dea − e = a se sigue que e = 0 pero por otro lado 0 − a = −a 6= a. Lo mismoocurre con la division. La operacion de exponenciacion no tiene elemento neutro ya

que e1

= 1 ⇒ e = 1 pero 12

= 1 6= 2. Lo mismo ocurre con el logaritmo. El neutro dea suma es el cero, el neutro del producto es el uno. El 1 tambien es el neutro para elmınimo comun multiplo. La operacion de maximo comun divisor no tiene neutro.

Ejercicio 8 (Seccion 1.1 pagina 5) Es importante senalar que el inverso tiene sentidosolo si hay neutro. El inverso de a para la suma es −a, para el producto es 1

a. Aunque

el m ınimo comun multiplo tiene neutro 1, esta operacion no tiene inversos.

Ejercicio 9 (Seccion 1.1 pagina 5) Fijemonos en un conjunto U y en el conjunto

de todos los subconjuntos de U que denotaremos por 2U . En 2U estan bien definidasas operaciones de union e interseccion de conjuntos. Estas operaciones cumplen las

propiedades requeridas como se puede observar en los dos siguientes diagramas deVenn.

Page 196: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 196/232

186 Soluciones de ejercicios selectos

A

B

C

A ∩ (B ∪ C) == (A ∩ B) ∪ (A ∩ C)

A

B

C

A ∪ (B ∩ C) == (A ∪ B) ∩ (A ∪ C)

Ejercicio 11 (Seccion 1.2 pagina 8) No porque (1, 0)×(0, 1) = (0, 0) lo que muestraque K2 no es dominio de integridad y por lo tanto no es un campo.

Ejercicio 12 (Seccion 1.2 pagina 9) Supongamos que √

n es un racional. De-componiendo su numerador y denominador en factores primos obtenemos que

√ n =

pn1

1 pn2

2 . . . pnt

t para ciertos naturales primos p1 p2 . . . pt y ciertos numeros enteros n1, n2, . .

Pero entonces, n = p2n1

1 p2n2

2 . . . p2ntt y por lo tanto ∀i ∈ 1,...,t 2ni ≥ 0. Luego,

todos los ni son naturales lo que significa que √

n es natural.

Ejercicio 13 (Seccion 1.2 pagina 9) Tenemos 1 <√

2 < 2 y por lo tanto√

2 no esnatural. Por el ejercicio anterior, no es racional.

Ejercicio 14 (Seccion 1.2 pagina 9) Siempre podemos medir un segmento de rectacon cada vez mas precision (al menos teoricamente). Cada medicion nos da un numero

racional. Luego, la longitud del segmento es un l´ımite de racionales por lo que es unreal.

Ejercicio 18 (Seccion 1.3 pagina 12) Por 1.1.4 sabemos que f (0) = 0 y f (1) = 1.Si f (a) = 0 y a no fuera el cero de A entonces tendr ıamos 1 = f (1) = f

¡aa−1

¢ =

f (a) f¡

a−1¢

= 0f¡

a−1¢

= 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0.Luego, si f (x) = f ( y) entonces, f (x − y) = 0 y por lo tanto x = y.

Ejercicio 20 (Seccion 1.3 pagina 14) Si f no es inyectiva entonces existen x 6= y

tales que f (x) = f ( y) y por lo tanto g (f (x)) = g (f ( y)) . Luego, g f no puede ser ladentidad.

Si g no es sobreyectiva entonces existe x tal que ∀ y se tiene que g ( y) 6= x en particular∀f (z ) se tiene que g (f (z )) 6= x y por lo tanto g f no es sobreyectiva. Luego, g f nopuede ser la identidad.

Ejercicio 22 (Seccion 1.4 pagina 17)

Page 197: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 197/232

187Soluciones de ejercicios selectos

La tabla de multiplicar en Z5 es la derecha. Luego el elemento• 0 1 2 3 40 0 0 0 0 01 0 1 2 3 42 0 2 4 1 33 0 3 1 4 2

4 0 4 3 2 1

nverso de 1 es 1, el elemento inverso de 2 es 3, el elementonverso de 3 es 2 y el elemento inverso de 4 es 4. Observese que

en la tabla de multiplicar de Z5\0 en cada columna y en cadarenglon nos encontramos con todos los elementos posibles. Esto

es una propiedad de las operaciones binarias de los grupos. Dehecho, un conjunto con una operacion binaria asociativa y conelemento neutro es un grupo si y solo si su tabla de multiplicar cumple esta propiedad.

Ejercicio 23 (Seccion 1.4 pagina 17) La prueba de que es un anillo conmutativo esdirecta de las definiciones de suma y producto. Para ver que es un campo observamosque el producto (a, b) (x, y) = (ax + 7by, ay + bx) tiene neutro (1, 0). Para hallar losnversos multiplicativos resolvemos el sistema de ecuaciones lineales

¯ ax + 7by = 1

ay + bx = 0

que tiene como solucion unica x = a/∆ , y = −b/∆ donde ∆ = a2− 7b2. Nos queda

comprobar que si ∆ = 0 entonces a = b = 0. Efectivamente, observando la siguientetabla calculada en Z11

x 1 2 3 4 5 6 7 8 9 10

x2 1 4 9 5 3 3 5 9 4 1

7x2 7 6 8 2 10 10 2 8 6 7

vemos que ningun a2

puede ser igual a un 7b2

.Ejercicio 24 (Seccion 1.5 pagina 19) No, porque t no es un elemento del campoal contrario, t es un numero natural. Lo que quiere decir tx es x + · · · + x, t veces.

Ejercicio 26 (Seccion 1.5 pagina 19) De que a = −a obtenemos que

0 = a + a = 1a + 1a = (1 + 1) a

Como todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0. Si lacaracter ıstica del campo es diferente de 2 entonces, 1 + 1 6= 0 por lo que la afirmacion

del ejercicio es cierta. Si la caracter ıstica del campo es 2 entonces, 1 + 1 = 0 y por lotanto a = −a para cualquier elemento del campo.

Ejercicio 27 (Seccion 1.6 pagina 21) En cualquier campo (xy) p

= x p y p. Por

el binomio de Newton (x + y) p =

pXk =0

p!

k ! ( p − k ) !xk yn−k . El coeficiciente binomial

p!/k ! ( p − k ) ! se divide entre p si k ∈ [1,...,n − 1 ]. Esto quiere decir (ver 1.15) queen un campo de caracter ıstica p todos los sumandos del binomio de Newton excepto

el primero y el ultimo son cero. Luego (x + y) p = x p + y p. Esto muestra que x 7→ x p

es un morfismo. Como todo morfismo de campos es inyectivo (ver ejercicio 18) y todafuncion inyectiva de un conjunto finito en si mismo es sobreyectiva obtenemos que estemorfismo es automorfismo para campos finitos.

Page 198: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 198/232

188 Soluciones de ejercicios selectos

Ejercicio 28 (Seccion 1.7 pagina 23) Usando la distributividad por la derecha ezquierda obtenemos que:

(a + 1) (b + 1) = (a + 1) b + a + 1 = ab + b + a + 1

(a + 1) (b + 1) = a (b + 1) + b + 1 = ab + a + b + 1Igualando y cancelando ab por la izquierda y 1 por la derecha obtenemos que b + a =a + b.

Ejercicio 29 (Seccion 1.7 pagina 24) Las seis igualdades necesarias se puedenobtener de la siguiente manera

(ijk = −1) ⇒ (ijkk = −k ) ⇒ (ij = k ) ⇒ (ijj = kj) ⇒ (kj = −i)(ijk = −1) ⇒ (iijk = −i) ⇒ (jk = i) ⇒ (jkk = ik ) ⇒ (ik = −j)

(ijk = −1)

⇒(kijkkj = −kkj)

⇒(ki = j)

⇒(kii = ji)

⇒(ji = −k )

Ejercicio 30 (Seccion 1.7 pagina 24) Por definicion de producto de quaterniones³(a + bi + cj + dk )

2= −1

´⇔µ

a2−

¡b2 + c2 + d2

¢ = −1

ab = ac = ad = 0

¶.

Como a es un real b2 + c2 + d2 6= 0 por lo que cualquier solucion de estas ecuacionesrequiere que a = 0.

Ejercicio 31 (Seccion 1.7 pagina 24) En los quaterniones (x − i) (x + i) = x2−

ix + xi + 1 6= x2 + 1 lo que quiere decir que no es posible definir correctamente los

polinomios con coeficientes quaternionicos.

Ejercicio 32 (Seccion 2.2 pagina 29)El triangulo abc es semejante al triangulo uvw de hecho son

a

b c

u

w v

congruentes porque ac = uw (lados opuestos de un paralelogra-mo tienen la misma longitud). Luego bc = wv y por lo tanto lacoordenada en x del vector −→au es igual a la de −→aw mas bc. Laprueba para la otra coordenada es igual.

Ejercicio 34 (Seccion 2.2 pagina 29) En la expresion α (βa ) se utiliza un solo tipode operacion (la de un escalar por un vector). En la expresion (αβ) a se utilizan dosoperaciones diferentes primero la del producto de escalares y despues la de un escalarpor un vector.

Ejercicio 35 (Seccion 2.2 pagina 29) Si α 6= 0 entonces tiene inverso y por lo tanto

α a = 0

⇒a = α −1α a = α −10 = 0

Ejercicio 36 (Seccion 2.2 pagina 29) El m ınimo numero de elementos en un espaciovectorial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Yefectivamente un conjunto formado por un solo elemento 0 es un espacio vectorial sobrecualquier campo definiendo α 0 = 0 para cualquier α en el campo.

Page 199: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 199/232

189Soluciones de ejercicios selectos

Ejercicio 38 (Seccion 2.3 pagina 37) Supongamos que x ∈ hN ∪ yi\hNi. Entonces,existe una combinacion lineal x = α yy +

Pi∈N α ii. Tenemos que α y 6= 0 (ya que

x /∈ hNi). Luego, despejando y obtenemos que y ∈ hN ∪ xi.

Ejercicio 39 (Seccion 2.4 pagina 39) Solo en la prueba de que 2

⇒4 al despejar a .

Ejercicio 40 (Seccion 2.4 pagina 41) 1.- El conjunto vac ıo es LI y todo el espacioE es generador. Luego existe N tal que ∅ ⊆ N ⊆ E que es base. 2.- Si M es LI entoncesexiste una base N tal que M ⊆ N ⊆ E. 3.- Si L es generador entonces existe una baseN tal que ∅ ⊆ N ⊆ L.

Ejercicio 41 (Seccion 2.4 pagina 42) Sea A una base de E. Como F es generadory A ⊆ F es LI entonces por el Teorema de Existencia de Bases (2.14) existe una baseB de F que contiene a A. De aqu ı tenemos dim E = |A|

≤|B| = dim F. Esta prueba es

valida independientemente de si los cardinales de A y B son finitos o no.

Ejercicio 42 (Seccion 2.4 pagina 42) El conjunto de todos los polinomios P

aixi

tales que a0 = 0 es un subespacio de K [x ] de la misma dimension que K [x ].

Ejercicio 43 (Seccion 2.4 pagina 44) La diferencia entre el espacio de las (N × M)-adas y las NM-matrices es solo en las notaciones. Luego, el espacio de las NM-matricestiene dimension |N × M| = |N| |M|. Para cada pareja i, j con i ∈ N y j ∈ M hay una

matriz eij en la base canonica la cual tiene su entrada ij igual a 1 y todas las demasgual a cero.

Ejercicio 44 (Seccion 2.5 pagina 44) Sean E f→ F

g→ G transformaciones lineales.Tenemos que f (g ( x + y)) = f (g ( x) + g (y)) = f (g ( x)) + f (g (y)) y f (g (λ x)) =f (λg ( x)) = λf (g ( x)) y esto era todo lo que se quer ıa probar.

Ejercicio 46 (Seccion 2.5 pagina 48) El conjunto E es contable y es un espaciovectorial sobre Q. Si existe un racional α tal que y = α x entonces la dimension de E

sobre Q es 1. Si por el contrario α no existe entonces la dimension de E sobre Q es 2.El conjunto E no es un espacio vectorial sobre R.

Ejercicio 48 (Seccion 2.6 pagina 52) 1.- Es facil probar que la aplicacion E ⊕ F 3a , b) 7→ (b, a ) ∈ F ⊕ E es un isomorfismo canonico. 2.- Conmutatividad. 3.- Elsomorfismo canonico es ((a , b) , c) 7→ (a , (b, c)) 7→ (a , b, c). 4.- Si. La aplicacion

E ⊕ 0 3 (a , 0) 7→ a ∈ E es un isomorfismo canonico. Por esto podemos pensar queE ⊕ 0 = E.

Ejercicio 49 (Seccion 2.6 pagina 53) Denotemos por S a todo el espacio. Comocada vector se expresa como a + b con a ∈ E y b ∈ F tenemos S = E+F. Supongamosque a 6= 0 ∈ E∩F entonces 0 = 0 + 0 = a − a lo que contradice que la descomposicion

Page 200: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 200/232

190 Soluciones de ejercicios selectos

de 0 es unica. Luego E ∩ F = 0 y por lo tanto S = E ⊕ F.

Ejercicio 55 (Seccion 2.7 pagina 56) Si E = E + x y F = F + y son dos subespaciosparalelos o no entonces E + F es igual a (E + F) + ( x + y) o sea, es un espacio af ınparalelo a E + F. Si E es paralelo a F entonces, E = F y por lo tanto E + F = E.

Ejercicio 60 (Seccion 3.4 pagina 76) Tomese x = (1, 0) , y = (0, 1) y z = (1, 1) .Tenemos ( xy) z = 0 (1, 1) = (0, 0) y x (yz) = (1, 0) 1 = (1, 0) por lo que ( xy) z 6=x (yz) .

Ejercicio 64 (Seccion 3.4 pagina 78)

µcos α − sin α

sin α cos α

¶Ejercicio 65 (Seccion 3.4 pagina 78) Para cualesquiera n ∈ N y k ∈ K tenemos

(α nM βML

) γLk

= Xl∈L

(α nM · βMl

) γlk

= Xl∈L Xm ∈M

α nm βml

γlk

=Xm ∈M

α nm

Xl∈L

βml γlk =X

m ∈M

α nm (βmL · γLk ) = α nM (βML γLk )

Ejercicio 66 (Seccion 3.4 pagina 79) Las matrices de f, g y fg tienen que cumplir:µ cos (α + β) − sin (α + β)sin (α + β) cos (α + β)

¶ =

µ cos α − sin α

sin α cos α

¶µ cos β − sin β

sin β cos β

¶ =

= µ cos α cos β − sin α sin β − cos α sin β − sin α cos β

cos α sin β + sin α cos β cos α cos β−

sin α sin β ¶y por lo tanto cos (α + β) = cos α cos β − sin α sin β

sin (α + β) = cos α sin β + sin α cos β

Ejercicio 69 (Seccion 3.7 pagina 86) Sea f semilineal y σ y ρ dos automorfis-mos del campo tales que para cualquier escalar λ y cualquier vector a se cumple quef (λa ) = σ (λ) f (a ) = ρ (λ) f (a ). Podemos escoger a tal que f (a ) 6= 0 y por lo tanto

(σ (λ) − ρ (λ)) f (a ) = 0)

⇒(σ (λ) = ρ (λ)).

Ejercicio 70 (Seccion 3.7 pagina 87) Supongamos que sup A existe. Entonces, ∀b ∈R tenemos (∀a ∈ A b ≥ a) ⇒ (b ≥ sup A) . Usando que f y f−1 son monotonas vemosque ∀f (b) ∈ f (R) = R tenemos (∀f (a) ∈ f (A) f (b) ≥ f (a)) ⇔ (∀a ∈ A b ≥ a) ⇒

b ≥ sup A) ⇒ (f (b) ≥ f (sup A)) y esto prueba que f (sup A) = sup f (A).

Ejercicio 71 (Seccion 3.7 pagina 87) (1 ⇒ 2) La conjugacion compleja es continua.2 ⇒ 3) Tenemos (vease la prueba de 3.31) que f es la identidad en Q. De que los reales

son los l ımites de los racionales y f es continua obtenemos que f es la identidad en R.

3 ⇒ 1) Si f es la identidad en R entonces, f (a + bi) = a + bf (i). Como f (i)2 =f¡

i2¢

= f (−1) = −1 y f (i) 6= i entonces, f (i) = −i.Para ver que hay muchos automorfismos de C que no son la conjugacion compleja veasepor ejemplo: Yale, Paul B., Automorphisms of the complex numbers , Mathematics

Page 201: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 201/232

191Soluciones de ejercicios selectos

Magazine, May-June 1966, 135—141.

Ejercicio 72 (Seccion 3.7 pagina 88) La funcion (x1, . . . , xn) 7→ (x1, . . . , xn) esbiyectiva ya que λ 7→ λ es biyectiva. Ademas, tenemos

(x1 + y1, . . . , xn + yn) = (x1 + y1, . . . , xn + yn) = (x1, . . . , xn) + ( y1, . . . , yn)

¡λx1, . . . , λxn¢ = ¡¯λx1, . . . ,

¯λxn¢ =

¯λ (x1, . . . , xn)y esto muestra que la funcion es un automorfismo semilineal.

Si f es una transformacion semilineal arbitraria cuyo automorfismo del campo es σ

entonces, su composicion con el automorfismo semilineal estandar correspondiente aσ−1 es una transformacion lineal.

Ejercicio 74 (Seccion 3.7 pagina 91) Supongamos que 0 = α a + α c + βb −

βc = (α − β) c + (α + βρ) a . Como a , c es LI entonces, α = β y α (1 + ρ) = 0.Como ρ 6= −1 entonces, 0 = α = β.

Ejercicio 82 (Seccion 4.3 pagina 108) Es saludable poner la matriz de Vander-monde enforma grafica como se muestra en el recuadro a la dere- ⎛

⎜⎜⎜⎜⎝

1 1 · · · 1

x1 x2 · · · xn

x21 x2

2 · · · x2n

· · · · · · · · · · · ·xn−1

1 xn−12 · · · xn−1

n

⎞⎟⎟⎟⎟⎠

cha. Denotemos por v (x1, x2, . . . , xn) al determinantede esta matriz. Denotemos

f (x1, x2, . . . , xn) =

Y1

≤i<j

≤n

(xj − xi)

Veamos que v (x1, x2, . . . , xn) = f (x1, x2, . . . , xn).Por induccion en n. Para n = 1 tenemos f (x1) = v (x1) = 1. Supongamos que esta pro-bado hasta n − 1. Pongamos y = xn. Tenemos que probar que v (x1, . . . , xn−1, y) =f (x1, . . . , xn−1, y). Para esto veamos ambos lados de la igualdad como polinomios ena variable y. Ambos polinomios tienen grado n − 1.

Haciendo la expansion de Laplace por la ultima columna vemos que el coeficienteprincipal de v (x1, . . . , xn−1, y) es igual a v (x1, . . . , xn−1). Por otro lado

f (x1, . . . , xn−

1, y) = Y1≤i<j≤n−1

(xj−

xi) Y1≤i≤n−1

( y−

xi)

que tiene coeficiente principal f (x1, . . . , xn−1). Por hipotesis de induccion v (x1, . . . , xn−1)f (x1, . . . , xn−1) y por lo tanto nuestros dos polinomios tienen el mismo coeficiente prin-cipal.Ademas, las raices de v (x1, . . . , xn−1, y) son x1, . . . , xn−1 porque evaluando y en estosvalores obtenemos una matriz con dos columnas iguales. Es obvio que x1, . . . , xn−1 sontambien las raices de f (x1, . . . , xn−1, y).Luego, v (x1, . . . , xn−1, y) y f (x1, . . . , xn−1, y) son dos polinomios del mismo grado, conos mismos coeficientes principales y las mismas raices y por lo tanto son polinomiosguales.

Ejercicio 83 (Seccion 4.4 pagina 114) Las tres. Para la matriz A los bloques son

Page 202: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 202/232

192 Soluciones de ejercicios selectos

M1 = 1 , M2 = 2 y M3 = 3. Para la matriz B los bloques son M1 = 3 , M2 = 2

y M3 = 3. Para la matriz C los bloques son M1 = 2 , M2 = 3 y M3 = 1 ya queα 23 = α 21 = α 31 = 0. Los determinantes de las tres matrices son iguales a abc.

Ejercicio 84 (Seccion 4.4 pagina 114)El aspecto es el del recuadro a la derecha. Aqu ı hemos de-

∗ ∗∗ ∗0

0

0 0

0 0

∗ ∗ ∗ 0 0

∗ ∗∗ ∗

∗∗

∗ ∗∗ ∗

notado por ∗ las entradas que pueden ser diferentes de cero.Las entradas con 0 son las que obligatoriamente tienen queser cero. Ademas, hemos dividido con rectas los tres bloquesde la matriz. El determinante de una matriz de este tipo esgual al producto de los determinantes de sus tres bloques

diagonales.

Ejercicio 88 (Seccion 5.1 pagina 134) Como G es un subgrupo el elemento neutro

1 ∈ G y los inversos de los elementos en G estan en G. Como los inversos son unicos y¡a−1

¢−1

= a entonces la funcion f : G 3 a 7→ a−1 ∈ G es una biyeccion tal que f2 es ladentidad. Esto nos permite partir G en tres partes disjuntas G = A ∪ B ∪ C tales que

f (A) = B y C =©

a ∈ G | a−1 = aª

. Por estoYa∈A

a =Ya∈A

¡a−1

¢−1

=

ÃYa∈B

a−1

!−1

=

ÃYa∈B

a

!−1

y por lo tanto

ρ

def

= Ya∈G

a = Ya∈A

aYa∈B

aYa∈C

a = Ya∈C

a

Por otro lado si a ∈ C entonces tiene que ser raiz del polinomio x2− 1 y en cualquier

campo este polinomio tiene a lo mas las raices 1 y −1 (vease 5.5). Luego si −1 ∈ G

entonces, ρ = −1 y si −1 /∈ G entonces ρ = 1.

Ejercicio 89 (Seccion 5.1 pagina 134) Sea K un campo y G un subgrupo finito deK \ 0, •). Si x ∈ G entonces al natural n mas pequeno tal que xn = 1 lo llamaremos

orden de x. En este caso todos los elementos de hxi = ©1,x,x2 . . . xn−1

ª son diferentes

y la funcion f : (hxi , •) 3 xi 7→ i ∈ (Zn, +) es un isomorfismo de grupos. Luego, lo quehay que probar es que en G existe un elemento de orden q = |G|.

1. Sea F un subgrupo de G. Para x ∈ G el conjunto xF = xf | f ∈ F se le llamaclase lateral de x. Tenemos que si f ∈ F entonces fF = F ya que F es un subgrupo.De

( y ∈ xF) ⇒ ( y = xf) ⇒ ¡x = yf−1

¢⇒ ¡xF = yf−1F

¢⇒ (xF = yF)

( y ∈ xF ∩ zF) ⇒ (xF = yF = zF)

obtenemos que las clases laterales forman una particion de G. La funcion F 3

f 7→ xf ∈ xF es la inversa de xF 3 xf 7→ f ∈ F y por lo tanto cualquier claselateral tiene la misma cantidad de elementos que F. Luego |F| es un divisor de |G|

y el cociente |G| ÷ |F| es el numero de clases laterales. Este hecho se conoce comoTeorema de Lagrange. En particular, el orden de cada x ∈ G es un divisor de

Page 203: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 203/232

193Soluciones de ejercicios selectos

q = |G|.

2. Sea x de orden n y denotemos ϕ(n) el numero de elementos de orden n en hxi.Como x tiene orden n entonces, ϕ(n) ≥ 1. La funcion ϕ(n) no depende de x puescualesquiera dos x, y de orden n son tales que los grupos hxi y h yi son isomorfos.Luego, ϕ(n) solo depende del natural n.

Como cualquier z ∈ hxi tiene cierto orden que por el Teorema de Lagrange esun divisor de n y el numero de elementos en hxi es n entonces, Pd|n ϕ (d) = n

donde la suma recorre todos los divisores de n. A ϕ se la conoce como Funcionde Euler.

3. Denotemos por ρ (n) al numero de elementos de orden n en nuestro grupo G.Como cualquier z ∈ G tiene cierto orden que por el Teorema de Lagrange es undivisor de |G| = q entonces,

Pd|q ρ (d) = q donde la suma recorre los divisores

de q.

4. Si en G no hay un elemento de orden n entonces ρ (n) = 0. Si por el contrariox ∈ G tiene orden n entonces,∀ y = xk ∈ hxi tenemos que yn = ¡xk ¢n= (xn)

k =

1. Luego, todos los n elementos de hxi son raices del polinomio z n − 1. Comoel polinomio z n − 1 no puede tener mas de n raices en el campo K (vease 5.5)entonces, todos los elementos de G de orden n estan en hxi y por lo tanto ρ (n) =ϕ (n). De aqu ı, para cualquier n se tiene que ϕ (n) − ρ (n) ≥ 0.

5. De (2) y (3) tenemos que

0 =Xd|q

ϕ (d) −Xd|q

ρ (d) =Xd|q

(ϕ (d) − ρ (d))

y como por (4) ϕ (d) − ρ (d) ≥ 0 entonces, para cualquier d divisor de q = |G|

tenemos ϕ (d) = ρ (d). En particular, ρ (q) = ϕ (q) ≥ 1. Esto significa que en G

hay un elemento de orden q = |G|.

Ejercicio 90 (Seccion 5.1 pagina 135) Idea: todo lo demostrado para polinomiosse traduce tal cual para los enteros. La unica diferencia es que en lugar de usar elconcepto de grado de un polinomio hay que usar el concepto de valor absoluto de unentero.

Ejercicio 91 (Seccion 5.1 pagina 135) Si r es el maximo comun divisor de p yq entonces los polinomios p0 = p/r y q0 = q/r no tienen factores comunes. Por elTeorema de Bezout existen polinomios α y β tales que α p0 + βq0 = 1. La pruebaconcluye multiplicando esta igualdad por r.

Ejercicio 95 (Seccion 5.1 pagina 138) Si i < k entonces la suma es vac ıa y poro tanto es cero. Si i = k entonces, hay un solo sumando en el cual i = j = k y este

sumando es uno. Supongamos i > k . Haciendo los cambios de variables t = j − k y

Page 204: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 204/232

194 Soluciones de ejercicios selectos

n = i − k obtenemosiX

j=k

(−1)j−k

µj

k

¶µi

j

¶ =

nXt=0

(−1)t (n + k ) !

k !t! (t − n) ! =

µn + k

k

¶ nXt=0

(−1)t

µn

t

¶y esta ultima expresion es cero ya que

Pn

t=0 (−1)t

¡n

t¢ es el binomio de Newton de

x−

1)

n

evaluado en x = 1.Ejercicio 96 (Seccion 5.1 pagina 138) De la prueba del Desarrollo de Taylor (5.12)sabemos que si k ∈ 0 , . . . , n entonces, ak =

Pn

j=k bkj α j donde bkj =¡

j

k

¢(−x0)

j−k . Porel ejercicio anterior tenemosPn

j=k bkj βj =Pn

i=k

Pij=k (−1)

j−k ¡

j

k

¢¡i

j

¢aixi−k

0 ==Pn

i=k δik aixi−k 0 = ak

Luego, Pn

j=k bkj βj = aj y como el sistema de ecuaciones lineales ak =Pn

j=k bkj α j tienesolucion unica obtenemos que α j = βj.

Ejercicio 97 (Seccion 5.1 pagina 138) Formalmente (¡y en cualquier campo!) laderivada de p (x) =

Pni=0 aixi es p(1) (x) =

Pni=1 iaixi−1 y por lo tanto p(j) (x) =Pn

i=ji!

(i−j)!aixi−j = j!

Pni=j

¡i

j

¢aix

i−j0 . Del ejercicio anterior obtenemos la prueba.

Ejercicio 98 (Seccion 5.2 pagina 140) Las raices del polinomio z n − 1 son xk =

cos k 2π n

+ i sin k 2π n

para k ∈ 0 , . . . , n − 1. Tenemos

xk xm = cos

µ(k + m )

n ¶+ i sin

µ(k + m )

n ¶ = cos `

n + i sin `

n = x`

donde ` = (k + m ) mod n. Para el producto, estas raices forman un grupo isomorfo aZn.

Ejercicio 99 (Seccion 5.2 pagina 140) Sean a, b y c tres lados de un triangulo.Por simetr ıa solo tenemos que probar que |a − b| ≤ c. Podemos suponer que a ≥ b.Por la desigualdad del triangulo b + c ≥ a y de aqu ı c ≥ a − b.

Ejercicio 100 (Seccion 5.2 pagina 143) Para usar

°°¡1 − tk

¢ p (z 0)

°° =

¡1 − tk

¢k p (z 0)k

Ejercicio 101 (Seccion 5.3 pagina 144) Para la propiedad 2 vemos que

(a + bi) + (c + di) = (a + c) + (b + d) i =

= (a + c) − (b + d) i = (a − bi) + (c − di) = (a + bi) + (c + di)Finalmente, para probar la propiedad 3 vemos que

(a + bi) (c + di) = (ac − bd) + (ad + bc) i =

= (ac − bd) − (ad + bc) i = (a − bi) (c − di) = (a + bi) (c + di)

Ejercicio 102 (Seccion 5.4 pagina 146) Tenemos ab = ba por lo que (a, b) ∼ (a, b)o que significa que la relacion es reflexiva. De ad = bc obtenemos cb = da. Esto

significa que si (a, b) ∼ (c, d) entonces (c, d) ∼ (a, b) por lo que la relacion es simetrica.Si ad = bc y cf = de entonces adcf = bcde por lo que af = be. Esto significa que

Page 205: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 205/232

195Soluciones de ejercicios selectos

si (a, b) ∼ (c, d) y (c, d) ∼ (e, f) entonces (a, b) ∼ (e, f) por lo que la relacion estransitiva.

Ejercicio 103 (Seccion 5.4 pagina 148) El campo de funciones racionales Z2 (x)

contiene a Z2 y por lo tanto es de caracter ıstica 2. Este campo tiene evidentemente unnumero infinito de elementos.

Ejercicio 104 (Seccion 5.4 pagina 148) El campo de fracciones de un campo es elmismo.

Ejercicio 105 (Seccion 6.1 pagina 150) Sean (a , b), (a 0, b0) ∈ E ⊕ F. Tenemos(f ⊕ g) ((a , b) + (a 0, b0)) = (f ⊕ g) (a + a 0, b + b0) = (f (a + a 0) , g (b + b0)) =

= (f (a ) + f (a 0) , g (b) + g (b0)) = (f (a ) +, g (b)) + (f (a 0) , g (b0)) =

= (f ⊕ g) (a , b) + (f ⊕ g) (a 0, b0)

con lo que tenemos la primera propiedad de linearidad. Para la segunda vemos que(f ⊕ g) (λ (a , b)) = (f ⊕ g) (λa , λb) = λ (f (a ) , g (b)) = λ ((f ⊕ g) (a , b)).

Ejercicio 106 (Seccion 6.1 pagina 150)(f0 g0) (a , b) = f0 (g0 (a , b)) = f0 (a , g (b)) = (f (a ) , g (b)) = (f ⊕ g) (a , b).

Ejercicio 107 (Seccion 6.1 pagina 151) Si E es un subespacio y f (E) ⊆ E entoncesα f (E) ⊆ α E = E. Rec ıprocamente, si α f (E) ⊆ E entonces f (E) ⊆ α −1E = E. Luego,f y α f tienen los misimos subespacios invariantes.

Ejercicio 108 (Seccion 6.1 pagina 151) Reflexividad: f = Id f Id−1. Simetr ıa:

Si f = ρ g ρ−1 entonces g = ρ−1 f ¡ρ−1¢−1

. Transitividad: Si f = ρ g ρ−1 y

g = ω h ω−1 entonces f = ρ ω h ω−1 ρ−1 = (ρ ω) h (ρ ω)−1

.

Ejercicio 109 (Seccion 6.1 pagina 151) Sea L la matriz de f en la base A y M lamatriz de cambio de base de A a B. En la base B la matriz del operador f es MLM−1

(vease la pagina 82). Si ρ es el operador de la cuya matriz en la base B es M entonces,f = ρ

g

ρ−1.

Ejercicio 110 (Seccion 6.1 pagina 152) Si g es reducible entonces tiene un par desubespacios g-invariantes no triviales complementarios F y G. Si ρ es un OL biyectivoentonces ρ (F) y ρ (G) son no triviales y complementarios. Ademas, si f = ρ g ρ−1

entoncesf (ρ (F)) =

¡ρ g ρ−1

¢(ρ (F)) = (ρ g)(F) ⊆ ρ (F)

O sea, ρ (F) es f-invariante. Lo mismo ocurre con ρ (G) y concluimos que f es reducible.

Ejercicio 111 (Seccion 6.1 pagina 152) Falso, un 0-deslizamiento en R2 es irredu-cible pero no es biyectivo.

Ejercicio 113 (Seccion 6.2 pagina 157) Sea p el per ıodo de a . Si p es de gradocero entonces, p = 1 y por lo tanto 0 = ph (a ) = h 0 (a ) = a .

Page 206: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 206/232

196 Soluciones de ejercicios selectos

Ejercicio 114 (Seccion 6.2 pagina 157) Si p = x entonces ph (a ) = h (a ) por loque ph (a ) = 0 si y solo si a ∈ ker h .

Ejercicio 118 (Seccion 6.5 pagina 167) Sea f un operador lineal en End (E/F) yG un subespacio complementario a F. Definimos h como la funcion nula en F, como

h (a ) = G ∩ f (a + F) en G y en todo el espacio por extension lineal. Para ver queh es lineal solo hay que comprobar que es lineal en G. Esto es trivial porque en G la

funcion h cumple h = nat−1 f nat donde a nat7−→ a + F es el isomorfismo canonico

entre el cociente y un complementario. Para ver que f = eh basta comprobarlo para losvectores a que estan en G. Pero f (a + F) = h (a ) + F ya que f = nat h nat−1.Para calcular el nucleo comprobamos que para cualquier vector a se cumple que

³eh (a ) = O (a )

´⇔(h (a ) + F = F)

⇔(h (a ) ∈ F).

Ejercicio 119 (Seccion 6.5 pagina 168) Supongamos que hbih ∩ F = 0. Sea p =perh

(b + F). Tenemos que ph (b + F) = ph (b)+ F = F y por lo tanto ph (b) ∈ F. Por

hipotesis, ph (b) = 0. Luego, p ` perh (b).Supongamos perh (b) a perh

(b + F) y sea qh (b) ∈ F. Tenemos, qh (b + F) = qh (b)+

F = F y por lo tanto q ` perh (b + F) ` perh (b). Luego, qh (b) = 0.

Ejercicio 120 (Seccion 6.5 pagina 170) Es facil ver que hA ∪ Bih ⊇ hAih + hBih =F + G = E y por lo tanto A ∪ B es h -generador. Comprobemos que A ∪ B es h -

ndependiente. Observese que A

∩B =

∅ ya que 0

no esta en ningun conjunto h

-ndependiente y A ∩ B ⊆ F ∩ G = 0. Luego una h -combinacion de A ∪ B es de laforma

ph (a 1) + · · · + qh (a n) + rh (b1) + · · · + sh (bn)

donde A = a 1, . . . , a n y B = b1, . . . , bm . Si esta h -combinacion es igual cero en-tonces

F = hAih 3 ph (a 1) + · · · + qh (a n) = −rh (b1) − · · · − sh (bn) ∈ hBih = G

y por lo tanto,

ph (a 1) + · · · + qh (a n) = rh (b1) + · · · + sh (bn) = 0

y como A y B son h -independientes deducimos que ph (a 1) = · · · = qh (a n) = rh (b1) = · · · = sh (bn) = 0.

Ejercicio 122 (Seccion 6.5 pagina 173) Demostremos primero que ha ih ∩ hbih =0. Tenemos para cualquier polinomio r que

( ph rh (a ) = rh ( ph (a )) = 0) ⇒ (rh (a ) ∈ ker ph )

y por lo tanto ha ih ⊆ ker ph . Analogamente hbih ⊆ ker qh . Por el Lema de Descomposi-cion de Nucleos (6.15) sabemos que ker ph

∩ker qh = 0 y por lo tanto ha ih

∩hbih = 0.

De rh (a + b) = rh (a )+rh (b) concluimos que ha + bih ⊆ ha ih +hbih . Demostraremosque ambos subespacios tienen la misma dimension (finita) y por lo tanto son iguales.Como ha ih ∩ hbih = 0 el conjunto a , b es una h -base de ha ih + hbih y por 6.26dim (ha ih + hbih ) es la suma de los grados de p y q. De la misma manera que en la

Page 207: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 207/232

197Soluciones de ejercicios selectos

prueba de 6.19 podemos demostrar que perh (a + b) = pq. Por 6.26 dim ha + bih esgual al grado de pq o sea, igual a la suma de los grados de p y q.

Ejercicio 123 (Seccion 6.5 pagina 173)Sean p, q, . . . , r los factores irreducibles del polinomio m ıni-

p`1 p`2 · · · p`t

qm 1 qm 2 · · · qm t

... ... · · ·

...rn1 rn2 · · · rnt

mo del OL h . Organizaremos los polinomios en el tipo de

una descomposicion de h en componentes radicales c ıclicasen una tabla donde `i ≥ `i+1, m i ≥ m i+1 y ni ≥ ni+1. Pa-ra hacer nuestra tabla cuadrada puede ser que necesitemoshacer algunos de los exponentes iguales a cero. O sea, haciaa derecha de la tabla pueden haber polinomios iguales a 1.

Cada entrada diferente de 1 de esta tabla se corresponde con una componente radicalcıclica de h . Los renglones de la tabla corresponden a las componentes radicales de h .Para cada columna i

∈ 1 , . . . , t denotemos por gi a la suma directa de las componentes

rreducibles de h correspondientes a las entradas de la columna. Por el 6.11 el polinomiomınimo de gi es igual a p`i qm i · · · rni y por lo tanto el polinomio m ınimo de cada gi esun multiplo del polinomio m ınimo de gi+1. Por el ejercicio anterior los gi son c ıclicos.Denotando fi = gt−i obtenemos la descomposicion deseada.

Ejercicio 124 (Seccion 6.5 pagina 173) El tipo de tales descomposiciones esta for-mado por los productos de los polinomios en las columnas de la tabla del ejercicioanterior. De la unicidad del tipo de las descomposiciones en componentes irreducibles

se desprende la unicidad de la tabla salvo reordenamiento de los renglones.

Ejercicio 125 (Seccion 6.6 pagina 175) Para probar esto, demostraremos quea traza es uno de los coeficientes del polinomio caracter ıstico. Como el polinomio

caracter ıstico es invariante bajo cambios de base, entonces lo mismo es valido para suscoeficientes.Sea A = α NN una matriz. Su polinomio caracter ıstico es

det (xI− A) = Xσ∈SN sgn σYi

(x − α ii)Yk

(−α k σk)

donde el primer producto recorre todos los ındices i ∈ N tales que σi = i y el segundoos ındices k ∈ N tales que σk 6= k .

Como cualquier permutacion σ que no sea la identidad tiene al menos dos k tales queσk 6= k , entonces todos los sumandos correspondientes a permutaciones que no sean ladentidad son polinomios de grado menor o igual que |N|−2. Luego, los coeficientes en

xn y xn−1 del polinomio caracter ıstico coinciden con los correspondientes coeficientesdel polinomio

Yi∈N

(x − α ii) = xn−ÃX

i∈N

α ii!xn−1 + · · ·

y as ı vemos, que el coeficiente en xn−1 es igual a la traza multiplicada por −1.

Page 208: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 208/232

198 Soluciones de ejercicios selectos

Ejercicio 126 (Seccion 6.6 pagina 178) Si el polinomio m ınimo es un producto dediferentes polinomios de grado 1 entonces las componentes radicales son homoteciasya que para cualquier vector a en el subespacio radical de tipo x − λ se cumple queh (a )−λa = 0. Las homotecias tienen matrices diagonales en cualquier base y la sumadirecta de operadores diagonalizables es diagonalizable.

Si en cierta base N el OL h tiene matriz diagonal α NN entonces, podemos denotarNλ = i ∈ N | α ii = λ. Tambien denotemos h λ a la restriccion de h al subespaciogenerado por Nλ. Los operadores h λ son homotecias porque en la base Nλ su matrizes λI y por lo tanto el polinomio m ınimo de h λ es x − λ. Tenemos que h es la sumadirecta de los h λ y que su polinomio m ınimo es el producto de los x − λ ya que todosestos son diferentes.

Ejercicio 127 (Seccion 6.6 pagina 178) Si λ1, . . . , λn son n diferentes valorespropios de un operador lineal en dimension n entonces su polinomio caracter ıstico es

x−

λ1) · · · (x−

λk ) y por el Teorema de Hamilton-Caley-Frobenius este coincide consu polinomio m ınimo. Por el ejercicio anterior el operador es diagonalizable.

Ejercicio 128 (Seccion 6.6 pagina 178) Supongamos que h es triangulable entoncesexiste una base B = v1, . . . , vn en la cual la matriz de h es triangular. DenotemosEk = h v1, . . . , vk i , evidentemente 0 ⊆ E1 ⊆ · · · ⊆ En = E y dim Ek = k . Ademash ( v1) ,....,h ( vk ) ⊆ Ek debido a la forma triangular de la matriz de h . Luego, los Ek

son invariantes.

Rec ıprocamente supongamos que una cadena de subespacios invariantes 0 ⊆ E1 ⊆· · ⊆ En = E cumple que dim Ek = k . Escojamos v1 ∈ E1 y para k ∈ 2,...,n

escojamos vk ∈ Ek \ Ek +1. El conjunto B = v1, . . . , vn es LI ya que ningun vk escombinacion lineal de los anteriores. Luego v1, . . . , vk es una base de Ek .Como Ek es invariante entonces por 6.2, en la base B la matriz de h tiene las entradascuyas columnas estan indexadas por 1 , . . . . k y cuyos renglones estan indexados pork + 1 , . . . . n; iguales a cero. En particular, ∀k en la columna k solo pueden ser distintos

de cero las entradas correspondientes a los renglones 1 , . . . . k .

Ejercicio 129 (Seccion 6.6 pagina 178) Si f y g son triangulables entonces encierta base la matriz de f es diagonal con dos bloques y cada uno de ellos triangular.Luego, f es triangulable.Rec ıprocamente, sea 0 ⊆ E1 ⊆ · · · ⊆ En = E la cadena de subespacios invariantes

que hace que h def = f ⊕ g sea triangulable (vease el ejercicio anterior).

Sea E = F ⊕ G la descomposicion en subespacios invariantes de tal manera que f esa restriccion de h al subespacio F. Sea π la proyeccion a F a lo largo de G, o sea, si

x = y + z con y ∈ F y z ∈ G entonces π ( x) = y.Para k ∈ 1 , . . . , n denotemos Fk = π (Ek ) . Los subespacios Fk cumplen que

0 ⊆ F1 ⊆ · · · ⊆ Fn = F.

Page 209: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 209/232

199Soluciones de ejercicios selectos

Probemos que los espacios Fk son invariantes. Para esto sea x = y + z con y ∈ F yz ∈ G. Por linearidad tenemos h ( x) = h (y) + h (z) . Como F y G son invariantesentonces h (y) ∈ F y h (z) ∈ G y por definicion de π tenemos que

π (h ( x)) = h (y) = h (π ( x))

esto quiere decir que π conmuta con h . Luego

h (Fk ) = h (π (Ek )) = π (h (Ek )) ⊆ π (Ek ) = Fk

y por lo tanto los Fk son invariantes.Por otro lado, como dim Ek = 1 + dim Ek −1 tenemos dos alternativas posibles

Fk = Fk −1 o dim Fk = 1 + dim Fk −1

y si en la cadena de subespacios invariantes

0 ⊆ F1 ⊆ · · · ⊆ Fn = Feliminamos las repeticiones obtendremos otra cadena de subespacios invariantes

0 ⊆ F01 ⊆ · · · ⊆ F0

m = Fen la cual se cumple que dim F0

k = k . Por el ejercicio anterior esto quiere decir que f estriangulable.

Ejercicio 130 (Seccion 6.6 pagina 178) Por Teorema de Descomposicion en Com-ponentes Radicales C ıclicas (6.36) y el ejercicio anterior solo hay que probarlo paraoperadores c ıclicos radicales. Sea h cıclico radical con polinomio m ınimo pn. La unicacadena de subespacios invariantes posible es por 6.43 la siguiente

0 ⊆ ker ph ⊆ · · · ⊆ ker pk h ⊆ · · · ker p

nh = E.

Por 6.42 y 6.23 tenemos que dim ker pk h es igual al grado de pk . Luego, esta cadena

cumple los requisitos del ejercicio 128 si y solo si el grado de p es 1.En los complejos, todo polinomio irreducible es de grado 1.

Ejercicio 131 (Seccion 6.7 pagina 184) Sean f y g del mismo tipo. Entonces,usando la Forma normal canonica (6.57) vemos que existen bases del espacio en lascuales f y g tienen la misma matriz. Esto quiere decir que en la misma base f y g

tienen matrices A y CAC

−1

donde C es la matriz adecuada de cambio de bases. Lamatriz C es la matriz de un OL invertible h por lo que f = h g h −1.Rec ıprocamente, supongamos que f = h gh −1. Si A, B y C son las matrices de f, g yh respectivamente en cierta base entonces A = CBC−1. Luego , en otra base (definidapor el cambio de base C), la matriz de g es A. Por lo tanto, existen bases en las cualesas matrices de g y f son las mismas. Como el tipo de un operador se puede calcular

por su matriz sin usar la base en la que esta definida entonces, los tipos de f y g sonel mismo.

Page 210: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 210/232

200

Page 211: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 211/232

Algebra. Espacio vecto-rial con un producto de vectores asocia-tivo, distributivo, con elemento neutro yque conmuta con el producto por escala-res . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70, 79, 99

Algebra conmutativa. Alge-bra en la cual el producto de vectores esconmutativo . . . . . . . . . . . . . . . . . . . . 71, 155

Anillo. Conjuntocon dos operaciones binarias denotadaspor + y • que es grupo abeliano para lasuma, que el producto es asociativo conelemento neutro y distributivo respectoa la suma . . . . . . . . . . . . . . . . . . . . . 7, 12, 70

Anillo conmutativo.

Anillo en el cual el producto es conmu-

tativo . . . . . . . . . . . . . 7, 15, 22, 130, 146Anulador de un conjunto de vectores.

La interseccion de los anuladores de to-dos los vectores en el conjunto. . . . . . 157

Anulador de un OL. El anulador detodo el espacio. . . . . . . . . . . . . . . . . . . . . . . 157

Anulador de un vector. El conjunto depolinomios p tales que ph (a ) = 0 . . 157

Argumento de un complejo.

El angulo que forma el vector −→0z con eleje real del plano complejo. . . . . . . . . . 139

Asociatividad. Propiedad de algunasoperaciones binarias que consiste en que

a (b c) = (a b) c

para cualesquiera elementos a, b y c delconjunto en el cual esta definida la ope-racion . . . . . . . . . . 3, 14, 20, 69, 78, 130

Asociatividad del producto por escalares.

Axioma de espacio vectorial:(βa ) = (αβ) a . . . . . . . . . . . . . . . . . . . . . . . . 28

Automorfismo. Endomorfismobiyectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

Automorfismo de Frobenius.

La funcion K 3 x 7→ x p ∈ K dondeK es un campo finito de caracterıstica

p > 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

Automorfismo semilineal.

Transformacion semilineal biyectiva deun espacio en si mismo. . . . . . . . . . . . . . . 88

Base. Conjunto devectores que es generador y LI. Conjun-to generador minimal. Conjunto LI ma-ximal . . . . . 40, 45, 49, 62, 72, 80, 117

Base canonica.

El conjunto de N-adas ei | i ∈ N dondela j-esima coordenada de ei es el delta

de Kronecker δij . . . . . . . . . . . . . 43, 77, 82Base de las columnas. Conjunto

de columnas diferentes que son una basedel espacio de columnas . . . . . . . . . . . . . 116

Base de los renglones. Conjuntode renglones diferentes que son una basedel espacio de renglones. . . . . . . . . . . . . 116

Base de una matriz.

Submatriz no singular maximal por con-

tencion. . . . . . . . . . . . . . . . . . . . . . . . . 118, 124Binomio de Newton.

Formula para expandir (x + y)n 21, 138

Cadena. Subconjunto de unconjunto ordenado que esta totalmenteordenado . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 61

Cambio de ındices. Biyeccionmediante la cual los ındices de una N-

ada (o columnas, o renglones) obtienennuevos nombres. Es la operacion en queuna biyeccion ω : N → L se le aplicaa las columnas de una matriz α MN pa-

Page 212: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 212/232

202 cam — com

ra obtener la matriz βML = α Mω(N) quecumple que βij = α iω−1 (j). Analogamen-te se definen los cambios de ındices delos renglones . . . . . . . . . . . . . . . . . . . . . . . . . 104

Campo. Anillo conmutativo enel cual todo elemento diferente de cero

tiene inverso . . . . . . . . . . . . . . . . . . 8, 16, 17Campo algebraicamente cerrado.

Campo en el cual todo polinomio de gra-do al menos uno tiene una ra ız. Campoel cual los polinomios irreducibles son to-dos de grado uno . . . . 10, 47, 138, 145

Campo de fracciones.

Entre las fracciones de un dominio de in-

tegridad se defi

ne la suma y el productoexactamente de la misma manera que sedefinen estas operaciones en Q. Para es-tas operaciones el conjunto de fraccioneses un campo . . . . . . . . . . . . . . . . . . . . . . . . . 147

Campo ordenado.

Campo con una relacion de orden en elcual todo elemento es comparable con elcero. Los elementos mayores que cero se

les llama positivos y los menores que ceronegativos. Los axiomas que debe cumplirla relacion de orden son:1. El opuesto de un positivo es negativo,2. El opuesto de un negativo es positivo,3. La suma de positivos es positiva,4. El producto de positivos es positivo.Los campos R y Q estan ordenados.Cualquier campo ordenado tiene que serde caracter ıstica cero. Ademas, C no sepuede ordenar . . . . . . . . . . . . . . . . *, 9, 106

Campo primo. Campo cuyo unicosubcampo es el mismo . . . . . . . . . . . . . . . 17

Caracter ıstica de un campo.

Es cero si el campo contiene como sub-campo a Q. Es igual al numero primo p

si el campo contiene como subcampo a

Z p . . . . . . . . . . . . . . . . . . . . 19, 97, 105, 148Cerradura lineal. El conjun-

to de todas las combinaciones lineales deun conjunto de vectores . . . . . 37, 45, 49

Ciclo. Permutacion σ delgrupo simetrico de N que cambia un con- junto x0, . . . , xn−1 ⊆ N segun la reglaσ (xi) = xi+1 modn y deja todos los demaselementos de N fi jos . . . . . . 94, 107, 115

Ciclos disjuntos. Ciclos tales

que los conjuntos de elementos que ellosno dejan fi jos no se intersectan . . . . . . 94

Clases de equivalencia. Si ≈ es una re-lacion de equivalencia en A entonces, lasclases de equivalencia son los subconjun-tos de A para los cuales a ≈ b si y solo sia y b estan en la misma clase *, 55, 62

Coalineacion. Funcion biyectiva de un

espacio vectorial en si mismo que tal quef y f−1 preservan subespacios afines. 89

Cociente.

Al efectuar la division con resto de unelemento p de un anillo conmutativo (Z,K [x ]) entre otro q obtenemos la igualdad

p = cq + r. Al elemento c se le llama co-ciente de la division de p entre q . . . 131

Codominio de una funcion.

Sea f : A → B una funcion. Al conjun-to B se le llama codominio de la funcionf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11, 83

Coeficiente principal. El coefi-ciente diferente de cero de un polinomioque multiplica a la potencia mas grandede la variable . . . . . . . . . . . . . . . . . . . . . . . . 129

Coeficientes de un polinomio.

(vease polinomio) . . . . . . . . . . . . . . . . . . . 129

Cofactor. De la entrada α ij es el escalarsgn ω det α N\i ω(N\j)

donde ω es cualquier permutacion de N

tal que ω (j) = i . . . . . . . . . . . . . . . . . . . . . 106

Columna de una matriz.

Dada una matriz α NM y j ∈ M a la N-ada α Nj (j esta fi jo, los elementos de N

var ıan) se le llama j-esima columna de la

matriz α NM . . . . . . . . . . . . . . . . . . . . . . 33, 76Combinacion lineal. Los vec-

tores de la forma P

i∈N α ii (donde soloun numero finito de los ai es diferente de

Page 213: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 213/232

203com — dia

cero) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35, 49

Complemento algebraico.

Cofactor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

Componente radical.

Restriccion del OL a un subespacio radi-cal maximal . . . . . . . . . . . . . . . . . . . . . . . . . 161

Composicion de funciones.Operacion entre dos funciones que con-siste en aplicar primero una funcion ydespues la otra . . . . . 14, 44, 69, 78, 93

Conjunto acotado inferiormente.

Conjunto que tiene una cota infe-rior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 143

Conjunto acotado superiormente.

Conjunto que tiene una cota superior . *Conjunto generador. Conjunto devectores cuya cerradura lineal es todo elespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38, 45

Conjunto h -independiente. Conjuntode vectores no nulos tales que los suman-dos de cualquier h -combinacion nula sonnulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

Conjunto inductivamente ordenado.

Conjunto ordenado no vac ıo dentro delcual cada cadena tiene cota superior 61

Conjunto LD. Acronimo de conjuntolinealmente dependiente . . . . . . . . . . . . . 39

Conjunto LI. Acronimo de conjuntolinealmente independiente . . . . . . . . . . . 39

Conjunto linealmente dependiente.

Conjunto de vectores que no es LI . . 39

Conjunto linealmente independiente.

Conjunto de vectores A tal que ∀a ∈ A

se cumple que hA\ai 6= hAi . . . . 39, 116

Conjunto ordenado. Conjuntoen el cual esta definida una relacion deorden. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 61

Conjunto totalmente ordenado.

Conjunto ordenado en el cual dos ele-

mentos cualesquiera son comparables . *Conmutatividad. Propiedad de algunas

operaciones binarias que consiste en quea b = b a

∀ elementos a y b del conjunto en el cualesta definida la operacion . . . . . . . . . . . . . . 3

Contraccion. Homotecia cuyo escalar esun real mayor que 0 y menor que 1 . 66

Coordenada.

De la n-ada (a1, a2,...,an) es alguno de

los ai. De la N-ada aN es alguno de losai para i ∈ N . . . . . . . . . . . . . . . . . . . . . . . . . 29

Coordinatizacion.

Dada una base N de F, es el isomorfismoF 3

Pi∈N α ii 7→ α N ∈ K N . . . . . . 46, 80

Cota inferior. Unacota inferior de un subconjunto A de unconjunto ordenado B es un elemento b

de B tal que cualquier elemento de A esmayor o igual que B . . . . . . . . . . . . . . *, 143

Cota superior. Una cota superiorde un subconjunto A de un conjunto or-denado B es un elemento b de B tal quecualquier elemento de A es menor o igualque B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 61

Defina la multiplicidad de una ra ız.

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

Delta de Kronecker.Funcion δij de dos variables que tomavalor 1 si i = j y toma valor 0 si i 6=j . . . . . . . . . . . . . . . . . . . . . . . . . . . . .138, 79, 99

Desarrollo de Taylor.

Expresion de una funcion como seriede potencias f (x) =

Pai (x − x0)i. El

coeficiente de la serie ai es la i-esi-ma derivada de f evaluada en el puntox0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137, 142

Determinante. El determinante deα NN esP

σ∈ SN sgn σQ

i∈N α iσi . . . .98, 21, 124

Determinante de un OL.

Determinante de su matriz en una base.No depende de la base escogida . . . . 111

Diagrama. Reperesentacion grafica

de una familia de conjuntos y de funcio-nes entre ellos mediante la utilizacion deflechas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

Diagrama conmutativo.

Page 214: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 214/232

204 dia — ext

Diagrama en el cual cualesquiera dos ca-minos dirigidos (que siguen el orden delas flechas) de un conjunto a otro repre-sentan dos descomposiciones de la mismafuncion como composicion de las funcio-nes de las flechas de los caminos . . . . 82

Dilatacion. Homotecia cuyo escalar esun real mayor que 1 . . . . . . . . . . . . . . . . . . 66

Dimension.

El cardinal de cualquier ba-se . . . . . . . . . . . . . . . . . . . . . . . . 42, 50, 55, 84

Dimension de un OL. Dimensiondel espacio donde esta definido el opera-dor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150

Dimension de un subespacio af´ın. SiE es una traslacion del subespacio E en-

tonces la dimension de E es la dimensionde E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

Distributividad.

Relacion de una operacion binaria ¦ conrespecto a otra que consiste en que lasigualdades

a ¦ (b c) = (a ¦ b) ¦ (a ¦ c)

(b c) ¦ a = (b ¦ a) (c ¦ a)se cumplen para cualesquiera elementosa, b y c del conjunto en el cual esta de-finida la operacion. . . . . . . . 5, 20, 69, 78

Distributividad del producto por escalares.

Axioma de espacio vectorial:α (a + b) = α a + α b y (α + β) a =α a +βa 28

Divisor. Para dos polinomios p y q

se dice que q es un divisor de p si ∃c talque q = cp . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

Dominio de integridad. Anilloconmutativo en el cual el producto deelementos diferentes de cero es diferentede cero . . . . . . . . . . . . . . . . . . . . . .15, 19, 147

Dominio de una funcion. Seaf : A

→B una funcion. Al conjunto A se

le llama dominio de la funcion f . 11, 83Ecuacion lineal.

Ecuacion α N xN = βN donde las N-adasα N y βN son conocidos y el vector xN es

incognito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

Ecuacion matricial. Ecuacion AX = B

donde la matrices A y B son conocidas yla matriz X es incognita. . . . . . . . . . . . . 127

Elemento maximal. Elementotal que cualquier otro no es mayor que

el . . . . . . . . . . . . . . . . . . . . . . . . *, 40, 61, 118Elemento minimal. Elemento tal que

cualquier otro no es menor que el *, 40

Elementos comparables. Dos elementosa y b de un conjunto ordenado para loscuales o a ¹ b o b ¹ a o los dos . *, 40

Endomorfismo. Morfismo cuyo dominioy codominio coinciden . . . . . . . . . . . . . . . 13

Entension lineal de una funcion.Extension que es transformacion lineal.Si la funcion tiene como dominio una ba-se, entonces la extension lineal existe y esunica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

Entrada de una matriz.

Coordenada de una NM-ada . . . . . . . . 33

Epimorfismo. Morfismo sobreyectivo 13

Escalar. Elemento del campo

(¡la escala!) sobre el cual esta definido elespacio vectorial . . . . . . . . . . . . . . . . . . 28, 28

Espacio cociente. Si E

es un subespacio de F entonces, el espa-cio cociente F/E es el conjunto de todoslos subespacios afines paralelos a E do-tado con la suma de subespacios afinesy el producto de subespacios afines porescalares . . . . . . . . . . . . . . . . . . . . . . . . . . 56, 85

Espacio de columnas.

El espacio generado por las columnas deuna matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

Espacio de renglones.

El espacio generado por los renglones deuna matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

Espacio vectorial. Grupoabeliano con un producto por escala-

res distributivo, asociativo y con neu-tro. . . . . . . . . . . . . . . . . . . 28, 46, 54, 56, 69

Extension de una funcion.

Si f es una restriccion de g entonces g es

Page 215: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 215/232

205fac — gru

una extension de f . . . . . . . . . . . . . . . . . . . 72

Factor de un polinomio. Divisormonico de grado al menos 1 . . . . . . . . 133

Factor propio.

Factor monico diferente al polino-mio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

Forma polar de un complejo.Es la expresion r (cos ϕ + i sin ϕ) donder es el modulo de z y ϕ es el argumentode z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

Formula multinomial. Formulapara expandir la n-sima potencia de unasuma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

Fraccion. Pareja de elementos

de un dominio de integridad (por ejem-plo K (x) o Z) que se denota por a/b.Dos fracciones a/b y c/d se consideraniguales si ad = bc . . . . . . . . . . . . . . . . 146, 8

Funcion. Informalmentees una regla o procedimiento me-diante el cual para cada elementode un conjunto a podemos obtener(calcular) otro unico elemento f (a) de

otro conjunto y que llamamos la imagende a mediante la funcion f. Formalmen-te, una funcion f : A → B es un subcon- junto del producto cartesiano f ⊆ A × B

que cumple que para cualquier a ∈ A

existe una unica pareja (a, b) ∈ f. . . . . . *

Funcion antipodal. La funcionx 7

→−x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

Funcion biyectiva. Funcion inyectiva. ysobreyectiva . . . . . . . . . . . . . . . . . . . . . . . *, 93

Funcion continua. Funcion continua entodos los puntos de su dominio . . . . . 140

Funcion continua en un punto. Lafuncion f es continua en z 0 si ∀ε > 0 ∃δ

tal que kz − z 0k < δ ⇒ kf (z ) − f (z 0)k <

ε. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

Funcion de evaluacion.

De un polinomio p (x) es la funcion: p : K 3 b 7→ p (b) ∈ K. . . . . . 131

Funcion identidad. La que a todoelemento le corresponde el mismo . . . 66

Funcion inversa. La inversade una funcion f : A → B es una funciong tal que f g = IB y g f = IA . Unafuncion tiene inversa si y solo si esta esbiyectiva . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 44

Funcion inyectiva. Cada

elemento de la imagen tiene una unicapreimagen . . . . . . . . . . . . . . . . . . . . . . . . . *, 83

Funcion nula. La que a todo elemento lecorresponde el cero . . . . . . . . . . . . . . . . . . . 66

Funcion racional.

Fraccion de dos polinomios . . . . . . . . . 148

Funcion sobreyectiva.

Funcion tal que su imagen coincide con

su codominio . . . . . . . . . . . . . . . . . . . . . . *, 84Funcional. Funcion de un espaciovectorial en su campo . . . . . . . . . . . . . . . 109

Funcional bilineal.

Funcional lineal en sus dos variables 109

Funcional lineal.

Funcional que es una TL. . . . . . . . . . . . 109

Funcional lineal en una variable.

Funcion de muchas variables con image-

nes en un campo que para cualesquieravalores fi jos de las demas variables de-termina un funcional lineal de la variableque se trata . . . . . . . . . . . . . . . . . . . . . . . . . . 109

Funcional multilineal.

Funcional lineal en todas sus varia-bles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

Grado de un polinomio. La poten-cia mayor de la variable con coeficientediferente de cero. Si el grado es cero elpolinomio es un elemento del campo. Noesta definido el grado del polinomio ce-ro. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

Grupo. Conjunto con una operacion bina-ria asociativa que tiene elemento neutroy en el cual todo elemento tiene inver-so. . . . . . . . . . 7, 11, 14, 57, 71, 93, 134

Grupo abeliano. Grupo en el cual laoperacion es conmutativa . . . . . . . . . . . . . . 7

Grupo alternante.

El subgrupo (del grupo simetrico) de to-

Page 216: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 216/232

206 gru — mat

das las permutaciones pares . . . . . . . . . 97

Grupo general lineal. El grupode automorfismos de un espacio vecto-rial. El grupo de operadores lineales nosingulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

Grupo simetrico.

El grupo de todas las permutaciones conla operacion de composicion . . . . . . . . . 93

h -base. Conjunto h -independiente y h -generador. Todo OLh tiene h -bases . . . . . . . . . . . . . . . . . . . . . . 165

h -cerradura. Conjunto de todas lash -combinaciones. . . . . . . . . . . . . . . . . . . . . 163

h -combinacion. Vector de

la forma ph ( v1) + qh ( v2) + · · · + rh ( vn)donde p, q, ..., r son polinomios . . . . . 162

h -generador. Conjunto de vectores queh -genera a todo el espacio . . . . . . . . . . 163

Homotecia. Transformacion linealque consiste en la multiplicacion por unescalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

Ideal. Subconjunto I de un anillo A talque

1. ∀ p, q ∈ I p + q ∈ I,2. ∀ p ∈ I ∀r ∈ A rp ∈ I . . . . . . . . . . 134

Ideal principal. Ideal formado por todoslos multiplos de un polinomio . . . . . . 134

Idempotencia. Propiedad de una funcionque consiste en que f f = f2 = f . . . . 37

Igualdad de Moivre. Formulapara calcular la n-esima potencia de unnumero complejo en forma polar . . . 139

Imagen de un elemento. (vease:Funcion) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *

Imagen de una funcion. Elconjunto de los elementos del codominioque tienen alguna preimagen. Se denotapor Im f . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 82

Imagen de una matriz.

La imagen de su transformacion lineal.

Su espacio de columnas . . . . . . . . . . . . . 123Infimo.

El maximo de las cotas superio-res . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 143

Infimo de un conjunto de reales.

El numero maximo x tal que x ≤ a paracualquier a ∈ A. Para el ınfimo x de A

siempre existe una sucesion ak de ele-mentos de A cuyo l ımite es x . . . . . . . 143

Inmersion. Restriccion de la funcion

identidad a un subconjunto . . . . . . 67, 83Inverso.

De un elemento a para la operacion bi-naria es un elemento b que cumple queab = b a = e para cualquier elementoa del conjunto en el cual esta definida laoperacion. Si un elemento tiene inversoentonces este es unico. En los anillos y

campos es el inverso para el producto . 5Isomorfismo. Morfismo biyecti-vo. La inversa de cualquier isomorfismoes tambien un isomorfismo. . . . . . . 12, 51

Isomorfismo canonico. Isomorfismocuya construccion no depende de esco-ger algo (una base, un complementario,etc.) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51, 57

Isomorfismo de espacios vectoriales.

Transformacion lineal biyectiva . . 44, 73Isomorfismo lineal.

Isomorfismo de espacios vectoriales . 44

Lımite de una sucesion.

La sucesion z k tiene l ımite z si ∀ε > 0

∃N tal que ∀k > N kz k − z k < ε . . . . 142

Matriz. Es una NM-ada o sea unconjunto indexado por dos conjuntos 33

Matriz acompanante de un polinomio.

Matriz cuadrada cuya ultima columnaes el vector de coeficientes del polinomiomultiplicado por -1, la paralela inferiora la diagonal contiene unos y todas lasdemas entradas son cero. . . . . . . . . . . . 176

Matriz ampliada.

Del sistema A x = b es la matriz(A|b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

Matriz cuadrada.Matriz con la misma cantidad de colum-nas y renglones . . . . . . . . . . . . . . . . . 105, 79

Matriz de cambio de base.

Page 217: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 217/232

207mat — mor

Escogidas dos bases V y N de un espaciovectorial la matriz α NV cuyas columnasson los coeficientes de las expresiones dela base V como combinacion lineal de labase N. O sea, para cualquier v ∈ V secumple que v = Pi

∈N α iv i. Si βV son

las coordenadas de un vector en la baseV entonces α NV βV son las coordenadasdel mismo vector en la base N. . . . . . . 80

Matriz de permutacion. Lamatriz que se obtiene al permutar las co-lumnas o los renglones de la matriz iden-tidad. Matriz que tiene exactamente un1 en cada renglon y columna y todas las

demas entradas son cero . . . . . . . . . . . . 102Matriz de una transformacion lineal.

Escogidas una base N en el dominioy otra M en el codominio de una TLf la matriz α MN cuyas columnas sonlos coeficientes de las expresiones delas imagenes de la base N como com-binacion lineal de la base M. O sea,

para cualquier j ∈ N se cumple quef (j) =

Pi∈M α iji . . . . . . . . . . . . 77, 74, 81

Matriz del sistema. La ma-triz A del sistema de ecuaciones linealesA x = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

Matriz diagonal. Matriz α MM en lacual si i 6= j entonces, α ij = 0 . . . . . . . 114

Matriz diagonal por bloques. Matrizα MM en la cual hay una particion delconjunto de ındices M1 ∪ · · · ∪ Mt = M

y que α ij = 0 si i y j pertenecen a blo-ques diferentes . . . . . . . . . . . . . . . . . . . . . . . 114

Matriz identidad.

La matriz INN cuyas entradas son el del-ta de Kronecker: unos en la diagonal yceros en el resto de las entradas. La ma-triz de la transformacion lineal identi-

dad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79, 99Matriz inversa. La matriz

cuadrada α MN es la inversa de βNM siβNM α MN = INN y α MN βNM = IMM .

Si ambos N y M son finitos entonces,basta comprobar una de las dos igualda-des. Una matriz cuadrada tiene inversasi y solo si su determinante es diferentede cero . . . . . . . . . . . . . . 79, 110, 116, 127

Matriz singular.

Matriz cuadrada con determinante iguala cero . . . . . . . . . . . . . . . . . . . . 105, 116, 121

Matriz triangular.

Matriz triangular por bloques en la cualcada bloque es de cardinalidad 1 . . . 114

Matriz triangular inferior.

Matriz α MM en la cual M = 1 , . . . , m

y tal que en su representacion grafica to-

das las entradas por encima de la diago-nal son cero . . . . . . . . . . . . . . . . . . . . . . . . . . 114

Matriz triangular por bloques. Matrizα MM en la cual hay una particion delconjunto de ındices M1 ∪ · · · ∪ Mt = M

y que α ij = 0 si i ∈ M p, j ∈ Mq y p < q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

Matriz triangular superior.

Matriz α MM en la cual M = 1 , . . . , m

y tal que en su representacion grafica to-das las entradas por debajo de la diago-nal son cero . . . . . . . . . . . . . . . . . . . . . . . . . . 114

Maximo. El maximo de un subconjuntoA de un conjunto ordenado B es una co-ta superior que pertenece a A. Si existeentonces, el maximo es unico . . . . . . . . . . *

Mınimo.

El m ınimo de un subconjunto A de unconjunto ordenado B es una cota inferiorque pertenece a A. Si existe entonces, elmınimo es unico . . . . . . . . . . . . . . . . . . *, 143

Modulo de un complejo. La longitud

del vector −→0z en el plano complejo . 139

Monomorfismo. Morfismo inyectivo. 13

Monoton ıa.

Propiedad de una funcion de un conjun-

to ordenado a otro que consiste en quex ≤ y ⇒ f (x) ≤ f ( y) . . . . . . . . . . . . . . . . . 37

Morfismo. Es una funcion f : A → B quecumple que f (x y) = f (x) • f ( y) donde

Page 218: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 218/232

208 mor — ord

es una operacion definida en A y • esuna operacion definida en B . . . . . 10, 44

Morfismo de algebras. TLque conmuta con el producto y preservael 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

Morfismo de anillos.

Funcion entre dos anillos que es morfis-mo para la suma y para el producto 12

Morfismo de campos.

Funcion entre dos campos que es morfis-mo para la suma y para el producto 12

Morfismo de espacios vectoriales.

Funcion f de un espacio vectorial a otrosobre el mismo campo que es un morfis-

mo de los grupos abelianos de vectoresy que cumple f (α a ) = α f (a ) para cual-quier vector a y cualquier escalar α . 44

Morfismo de grupos.

Morfismo cuyo dominio y codominios songrupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11, 93

Multiplicidad de una ra ız.

El elemento del campo α es una ra ız demultiplicidad n del polinomio p si n es el

mayor natural tal que p ` (x−

α )n . 133Multiplo. Para dos polinomios p y q se

dice que p es un multiplo de q si ∃c talque p = cq . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

n-ada. Elemento (a1, a2,...,an) delproducto cartesiano An . . . . . . . . . . . . . . 29

N-ada. Funcion en una notaciondiferente, α N : N 3 i

→α i ∈ A. A N se

le llama el conjunto de ındices y a las α ise le llaman coordenadas . . . . . . . . . 31, 76

Neutro. De una operacionbinaria es un elemento e que cumpleque a e = e a = a para cualquier a

del conjunto en el cual esta definida laoperacion. Si una operacion tiene neutroentonces este es unico . . . . . . . . . . . . . . . . . . 4

Nucleo de un morfismo. El

el caso de grupos la preimagen del neu-tro. Para anillos y espacios vectoriales lapreimagen del cero . . . . . . . . . . . . . . . . . . . 83

Nucleo de un polinomio.

La coleccion de sus raices. Cada raızaparece tantas veces como su multipli-cidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

Nucleo de una matriz. El nucleode su transformacion lineal. El conjun-to solucion de un sistema de ecuaciones

con vector de coeficientes libres igual acero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

Nucleo de una TL. La preimagen delcero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

Nucleo trivial. Nucleo igual a 0 . . 83

OL. Acronimo de operador lineal . . . 70

Operacion binaria.

Funcion mediante la cual para cuales-

quiera dos elementos a y b de un con- junto A podemos encontrar otro elemen-to de A que es el resultado de la opera-cion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

Operador c ıclico. OL h tal que todo elespacio es h -cıclico . . . . . . . . . . . . . . . . . . 163

Operador diagonalizable. OL talque existe una base en la cual su matrizes diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 178

Operador irreducible. OLque no se puede decomponer como sumadirecta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151

Operador lineal. Transformacion linealde un espacio en si mismo . . . . . . . . . . . 70

Operador radical. OL cuyo polinomiomınimo (o caracter ıstico) es potencia deun polinomio irreducible . . . . . . . . . . . . 160

Operador singular. OL no biyectivo 71

Operador triangulable. OL talque existe una base ordenada en la cualsu matriz es triangular . . . . . . . . . . . . . . 178

Opuesto. El inverso de un elemento deun anillo o campo respecto a la suma . 7

Orbita de una permutacion. Clasede equivalencia de la relacion (a ∼ b) ⇔(a = σn (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . 95

Orden de un ciclo. El numero deelementos que un ciclo no deja fi jos . 94

Orden de una matriz.

El numero de renglones y columnas de

Page 219: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 219/232

209per — rec

una matriz cuadrada . . . . . . . . . . . . . . . . 105

Per ıodo de un conjunto de vectores.

El generador del anulador del conjuntode vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

Per ıodo de un vector.

El polinomio monico p mas pequeno tal

que ph (a ) = 0. El generador del anula-dor del vector. . . . . . . . . . . . . . . . . . . . . . . . 156

Permutacion. Biyeccion de un conjuntofinito en si mismo . . . . . . . . . . . . . . . . . . . . 93

Permutacion impar. Permutacionque se descompone en la composicion deun numero impar de transposiciones 97

Permutacion par. Permutacion

que se descompone en la composicion deun numero par de transposiciones . . . 97

Plano.

Subespacio afın de dimensiondos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55, 35

Polinomio. Expresion formalPni=0 aixi donde los coeficientes ai son

elementos de un campo . . . . . . . . . . . . . 129

Polinomio caracter ıstico. El po-

linomio det (xI− h ). Es un multiplo delpolinomio m ınimo y tiene los mismos fac-tores irreducibles que el polinomio m ıni-mo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175

Polinomio irreducible. Polinomiomonico de grado al menos 1 sin factorespropios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

Polinomio m ınimo. Elpolinomio monico mas pequeno que anu-la un OL. El generador del anulador deloperador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

Polinomio monico. Polinomio cuyocoeficiente principal es 1 . . . . . . . . . . . . 135

Preimagen de un elemento. Sea b

un elemento del codominio de f. La prei-magen de b es el conjunto de todos x endominio tales que f (x) = b . . . . . . . *, 83

Producto de matrices.Si α MN y βNL son dos matrices en-tonces γML = α MN βN,L es la matrizcuyas entradas son los productos esca-

lares canonicos γij = α iN βNj de losrenglones de α MN por las columnas deβNL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76, 101

Producto de un escalar por una funcion.

Si en el codominio de f esta definido un

producto por escalares entonces λf es lafuncion tal que (λf) (a ) = f (λa ) . . . . 68

Producto de un vector por una matriz.

Es la combinacion lineal de los renglonesde la matriz cuyos coeficientes son lascoordenadas del vector . . . . . . . . . . . . . . . 76

Producto de una matriz por un vector.

Es la combinacion lineal de las columnas

de la matriz cuyos coefi

cientes son lascoordenadas del vector . . . . . . . . . . . . . . . 76

Producto escalar. Productobilineal de dos vectores cuyo resultado esun escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

Producto escalar canonico.

Producto escalar definido en K N como:α N βN =

Pi∈N α iβi . . . . . . . . . . . . . . . . . . 75

Proyeccion. Si C = A × B entonces,

la funcion f : c = (a, b) 7→ a se le lla-ma proyeccion de C a A a lo largo de B.En particular, nosotros la usamos en elcaso de que E = F ⊕ G (¡la suma directaes un producto cartesiano!). En este casolas proyecciones son TLs . . . . . . . . . 67, 83

Punto. Subespacio afın de dimensioncero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

Raız de un polinomio.

Elemento del campo en el cual la funcionde evaluacion del polinomio toma valorcero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

Rango de una matriz. El orden de susbases.La dimension de su espacio de columnas.La dimension de su espacio de renglo-nes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

Recta.Subespacio afın de dimensionuno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55, 35

Regla del tablero de ajedrez.

Page 220: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 220/232

210 reg — suc

Regla mediante la cual se hallan los sig-nos de los cofactores de una matriz enforma grafica. El signo del cofactor deα ij es (−1)i+j . . . . . . . . . . . . . . . . . . . . . . . . 108

Relacion antisimetrica.

Si a

≈b y b

≈a entonces, a = b . . . . . *

Relacion de equivalencia. Relacionsimetrica, reflexiva y transitiva . . . *, 55

Relacion de orden.

Relacion antisimetrica, reflexiva y tran-sitiva . . . . . . . . . . . . . . . . . . . . . . . . . *, 61, 118

Relacion en un conjunto. Subconjuntodel producto cartesiano A × A = A2 . . *

Relacion reflexiva.

Para todo a se tiene a ≈ a . . . . . . . . . . . . *Relacion simetrica.

(a ≈ b) ⇒ (b ≈ a) . . . . . . . . . . . . . . . . . . . . . *

Relacion transitiva.

Si a ≈ b y b ≈ c entonces, b ≈ a. . . . . . *

Renglon de una matriz. Dadauna matriz α NM e i ∈ N a la M-ada α iM

(i esta fi jo, los elementos de M var ıan)se le llama i-esimo renglon de la matriz

α NM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33, 76Resto. Al efectuar la di-

vision con resto de un elemento p de unanillo conmutativo (Z, K [x ]) entre otroq obtenemos la igualdad p = cq + r. Alelemento r se le llama resto de la divisionde p entre q . . . . . . . . . . . . . . . . . . . . 131, 14

Restriccion de una funcion.

Una funcion f : A0

→ B se le llama res-triccion de g : A → B si A0 ⊆ A y pa-ra cualquier a ∈ A0 se cumple f (a) =

g (a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

Serie. Expresion formal del tipoP∞i=0 aixi. A los elementos del campo ai

se le llaman coeficientes de la serie . . 30

Signo de una permutacion.

Funcion que a cada permutacion le hace

corresponder 1 si esta es par y−

1 si estaes impar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

Sistema de ecuaciones lineales.

Ecuacion A x = b donde la matriz A y

el vector b son conocidos y el vector x esincognito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

Subalgebra. Subespacio vectorial quecontiene al 1 y en el cual el producto esinterno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

Subanillo. Subconjunto de un anillo que

es un anillo para las mismas operacionesdel anillo mas grande . . . . . . . . . . . . . . . . 17

Subcampo. Subconjunto de un campoque es un campo para las mismas opera-ciones del campo mas grande . . . . 17, 32

Subespacio. Subconjunto de un espaciovectorial que es a su vez espacio vectorialpara las mismas operaciones que las de

todo el espacio. . . . . . . . . . 34, 48, 52, 83Subespacio af ın.

Traslacion de un subespacio 54, 68, 86

Subespacio generado. Cerraduralineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

Subespacio h -cıclico. Subespacioh -generado por un solo vector . . . . . . 163

Subespacio h -generado. La h -cerradurade un conjunto de vectores . . . . . . . . . 163

Subespacio invariante. Subespaciodonde esta bien definida la restriccion deun OL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151

Subespacio radical. Subespacioinvariante en el cual el operador es radi-cal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

Subespacios afines paralelos.

Dos subespacios afines son paralelos siuno es traslacion del otro . . . . . . . . . . . . 55

Subespacios complementarios.

Dos subespacios cuya suma es todo elespacio y cuya interseccion es el ori-gen . . . . . . . . . . . . . . . . . . 52, 54, 56, 67, 83

Subgrupo. Subconjunto de un grupo quees un grupo para la misma operacion delgrupo mas grande . . . . . . . . . . . . . . . . . . . . 17

Submatriz. Dada una matriz

α NM a cualquier matriz α N0

M0

tal queN0 ⊆ N y M0 ⊆ M se le llama submatrizde α NM . . . . . . . . . . . . . . . . . . . . . . . . . 33, 118

Sucesion. Elemento (a0, a1,...,an,...) del

Page 221: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 221/232

211suc — vec

conjunto AN de funciones f : N→ A 30

Sucesion acotada.

La sucesion z k es acotada si existe unreal M tal que ∀k kz k k ≤ M . . . . . . . . 142

Sucesion convergente.

Una sucesion que tiene lımite . . . . . . . 142

Suma de conjuntos.Si A y B son conjuntos y entre sus ele-mentos hay una operacion de suma en-tonces:A + B = a + b | a ∈ A y b ∈ B . . . . . 49

Suma de funciones. Si en elcodominio mutuo de f y g esta definidauna suma entonces f + g es la funcion tal

que (λ + g) (a ) = f (a ) + g (a ). . . . . . . 69Suma directa de espacios. El productocartesiano de los subespacios con la su-ma definida por coordenadas y tambienel producto por escalares. Si la intersec-cion de dos subespacios tiene dimensioncero entonces, la suma directa de ellos escanonicamente isomorfa a la suma . . 50

Suma directa de OL.

OL definido por coordenadas en la sumadirecta de espacios . . . . . . . . . . . . . . . . . . 149

Supremo. El mınimo de las cotasinferiores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *

Tensor de exponente n. Un conjuntoindexado por n conjuntos de ındices 34

Tipo de una descomposicion.

Si h = f1 ⊕ · · · ⊕ fn es una descomposi-cion de h entonces, su tipo es la sucesionde los polinomios m ınimos de f1, . . . , fn.Dos tipos son iguales si uno se puede ob-tener del otro reordenando la sucesion.En el tipo pueden haber polinomios igua-les . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

TL. Acronimo de transformacionlineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

Transformacion elemental. Una trans-

formacion elemental de los renglones deuna matriz consiste en sumarle a un re-

glon otro multiplicado por un escalar.Analogamente se definen las transforma-ciones elementales de las columnas . 124

Transformacion lineal. Morfismo deespacios vectoriales . . . . . . . . . . 44, 65, 72

Transformacion lineal de una matriz.

Dada la matriz α MN es la funcion:KN 3 βN → α MN βN ∈ KM . . . . . . . . . . 77

Transformacion semilineal. Funcion deun espacio vectorial a otro que es mor-fismo para la suma y que cumple quef (λ x) = λf ( x) para cierto automorfismoλ 7

→λ del campo de escalares. . . . . . . . 86

Transposicion. Ciclo de orden dos. . 96Transpuesta.

Matriz que se obtiene de otra intercam-biando los sub ındices de sus entradas, osea si A = α NM y AT = B = βMN en-tonces α ij = βji . . . . . . . . . . . . . . . . . . . . . . 100

Traslacion de un conjunto de vectores.

Si A es un conjunto de vectores y x otro

vector entonces A + x es la traslacion deA con el vector x . . . . . . . . . . . . . . . . . . . . . 54

Valor propio. Escalar tal que para ciertovector propio a se tiene que h (a ) = λa .Raız del polinomio caracter ıstico . . . 174

Vector.

Elemento de un espacio vectorial. En Rn

son los segmentos dirigidos del origen aun punto del espacio . . . . . . . . . . . . . 28, 28

Vector columna.

Matriz con una sola columna . . . . . . . . 76

Vector de coeficientes libres. El vec-tor b del sistema de ecuaciones linealesA x = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

Vector propio. Vector a tal que la rectaha i es invariante . . . . . . . . . . . . . . . . . . . . . 174

Vector renglon.

Matriz con un solo renglon . . . . . . . . . . 76

Page 222: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 222/232

212

Page 223: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 223/232

∀ Para todo.∃ Existe.∃! Existe y es unico.P ⇒ Q Si P entonces Q.

P implica Q.P es suficiente para Q.

P ⇐ Q P solo si Q.P es necesario para Q.

P ⇔ Q P si y solo si Q.P y Q son equivalentes.P es necesario y suficiente paraQ.

b ∈ B b pertenece a B.B 3 b B contiene a b.A ⊆ B A es subconjunto de B.

A ⊇ B A es sobreconjunto de B.A Ã B A es subconjunto propio de B.O sea, A ⊆ B y A 6= B.

A ! B A es sobreconjunto propio de B.O sea, A ⊇ B y A 6= B.

A∪B La union de A y B.A∩B La interseccion de A y B.A\B La resta de conjuntos. El conjun-

to de los elementos de A que nopertenecen a B.

A×B El producto cartesiano de dosconjuntos. El conjunto de todaslas parejas (a, b) con a ∈ A yb ∈ B.

2A El conjunto de todos los subcon- juntos del conjunto A. El con- junto de todas las funciones

f : A → 0, 1.An El producto cartesiano de A con-

sigo mismo n veces. El conjunto

de todos las n-adas (a1, . . . , an)

donde todos los ai estan en A.AN El conjunto de todas las funcio-

nes f : N → A. El conjuntode todos las N-adas aN donde∀i ∈ N el elemento ai pertenecea A. Si N = 1 , . . . , n entoncesAN = An.

0 El vector cero. El origen de co-ordenadas.

0 Cero es elemento neutro para lasuma de un anillo o campo.

1 Uno es el elemento neutro parael producto de un anillo o cam-po.

−1 Menos uno es el opuesto de 1 en

un anillo o campo.INN Matriz identidad.I La funcion identidad. La permu-

tacion identidadO La funcion nula. La matriz nulaℵ0 El cardinal de N.

K Un campo arbitrario.Kn El espacio de las n-adas.KN El espacio de las N-adas.K [x ] El algebra de polinomios en la

variable x con coeficientes en K.K [[x ]] El algebra de series en la variable

x con coeficientes en K.K (x) El campo de funciones racionales

en x con coeficientes en K.

N El conjunto de los naturales.Z El anillo de los enteros.Zn El anillo de restos modulo n.

Para n primo Zn es un campo.

Page 224: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 224/232

214 Notaciones

Q El campo de los racionales.R El campo de los reales.C El campo de los complejos.SN El grupo simetrico de N.AN El grupo alternante de N.

A

N Las permutaciones impares deN.

f : A → B

Una funcion que tiene dominioA y codominio B.

f : A 3 a 7→ f (a) ∈ B

Usada para denotar funcionesconcretas por ejemplo,

f : R 3 a 7→ a2 ∈ R+

es la funcion con dominio R ycodominio R+ que a cada real lehace corresponder su cuadrado.

p mod q El resto de la division de p en-tre q. Esta bien definido en cual-quier anillo con division. Por

ejemplo, en los numeros enterosy en los polinomios con coeficien-tes en un campo.

n! El factorial del natural n. Se de-fine como n! = 1 × 2 × · · · × n.

A| El cardinal del conjunto A. Pue-de ser finito o infinito.

kz k El modulo del numero complejo

z .hNi La cerradura lineal de N. El con- junto de todas las combinacioneslineales de N.

ım z k El lımite de la sucesion z k .dim E La dimension de E.sgn π El signo de la permutacion π .det A El determinante de la matriz A.Im f La imagen de la funcion f.ker f El nucleo del morfismo f.

A+B La suma de dos conjuntos devectores.

λA El producto de un escalar por unconjunto de vectores.

A+ x El conjunto de vectores A tras-

ladado mediante el vector x. SiA es un subespacio entonces, esun subespacio af ın.

E⊕F La suma directa de dos espacios.Si E y F son subespacios que seintersectan solo en el origen en-tonces es canonicamente isomor-fa a la suma de E y F.

α MN Una matriz cuyos renglonesestan indexados por M y cuyascolumnas estan indexadas porN.

α ij La entrada α ij de una matrizα MN .

α iN El i-esimo renglon de la matriz

α NM .α Mj La j-esima columna de la matriz

α NM .α Mω(N) Si ω es una permutacion de N,

es la matriz α MN cuyas colum-nas estan permutadas medianteω. Si ω : N → L es una biyec-cion, es la matriz cuyas colum-

nas estan indexadas por L me-diante el cambio de ındices ω.α ω(M)N Lo mismo que el anterior pero

para los renglonesα ∗ij El cofactor de la entrada α ij de

una matriz cuadrada.

A∗ La matriz de cofactores de A.AT La matriz transpuesta de A.(A|b) La matriz ampliada del sistema

A x = b.

Page 225: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 225/232

215Notaciones

Page 226: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 226/232

216 Notaciones

Alfabeto gotico

A B C D E F G H I J K L M

A B C D E F G H I J K L M

N O P Q R S T U V W X Y ZN O P Q R S T U V W X Y Z

a b c d e f g h i j k l ma b c d e f g h i j k l m

n o p q r s t u v w x y zn o p q r s t u v w x y z

Alfabeto caligrafico

A B C D E F G H I J K L M A B C D E F G H I J K L M

N O P Q R S T U V W X Y ZN O P Q R S T U V W X Y Z

Alfabeto griego

A B Γ ∆ E Z H Θ I

α β γ δ ² ε ζ η θ ϑ ι

alfa beta gamma delta epsilon zeta eta zita iota

K Λ M N Ξ O Π P Σ

κ κ λ μ ν ξ o π ρ σ

kappa lamda mu nu xi omicron pi ro sigma

T Υ Φ X Ψ Ω

τ υ φ ϕ χ ψ ω

tau upsilon fi

chi psi omega

Page 227: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 227/232

Cap ıtulo 1

1. Defina los siguientes conceptos:• Operacion binaria.• Propiedad conmutativa.• Propiedad asociativa.• Propiedad distributiva.

• Elemento neutro.• Elemento inverso.2. En cualquier campo 0x = 0.3. Defina los siguientes conceptos:

• Grupo y grupo abeliano.• Anillo y anillo conmutativo.• Campo.

4. Defina los morfismos.5. Los morfismos preservan las operaciones

binarias.6. Los morfismos preservan la conmutativi-

dad.7. Los morfismos preservan la asociativi-

dad.8. Los morfismos preservan el neutro.9. Los morfismos preservan el inverso.10. Los morfismos preservan la distributivi-

dad.11. La inversa de un isomorfismo es un iso-

morfismo.12. Defina la suma y el producto en Zn.13. (Zn, +, •) es un anillo conmutativo.14. Todo campo es un dominio de integri-

dad.15. Zn es un dominio de integridad si y solo

si n es primo.

16. Todo dominio de integridad finito es uncampo.

17. Definicion de subcampo.18. Definicion de campo primo

19. Todo campo K contiene un unico sub-campo primo que esta contenido en cual-quier subcampo de K.

20.Q es un campo primo.21. Los campos Z p son primos.22. Teorema de Clasificacion de Campos Pri-

mos.23. Defina la caracter ıstica de un campo.

24. En un campo de caracterıstica t paracualquier elemento x se cumple que tx =

0 .25. Demuestre la formula del binomio de

Newton en base a la formula multino-mial.

Cap ıtulo 2

1. Definicion de espacio vectorial.2. ¿Que es una n-ada? ¿Que es una N-ada?

¿Cual es su conjunto de ındices? ¿ Queson sus coordenadas?

3. ¿Que es una NM-matriz? ¿Que es unaentrada, renglon, columna?

4. Definicion de subespacio.5. Los subespacios son los conjuntos cerra-

dos para la suma y el producto por esca-lares.

6. La union de subespacios no es un subes-pacio.

7. La interseccion de subespacios es un su-bespacio.

8. Definicion de combinacion lineal y suscoeficientes.

9. El conjunto de todas las combinaciones

lineales de un conjunto de vectores es unsubespacio.

10. Los siguientes tres conjuntos de vectorescoinciden:

Page 228: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 228/232

218 Guıa de estudio

• El conjunto de todas las combinacio-nes lineales de N.• La interseccion de todos los subespa-cios que contienen a N.• El subespacio mas pequeno que con-tiene a N.

11. Propiedades basicas de la cerradura li-neal:• incremento,• monoton ıa,• idempotencia.

12. Todo sobreconjunto de un conjunto ge-nerador es generador.

13. Teorema de caracterizacion de conjuntos

LI.14. Todo subconjunto de un conjunto LI esLI.

15. Lema de aumento de un conjunto LI.16. Teorema de caracterizacion de bases.17. Teorema de existencia de bases.18. Propiedad del cambio de las bases.19. Dos bases cualesquiera de un espacio vec-

torial tienen el mismo cardinal.

20. Si E es un subespacio de F y dim E =dim F < ∞ entonces, E = F.

21. Describa las bases canonicas de los espa-cios vectoriales K N y K [x ].

22. La inversa de un isomorfismo lineal es unisomorfismo lineal.

23. Un isomorfismo transforma conjuntos LIen conjuntos LI, conjuntos generadoresen conjuntos generadores y bases en ba-ses.

24. Describa el isomorfismo de coordinatiza-cion en una base.

25. Dos espacios vectoriales sobre un mismocampo son isomorfos si y solo si tienenla misma dimension.

26. Todo espacio vectorial finito dimensionales isomorfo a Kn.

27. El numero de elementos en un campo fi-nito es potencia de un numero primo.

28. hE ∪ Fi = a + b | a ∈ E, b ∈ F

29. La igualdad modular (incluye la demos-

tracion del lema).30. Si E y F son subespacios tales que E∩F =

0 entonces la funcionE ⊕ F 3 (a , b) 7→ a + b ∈ E + F

es un isomorfismo de espacios vectoria-les.

31. Que es un isomorfismo canonico. De-muestre que E ⊕ F y F ⊕ E son canonica-mente isomorfos.

32. Todo subespacio tiene complementario.33. Si E y F son dos subespacios complemen-

tarios entonces cada vector x se expresade forma unica como x = a + b dondea ∈ E y b ∈ F.

34. Defi

na los subespacios afi

nes.35. ¿Que es el paralelismo de subespacios afi-nes?

36. Todo subespacio af ın es paralelo a un so-lo subespacio vectorial.

37. Dos diferentes subespacios afines parale-los no se intersectan

38. ¿Que es el espacio cociente? ¿Cuales sonsus operaciones?

39. Cualquier subespacio complementario aE intersecta al subespacio afın (E + x) enun solo punto.

40. D/E es canonicamente isomorfo a cual-quier complementario de E.

Cap ıtulo 3

1. Definicion de transformacion lineal.

2. Toda TL transforma subespacios en su-bespacios.

3. Toda TL de un espacio de dimension 1es una homotecia.

4. Definicion de proyeccion. Toda proyec-cion es una TL.

5. El producto de un escalar por una TL esuna TL.

6. La suma de dos TLs es una TL.

7. La composicion de TLs es una TL.8. Propiedades de la composicion de TLs:

asociatividad, distributividad y conmu-tatividad con el producto por escalares.

Page 229: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 229/232

219Guıa de estudio

9. Definicion de Algebra. De tres ejemplosde algebras. ¿Que es el grupo general li-neal?

10. Las extensiones lineales son TLs.11. Las TLs estan predeterminadas por sus

valores en una base.

12. Si N es una base de E entonces, la fun-cion que a cada TL h ∈ Hom (E, F) le ha-ce corresponder su restriccion h N ∈ FN

es un isomorfismo de espacios vectoria-les.

13. Una TL es un isomorfismo si y solo si surestriccion a una base es inyectiva y laimagen de esta restriccion es una base.

14. Propiedades del producto escalar canoni-co de N-adas conmutatividad, distributi-vidad y conmutatividad con el productopor escalares.

15. Definicion del producto de matrices.16. ¿Cual es la TL definida por una matriz?.

¿Cual es la matriz de una TL?17. La matriz de la composicion de dos TLs

es igual al producto de las matrices de

las TLs.18. Defina las matrices de cambio de base.19. La N-ada de las coordenadas de un vec-

tor en la base nueva se obtiene multipli-cando la matriz de cambio de base por laV -ada de las coordenadas del vector enla base vieja.

20. Sea f : E

→F una TL. Sean B y C ma-

trices de cambio de base en E y F respec-tivamente. Si A es la matriz de f en lasbases viejas entonces CAB−1 es la matrizde f en las bases nuevas.

21. Definicion de nucleo e imagen de una TL.22. La imagen y el nucleo son subespacios.23. Una TL es injectiva si y solo si su nucleo

es trivial.24. Si K es un subespacio complementario a

ker f entonces, la restriccion de f a K esinyectiva.

25. Sean E y F dos espacios tales quedim E = dim F < ∞. Una TL de E a

F es inyectiva si y solo si es sobreyectiva.26. Los subespacios afines paralelos a ker f

son precisamente los conjuntos de vecto-res en que la TL f es constante.

Cap ıtulo 4

1. Si |M| = |N| entonces, los grupos simetri-cos SM y SN son isomorfos.

2. El numero de permutaciones de un con- junto con n elementos es n!.

3. Que son las orbitas de una permutacion.4. La restriccion de una permutacion a una

orbita es un ciclo.5. Definicion de permutaciones pares e im-

pares. Definicion del signo.6. La composicion de una permutacion con

una transposicion cambia la paridad dela permutacion.

7. Toda permutacion es composicion detransposiciones.

8. Pruebe que sgn (π ρ) = sgn π sgn ρ yque sgn π −1 = sgn π .

9. Definicion de determinante de una ma-triz. Regla del triangulo para los deter-minantes de orden 3.

10. El determinante de la matriz identidades 1.

11. Si una matriz tiene una columna o unrenglon nulo entonces, su determinantees cero.

12. El determinante no se altera al transpo-

ner una matriz.13. Si una matriz tiene dos renglones iguales

entonces, su determinante es cero.14. Si φ y ϕ son dos cambios de ındices de

N en M entonces, se cumple la igualdad:det α Mφ(N) =

sgn¡

φ ϕ−1¢

det α Mϕ(N).15. Definicion de matriz no singular.16. Definicion de cofactores de una entrada

de una matriz. Pruebe que los cofactoresno dependen del cambio de ındices usadopara calcular el determinante.

17. Teorema de expansion de Laplace.

Page 230: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 230/232

220 Guıa de estudio

18. Definicion de funcional multilineal19. El determinante es un funcional multili-

neal de los renglones.20. det A−1 = (det A)−1.21. A−1 = A∗T / det A.22. El determinante de un OL no depende

de la base que se use para calcularlo.23. Enuncie la expansion generalizada de La-

place24. El determinante de una matriz triangu-

lar por bloques es igual al producto delos determinantes de sus bloques.

25. Enuncie la caracterizacion de matricesno singulares.

26. Las dimensiones del espacio de columnasy del espacio de renglones de una matrizcoinciden.

27. Lema de aumento de submatrices no sin-gulares.

28. Caracterizacion de las bases de una ma-triz

29. Regla de Cramer.30. Teorema de existencia de soluciones.

31. Lema de eliminacion de ecuaciones de-pendientes.

32. Describa el procedimiento general de so-lucion de los sistemas de ecuaciones li-neales.

33. Las transformaciones elementales nocambian los determinantes.

34. Las transformaciones elementales de losrenglones de la matriz ampliada no cam-bian el subespacio afın solucion de un sis-tema de ecuaciones lineales.

35. Resuelva un sistema de ecuaciones linea-les por el metodo de Gauss.

36. Encuentre la inversa de una matriz porel metodo de eliminacion de Gauss

Cap ıtulo 5

1. Defina los polinomios sobre un campo,sus coeficientes, el grado y el coeficienteprincipal.

2. Defina la suma y el producto de polino-

mios.3. Defina la funcion de evaluacion de un po-

linomio.4. Un polinomio de grado n esta predeter-

minado por su evaluacion en n + 1 dife-rentes elementos del campo.

5. Division con resto de polinomios.6. Defina los divisores, los multiplos y los

factores de un polinomio.7. Si p a q y q a p entonces existe un ele-

mento del campo α tal que p = α q.8. Defina los divisores, los multiplos y los

factores de un polinomio.9. Defina las raices de un polinomio.

10. Para que b sea una ra´ız de p es necesarioy suficiente que (x − b) sea un factor de

p.11. Un polinomio de grado n tiene a lo mas

n raices.12. Defina los ideales de un anillo y los idea-

les principales.13. Todo ideal de polinomios es principal.14. Teorema de Bezout.

15. Defina factores propios, polinomiosmonicos, factores irreducibles.

16. Si p y q son dos polinomios y r es unfactor irreducible de pq entonces r es unfactor de p o de q.

17. Sea p = α p1 · · · pn una descomposicionen factores irreducibles de p. Si q es cual-quier factor irreducible de p entonces, q

es igual a alguno de los pi.18. Teorema de Factorizacion de Polinomios.19. Desarrollo de Taylor.20. Enuncie el Teorema de Gauss.21. Usando el Teorema de Gauss demuestre

la clasificacion de los polinomios comple- jos irreducibles.

22. Demuestre la clasificacion de los polino-mios reales irreducibles.

Cap ıtulo 6

1. Defina la suma directa de operadores li-neales.

Page 231: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 231/232

221Guıa de estudio

2. Defina los subespacios inveriantes de unoperador lineal.

3. Un OL se descompone como suma direc-ta de dos OLs si y solo si el tiene dos su-bespacios invariantes complementarios.

4. Defina los operadores lineales irreduci-

bles.5. Demuestre que todo operador lineal se

descompone en suma de irreducibles.6. Demuestre que si un operador lineal se

descompone en suma directa de otros dosentonces, en cierta base su matriz es dia-gonal por bloques.

7. Defina la funcion de evaluacion de un po-

linomio en un operador lineal.8. La funcion de evaluacion de polinomiosen un operador lineal es un morfismo dealgebras.

9. La imagen de la funcion de evaluacion depolinomios es una subalgebra conmuta-tiva del algebra de operadores lineales.

10. El nucleo del morfismo de evaluacion enh es un ideal de K [x ].

11. Defina el polinomio m ınimo de un ope-rador lineal.

12. Defina el anulador de un conjunto de vec-tores.

13. Defina el h -per ıodo de un conjunto devectores.

14. El h -anulador de A es el conjunto de losmultiplos comunes a los per ıodos de losvectores en A.

15. Si h = f ⊕ g entonces el polinomio m ıni-mo de h es igual al m ınimo comun multi-plo de los polinomios m ınimos de f y g.

16. Monotonıa del per ıodo.17. Invariancia de los nucleos.18. Monotonıa de los nucleos.19. Lema de Descomposicion de Nucleos.20. Si h es irreducible entonces, es radical.

21. Enuncie el Teorema de Descomposicionen Componentes Radicales (sin demos-tracion).

22. Para cualquier operador lineal h existe

un vector tal que su per ıodo es igual alpolinomio m ınimo de h .

23. Definicion de h -combinacion y sus coefi-cientes.

24. El conjunto de todas las h -combinaciones de V es un subespacio

invariante.25. Definicion de subespacio h -generado y

conjunto de vectores h -generador.26. perh hV ih = perh V .27. Definicion de subespacio h -cıclico y de

operador c ıclico.28. Si q es un polinomio coprimo con perh a

entonces ha ih = hqh (a )ih .

29. Si el perıodo de a es de gradon, entonces el conjunto de vectores©

a , h (a ) , . . . , h n−1 (a )ª

es una base deha ih .

30. Definicion de conjunto h -independiente.31. Si V = v1, . . . , vn es h -independiente

entonces hV ih = h v1ih ⊕ · · · ⊕ h vnih .32. Definicion de h -base.33. El conjunto EndF (E) de todos los opera-

dores lineales que dejan invariante F esuna subalgebra de End (E).

34. La funcion EndF (E) 3 h 7→ eh ∈End (E/F) es un morfismo de algebras.

35. Pruebe que f ph = ph .

36. Si b ∈ v + F entonces perh (b) `perh

( v + F).37. Lema del per ıodo (sin demostracion)38. Lema del cociente.39. Teorema de Existencia de h -bases.40. Teorema de Descomposicion en Compo-

nentes Radicales C ıclicas41. Defina el tipo de una descomposicion.42. Teorema de Unicidad del Tipo (sin de-

mostracion).43. Teorema de Caracterizacion de los OLs

irreducibles.

44. Definicion de vector propio y de valorpropio.

45. La recta ha i es h -invariante si y solo sia es un vector propio de h .

Page 232: Algebra Lineal.pdf

7/21/2019 Algebra Lineal.pdf

http://slidepdf.com/reader/full/algebra-linealpdf-56db932967243 232/232

222 Guıa de estudio

46. Definicion de polinomio caracterıstico.Cual es el grado del polinomio carac-ter ıstico (sin demostracion).

47. Demuestre que las raices del polinomiocaracter ıstico son los valores propios.

48. Definicion de matriz acompanante de un

polinomio.49. Sea h un OL c ıclico con polinomio m ıni-

mo p de grado n. La matriz de h en labase

©a , h (a ) , . . . , h n−1 (a )

ª es la ma-

triz acompanante de p.

50. Si h = f ⊕ g entonces, el polinomio ca-racter ıstico de h es igual al producto delos polinomios caracter ısticos de f y g.

51. Teorema de Hamilton-Caley-Frobenius.52. Definicion de celda de Jordan.53. Si h es un operador c ıclico-radical con

polinomio m ınimo (x−

λ)n entonces, encierta base, la matriz de h es una celdade Jordan.

54. Forma normal de Jordan


Top Related