apuntes de algebra lineal. curso 2019-2020...apuntes de algebra lineal. curso 2019-2020 (versi on...

137
Apuntes de ´ Algebra Lineal. Curso 2019-2020 (versi´ on completa corregida) Juan Jacobo Sim´ on Pinero

Upload: others

Post on 08-Jul-2020

23 views

Category:

Documents


1 download

TRANSCRIPT

Apuntes de Algebra Lineal.

Curso 2019-2020(version completa corregida)

Juan Jacobo Simon Pinero

2

Indice general

1. Introduccion 5

1.1. Numeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.2. Estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . . 8

1.3. Productos de matrices no cuadradas . . . . . . . . . . . . . . . . 10

2. Matrices y sistemas 13

2.1. Sistemas de ecuaciones . . . . . . . . . . . . . . . . . . . . . . . . 13

2.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.2.1. Operaciones aritmeticas . . . . . . . . . . . . . . . . . . . 17

2.2.2. Submatrices y matrices en bloques . . . . . . . . . . . . . 19

2.3. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . 24

2.3.1. Clasificacion . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.4. El metodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.4.1. Operaciones elementales y ecuaciones vectoriales. . . . . . 28

2.4.2. Aplicaciones de la reduccion en la aritmetica de matrices 36

3. Espacios vectoriales 39

3.1. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3.2. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 44

3.2.1. Combinaciones lineales y matrices . . . . . . . . . . . . . 45

3.3. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . 47

3.3.1. Dependencia lineal y matrices . . . . . . . . . . . . . . . . 49

3.4. Conjuntos generadores . . . . . . . . . . . . . . . . . . . . . . . . 50

3.4.1. Conjuntos generadores y matrices . . . . . . . . . . . . . . 52

3.5. Bases y dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 55

3.5.1. Sistemas de coordenadas y matrices . . . . . . . . . . . . 59

3.6. Teorema de Steinitz y dimension . . . . . . . . . . . . . . . . . . 61

3.7. El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 62

3.8. Matrices y construcciones de bases . . . . . . . . . . . . . . . . . 63

3.9. Suma e interseccion finitas de subespacios . . . . . . . . . . . . . 67

3.10. Espacio cociente . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

3

4 INDICE GENERAL

4. Dimension y rango 734.1. Repaso de preliminares . . . . . . . . . . . . . . . . . . . . . . . . 734.2. Teorema de Rouche-Frobenius . . . . . . . . . . . . . . . . . . . . 744.3. Aplicaciones y propiedades del rango . . . . . . . . . . . . . . . . 75

5. Aplicaciones lineales 775.1. Nucleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . 785.2. Clasificacion de las aplicaciones lineales . . . . . . . . . . . . . . 795.3. Matriz asociada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 825.4. Composicion y producto . . . . . . . . . . . . . . . . . . . . . . . 875.5. Teoremas de isomorfıa . . . . . . . . . . . . . . . . . . . . . . . . 905.6. El espacio de las aplicaciones lineales . . . . . . . . . . . . . . . . 915.7. El espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

5.7.1. Aplicacion dual . . . . . . . . . . . . . . . . . . . . . . . . 955.7.2. Doble dual o bidual . . . . . . . . . . . . . . . . . . . . . 965.7.3. Subespacios ortogonales . . . . . . . . . . . . . . . . . . . 97

6. Determinantes y sistemas de ecuaciones 1016.1. Propiedades de los determinantes . . . . . . . . . . . . . . . . . . 1026.2. Existencia y calculo del determinante . . . . . . . . . . . . . . . . 1056.3. Aplicaciones de los determinantes . . . . . . . . . . . . . . . . . . 108

6.3.1. Calculo del rango por determinantes . . . . . . . . . . . . 1086.3.2. Metodo de Cramer . . . . . . . . . . . . . . . . . . . . . . 1096.3.3. Inversa por adjuntos. . . . . . . . . . . . . . . . . . . . . . 109

7. Diagonalizacion y formas canonicas 1117.1. Introduccion y definiciones basicas . . . . . . . . . . . . . . . . . 1117.2. Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . 1137.3. Diagonalizacion en espacios vectoriales sobre C . . . . . . . . . . 114

7.3.1. Diagonalizacion en los reales. . . . . . . . . . . . . . . . . 1207.4. Forma canonica de Jordan . . . . . . . . . . . . . . . . . . . . . . 122

7.4.1. Construccion de la base . . . . . . . . . . . . . . . . . . . 1257.5. Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . 1337.6. Calculo de potencias . . . . . . . . . . . . . . . . . . . . . . . . . 134

Capıtulo 1

Introduccion

Como siempre, denotaremos con N el conjunto de los numeros naturales, con Z,el de los enteros, Q los racionales, R los reales y C los complejos.

Historicamente, la aparicion y el manejo de los distintos conjuntos numericosestuvo asociada con la resolucion de ecuaciones, los problemas de geometrıa ylos de astronomıa.

Como es natural al pensamiento cientıfico, la irrupcion de las ecuaciones enla historia comenzo con aquellas que formamos a partir de los polinomios deprimer, grado es decir, las ecuaciones de la forma ax + b = 0 donde a, b ∈ Z,que dieron lugar a la consideracion de los numeros racionales, mientras que lasque provienen de los de segundo grado ax2 + bx+ c = 0 con coeficientes enterosestan relacionado con la aparicion de los numeros reales y complejos.

Por parte de los geometras, se tiene el famoso argumento de Pitagoras (sigloVI antes de Cristo) sobre el hecho de que

√2 no es racional.

Recordemos dos resultados fundamentales mas.

Teorema 1.1 (Teorema Fundamental del Algebra). Todo polinomio con coefi-cientes complejos de grado n tiene exactamente n-raıces complejas (salvo mul-tiplicidad).

Observacion 1.2. Si∑ni=0 aix

i es un polinomio con coeficientes enteros y αes una raız entera del polinomio entonces α|a0.

1.1. Numeros complejos

Se puede consultar el libro de M. A. Goberna y otros, Capıtulo 6.Definimos los numeros complejos como el conjunto

C ={a+ bı a, b ∈ R, ı2 = −1

}junto con las operaciones:

1. Suma. (a+ bı) + (c+ dı) = (a+ b) + (c+ d) ı

5

6 CAPITULO 1. INTRODUCCION

2. Producto. (a+ bı) · (c+ dı) = (ac− bd) + (ad+ bc) ı.

Estas operaciones se puede comprobar que son asociativas, y que ademas, elproducto distribuye a la suma.

1. El neutro bajo la suma es 0 = 0 + 0ı.

2. El opuesto de a+ bı (o inverso bajo la suma) es −a− bı.

3. El neutro bajo producto es 1 = 1 + 0ı.

4. El inverso de a+ bı (bajo producto) es aa2+b2 +

(−b

a2+b2

)ı.

1.3. Conjugado. El conjugado de un numero complejo z = a + bı ∈ C esz = a− bı y tiene, entre otras, las siguientes propiedades. Sean z, w ∈ C.

1. z = z.

2. z + w = z + w.

3. zw = z w.

4. Si z 6= 0 entonces z−1 = z−1.

5. z ∈ R si y solo si z = z.

Demostracion. Se deja como ejercicio.

Definicion 1.4. Sea z = a+ bı ∈ C.

1. Al coeficiente “a” se le llama la parte real, Re(a + bı), y a “b” la parteimaginaria, Im(a+ bı).

2. Su modulo es |z| = |a+ bı| =√a2 + b2.

3. Su argumento es el (unico, salvo multiplos de 2π) angulo θ que verifica

cos(θ) =a

|z|y sen(θ) =

b

|z|;

es decir, Arg(z) = θ = arctan(ba

)(estableciendo, como siempre, primero

el cuadrante).

1.5. Propiedades. Sean z, w ∈ C.

1. |z| =√z · z (equivalentemente, |z|2 = zz).

2. |z| = |z|.

3. |zw| = |z||w|.

4.∣∣z−1

∣∣ = |z|−1.

1.1. NUMEROS COMPLEJOS 7

5. |Re(z)| ≤ |z|.

6. |z + w| ≤ |z|+ |w| (desigualdad triangular).

Demostracion. Solo de (6). Notese primero que zw y zw son conjugados y porlo tanto zw+zw = 2Re(zw). Usando lo anterior y el apartado anterior, tenemos|z + w|2 = (z + w)(z + w) = zz + ww + zw + zw = |z|2 + |w|2 + 2Re(zw) ≤|z|2 + |w|2 + 2|zw| = (|z|+ |w|)2.

Formas polar y trigonometrica.

Notacion 1.6. Sea z = a + bı ∈ C, con modulo r =√a2 + b2 y argumento

θ = arctan(ba

)(como siempre, estableciendo previamente el cuadrante).

1. La representacion polar de z es

z 7−→ (r, θ).

R

R 6

-p p p p p p p p

-

-

-

-

-

-

r (r, θ)•

������3

.

....................................θ

2. La representacion triginometrica de z es

z 7−→ r(cos θ + ı sen θ).

R

R 6

-p p p p p p p p

-

-

-

-

-

-

r

r cos(θ)

r sen(θ) (r cos(θ), r sen(θ))•

������3

.

....................................θ p

pppp

8 CAPITULO 1. INTRODUCCION

1.7. Producto. Sean z = (r, θ) y w = (s, σ). Entonces

zw = (rs, θ + σ) = rs(cos(θ + σ) + ı sen(θ + σ)).

La forma trigonometrica se obtiene sin mas, ejecutando el producto y utili-zando las identidades trigonometricas fundamentales. En particular, si z ∈ C esz = r(cos θ + ı sen θ)

z−1 =1

r(cos(−θ) + ı sen(−θ)) =

1

r(cos θ − ı sen θ)

como corresponde con las formulas de la definicion del producto. Aun mas, sepuede probar por induccion el siguiente resultado clasico de De Moivre1.

Teorema 1.8 (Teorema de De Moivre). Sea z ∈ C, con |z| = r y Arg(z) = θ.Para n ∈ N se tiene

zn = (rn, nθ) = rn(cos(nθ) + ı sen(nθ)).

1.2. Estructuras algebraicas

Definicion 1.9 (Grupo abeliano). Un grupo abeliano (aditivo) esta formadopor una pareja (A,+), donde A es un conjunto no vacıo y + : A × A → A esuna aplicacion (que llamamos operacion binaria o ley de composicion interna ydenotamos + (a, b) = a+ b); que satisfacen los siguientes axiomas:

1. “+” es asociativa; es decir, para cualesquiera elementos a, b, c ∈ A se tienea+ (b+ c) = (a+ b) + c.

2. Existe el (unico) neutro que solemos escribir 0 ∈ A tal que 0+a = a+0 =a, para todo a ∈ A.

3. Opuesto (inverso). Para todo a ∈ A existe un (unico) elemento que sole-mos escribir −a ∈ A tal que a+ (−a) = (−a) + a = 0.

4. Finalmente, cumple la conmutatividad; es decir a + b = b + a para todoa, b ∈ A.

Ejemplos 1. 1. Cualquiera de los conjuntos numericos que conocemos, Z, Q, R, Cjunto con la suma.

2. Cualquiera de Q \ {0}, R \ {0}, C \ {0} junto con el producto.

3. El conjunto R[X], de los polinomios, con la suma habitual.

4. El conjunto de puntos en el plano cartesiano R2, junto con la suma habi-tual

(x1, x2) + (y1, y2) = (x1 + y1, x2 + y2) .1Abraham de Moivre nacio el 26 de mayo de 1667 en Vitry-le-Francois, Champagne, Francia

y murio el 27 de noviembre de 1754 en Londres. Ademas del resultado mencionado hizoimportantes aportaciones en geometrıa analıtica y teorıa de la probabilidad.

1.2. ESTRUCTURAS ALGEBRAICAS 9

5. El conjunto de las matrices 2× 2

M2(R) =

{(a11 a12

a21 a22

)| aij ∈ R

}junto con la suma habitual, entrada a entrada(

a11 a12

a21 a22

)+

(b11 b12

b21 b22

)=

(a11 + b11 a12 + b12

a21 + b21 a22 + b22

)

6. El cuerpo binario, Z2 = {0, 1}, junto con la siguiente tabla de sumar

+ 0 1

0 0 11 1 0

7. El cuerpo ternario, Z3 = {0, 1, 2}, junto con la siguiente tabla de sumar

+ 0 1 2

0 0 1 21 1 2 02 2 0 1

Definicion 1.10 (Anillo). Un anillo esta formado por tres ingredientes (A,+, ·),donde A es un conjunto no vacıo, + : A × A → A es una aplicacion (suma)y · : A × A → A es una aplicacion (producto); que satisfacen los siguientesaxiomas:

1. (A,+) es grupo abeliano.

2. “·” es asociativa; es decir, para cualesquiera elementos a, b, c ∈ A se tienea · (b · c) = (a · b) · c

3. “·” distribuye a “+”; es decir, para cualesquiera elementos a, b, c ∈ A setiene a · (b+ c) = (a · b) + (a · c)

4. Existe el (unico) neutro para · que solemos escribir 1 ∈ A tal que 1 · a =a · 1 = a, para todo a ∈ A.

5. Si ademas cumple:

Conmutatividad. a · b = b · a para todo a, b ∈ A decimos que es anilloconmutativo.

Ejemplos 2. 1. El conjunto de las matrices 2× 2

M2(R) =

{(a11 a12

a21 a22

)| aij ∈ R

}

10 CAPITULO 1. INTRODUCCION

junto con la suma descrita antes y el producto habitual(a11 a12

a21 a22

)·(b11 b12

b21 b22

)=

(a11b11 + a12b21 a11b12 + a12b22

a21b11 + a22b21 a21b12 + a22b22

)es un anillo, pero no es un anillo conmutativo, ya que, por ejemplo,(

0 10 0

)·(

0 11 0

)=

(1 00 0

)6=(

0 00 1

)=

(0 11 0

)·(

0 10 0

)2. En el caso de los conjuntos de matrices de orden n ×m, con n 6= m no

tendremos un anillo con el producto habitual, que no puede ejecutarse.

3. Cualquiera de los conjuntos numericos que conocemos, Q, R, C junto conla suma y el producto habituales.

4. El conjunto R[X], de los polinomios, con la suma y producto habituales.

5. El cuerpo binario, Z2 = {0, 1}, junto con la tabla de suma anterior lasiguiente tabla de multiplicar

· 0 1

0 0 01 0 1

6. El cuerpo ternario, Z3 = {0, 1, 2}, junto con la tabla de suma anterior lasiguiente tabla de multiplicar

· 0 1 2

0 0 0 01 0 1 22 0 2 1

Definicion 1.11 (Cuerpo). Un cuerpo es un anillo conmutativo (A,+, ·) queverifica el axioma adicional en el producto,

6. Todo elemento 0 6= a ∈ A tiene inverso bajo producto.

En otras palabras, tanto (A,+) como (A \ {0}, ·) son grupos abelianos y elproducto distribuye a la suma.

Ejemplos 3. Todos los conjuntos Q, R, C, Z2, Z3.

1.3. Productos de matrices no cuadradas

El producto de matrices esta definido de tal forma que puede ejecutarsesatisfaciendo leyes al margen del estudio de las estructuras algebraicas. Vamosa repasarlo. Mas adelante lo veremos con detalle y formalidad.

1.3. PRODUCTOS DE MATRICES NO CUADRADAS 11

Recordemos que una matriz de orden m× n (en este orden), es una arreglobidimensional de elementos de K dispuestos en filas de m, y columnas de nelementos; es decir, a11 a12 . . . a1n

. . .am1 am2 . . . amn

.

Denotamos al grupo abeliano de dichas matrices con Mm×n(K).

1.12. Propiedades generales del producto de matrices. Sean K uncuerpo y n,m, r, l ∈ N, posiblemente distintos. Consideremos matrices A,A′ ∈Mn×m(K); B,B′ ∈ Mm×r(K), y C ∈ Mr×l(K). Entonces el producto A · Btiene sentido y verifica las siguientes propiedades:

1. A ·B ∈Mn×r(K).

2. Valen las distributividades a los dos lados: A(B + B′) = AB + AB′ y(A+A′)B = AB +A′B.

3. Vale la asociatividad: (AB)C = A(BC).

12 CAPITULO 1. INTRODUCCION

Capıtulo 2

Matrices y sistemas

Hace unos 4000 anos los babilonios sabıan resolver sistemas de ecuaciones deorden 2× 2. En el famoso libro chino Nueve capıtulos del arte de las matemati-cas1, alrededor del ano 200 AC los chinos resuelven sistemas de orden 3 × 3trabajando solamente con los coeficientes del sistema. Ninguno de ellos estable-ce un sistema abstracto y general; sin embargo, estos fueron los prototipos nomuy lejanos de los metodos de eliminacion que introdujo Gauss 2000 anos mastarde [10, Chapter 5].

2.1. Sistemas de ecuaciones

Definicion 2.1. Un sistema de ecuaciones es una lista

a11x1 + · · ·+ a1nxn = b1. . .

am1x1 + · · ·+ amnxn = bm

en la cual, a los numeros aij se les llama “coeficientes”; a los sımbolos xi,incognitas, y a los numeros bi, constantes.

Tambien podemos escribirlo, muy corto, comon∑j=1

aijxj = bi

m

i=11El libro Jiuzhang suanshu o Nueve capıtulos del arte de las matematicas es un libro

de problemas practicos, en general resueltos, con el fin didactico de mostrar los metodosmatematicos de la epoca y sus aplicaciones. Tiene, como su nombre lo indica, nueve capıtulosque abarcan las aplicaciones de la geometrıa, el calculo y el algebra. Precisamente el Capıtulo8, llamado “Calculos con tablas cuadradas” tiene 18 problemas cuya solucion involucra elestudio de los sistemas de ecuaciones.

En la historia de la matematica china, este libro serıa el equivalente a Los Elementosde Euclides para la matematica occidental, y al libro Dimensions in Mathematics de L. C.Pernault, para los lectores de novela contemporanea.

13

14 CAPITULO 2. MATRICES Y SISTEMAS

Definicion 2.2. Un sistema homogeneo es aquel donde ocurre que bi = 0, ∀i;es decir,

a11x1 + · · ·+ a1nxn = 0. . .

am1x1 + · · ·+ amnxn = 0

La idea es crear una aritmetica con los coeficientes de tal manera que po-damos encontrar soluciones operando con ellos. Mas adelante definiremos for-malmente el concepto de espacio vectorial; sin embargo, ya que la tenemos,echaremos mano de una definicion intuitiva conocida de “vector” como sistemade coordenadas; es decir, de la forma v = (v1, . . . , vn) para los vectores fila.

Definicion 2.3. Dado un sistema de ecuaciones como en la Definicion 2.1, laecuacion vectorial esta formada por

A =

a11 . . . a1n

. . .am1 . . . amn

matriz de coeficientes

X =

x1

...xn

vector (columna) incognita

B =

b1...bn

vector (columna) constante

y la escribimos AX = B.Al igual que para los sistemas de ecuaciones, la ecuacion vectorial homogenea

sera de la forma AX = 0, donde 0 denota al vector cuyas entradas son todas 0.

Ahora habra que dotarla de las operaciones correctas de tal manera que seaequivalente con el concepto de sistema de ecuaciones.

Observacion 2.4. En el Teorema 2.34 vamos a demostrar (formalmente) elsiguiente resultado que muy facil de justificar.

Dado un sistema de ecuaciones

a11x1 + · · ·+ a1nxn = b1. . .

am1x1 + · · ·+ amnxn = bm

y la ecuacion vectorial AX = B como antes, se tiene que α1, . . . , αn es solu-

cion del sistema si y solo si el vector α =

α1

...αn

es solucion de la ecuacion

vectorial.

2.5. Problema. Queremos resolver las ecuaciones vectoriales despejando X =BA , y aquı surge el primer problema ¿que es B

A?

2.2. MATRICES 15

2.2. Matrices

Ya hemos comentado que la idea de arreglos rectangulares de numeros pararesolver sistemas de ecuaciones tiene mas de 2000 anos de antiguedad y de hechofue usada por Gauss para la tecnica de eliminacion. La teorıa moderna formalde matrices tiene sus orıgenes en los trabajos de los matematicos James JosephSilvester 2 y A. Cayley3 durante el siglo XIX.

Definicion 2.6 (Matriz). Sea K un cuerpo y m,n ∈ N. Una matriz de ordenm×n (en este orden) es una arreglo bidimensional de elementos de K dispuestosen filas de m, y columnas de n elementos; es decir,a11 a12 . . . a1n

. . .am1 am2 . . . amn

A los elementos aij los llamaremos las entradas de la matriz y diremos que

dos matrices son iguales si lo son entrada a entrada.

Notacion 2.7. Denotamos con Mm×n (K) al conjunto de las matrices.Los elementos A ∈ Mm×n (K) se suelen escribir en forma abreviada como

Am×n, o bien A = (aij)m×n con aij ∈ K o satisfaciendo alguna propiedad.Para referirnos a las columnas o a las filas de una matriz Am×n podemos

escribir,

A =

A1 . . . An

o bien

− A1 −...

− Am −

,

respectivamente.

2.8. Igualdad de matrices. Por definicion, dos matrices con entradas en uncuerpo K, digamos A = (aij)m×n y B = (bij)m′×n′ seran iguales si y solo si secumple:

1. m = m′ y n = n′.

2James Joseph (Londres, 1814-1897) era su nombre original, al que despues agrego Syl-vester, por razones legales y sociales, al ser judıo. Discıpulo de De Morgan, se graduo porel Trinity College. Tambien hizo la carrera de Derecho, donde conocio a A. Cayley y con elcompartio el estudio de la teorıa de matrices. Fue el segundo presidente de la Sociedad Ma-tematica de Londres y tambien fue miembro de la Acedemia de Ciencias de Parıs. Ademasde su importante contribucion matematica, publico un libro de peomas titulado The Laws ofVerse.

3Arthur Cayley (Richmont, 1821, Cambridge, 1895) fue un estudiante particularmentedestacado en su juventud, ganando premios y honores. Tambien se graduo en Derecho y trabajocon Sylvester en la corte de Lincoln’s Inn durante casi 15 anos, alternando con brillantesresultados de investigacion en matematicas. Finalmente, en 1863, Cayley ingreso como profesoren Cambridge. El introdujo el uso formal y sistematico de las matrices en el estudio de lasecuaciones, las aplicaciones lineales, los operadores, ademas de definir, entre otros, el polinomiocaracterıstico, que estudiaremos mas adelante.

16 CAPITULO 2. MATRICES Y SISTEMAS

2. aij = bij para todo i = 1, . . . ,m y j = 1, . . . , n.

Ejemplos 4. 1. A =

(0 1 23 4 5

)es una matriz de orden 2× 3 con entradas

en Z o bien en C, si se quiere.

2. A =

0 ı π3 4 5

231√

2 5

es una matriz de orden 3× 3 con entradas en C.

3. A =(0√

2 5)

es una matriz de orden 1×3 con entradas en R. Tambienla llamamos vector (fila) y en ese caso seperamos sus entradas por “,”.

4. A =

π55

es una matriz de orden 3 × 1 con entradas en R. Tambien la

llamamos vector (columna).

Algunas otras matrices especiales por la distribucion de sus elementos o porla forma son:

2.9. Matrices cuadradas 1. Diremos que una matriz Am×n es cuadradade orden m, si verifica que m = n, y podemos solo escribir Am.

2. Diremos que una matriz cuadrada A = (aij)m es triangular superior siaij = 0 para i > j.

3. Diremos que una matriz cuadrada A = (aij)m es triangular inferior siaij = 0 para i < j.

4. Diremos que una matriz cuadrada A = (aij)m es diagonal si aij = 0 parai 6= j.

5. Diremos que una matriz diagonal A = (aij)m es constante o escalar c, siaii = c ∈ K con i = 1, . . . ,m (y al ser diagonal aij = 0 para i 6= j).

6. Llamamos matriz identidad de orden m a la matriz diagonal de la forma

Im =

1 0 . . . 0

. . .

. . .

0 . . . 0 1 0 . . . 0

. . .

. . .

0 . . . 0 1

o mas simple Im =

1 0

. . .

0 1

Tambien la podemos describir como A = (aij)m tal que aij = 1 si i = j yaij = 0 en otro caso.

2.2. MATRICES 17

Ejemplos 5. 1. La matriz A =

0 0 11 1 00 0 0

es una matriz cuadrada.

2. La matriz A =

3 0 10 1 00 0 0

es triangular superior.

3. La matriz A =

6 0 00 1 00 2 5

es triangular inferior.

4. La matriz A =

3 0 00 1 00 0 0

es diagonal.

5. La matriz A =

3 0 00 3 00 0 3

es escalar.

2.2.1. Operaciones aritmeticas

Las operaciones aritmeticas de matrices es un tema conocido; vamos a repa-sarlo aprovechando para formalizar y unificar la notacion.

2.10. Suma de matrices. Sea K un cuerpo y A,B ∈ Mm×n(K) que escri-bimos A = (aij)m×n y B = (bij)m×n. La suma de las matrices A y B, quedenotamos A+B se define como

A+B = (cij)m×n tal que cij = aij + bij .

Ejemplos 6. 1. Sean A =

(1 −1 32 8 −5

)y B =

(2 0 70 1 2

). Entonces

A+B =

(3 −1 102 9 −3

)

2. Las matrices A =

(1 −1 32 8 −5

)y B =

(2 00 1

)no se pueden sumar.

Proposicion 2.11. Sea K un cuerpo. El conjunto Mm×n(K), junto con lasuma definida tiene estructura de grupo abeliano.

Demostracion. Es inmediato verificarlo. Notese que el neutro es la matriz 0 =(aij)m×n tal que aij = 0 para todo i = 1, . . . ,m y j = 1, . . . , n, mientras quepara una matriz A = (aij)m×n su opuesto es la matriz −A = (bij)m×n tal quebij = −aij .

18 CAPITULO 2. MATRICES Y SISTEMAS

2.12. Producto de matrices. Sea K un cuerpo, A = (aij)m×n y B =(bij)n×k. El producto de las matrices A y B se define como

A ·B = (cij)m×k tal que cij =

n∑p=1

aipbpj .

Ejemplo 7. Sean A =

(1 −12 8

)y B =

(2 0 70 1 2

). Entonces

A ·B =

(2 −1 54 8 30

)Mientras que el producto B ·A no se puede ejecutar.

Ya hemos comentado las propiedades del producto en (1.12), pero vamos aformalizar.

2.13. Propiedades generales del producto. Sean A,A′ ∈Mm×n, B,B′ ∈Mn×k y C ∈Mk×l matrices con entradas en un cuerpo K. Entonces:

1. El producto es asociativo; es decir A(BC) = (AB)C.

2. El producto distribuye a la suma por los dos lados; es decir A(B + B′) =AB +AB′ y (A+A′)B = AB +A′B.

3. Para toda matriz Am×n se tienen las identidades Am×nIn = Am×n yImAm×n = Am×n.

Demostracion. Se puede verificar directamente. Especialmente se recomiendaprobar la asociatividad como ejercicio.

Observacion 2.14. El producto de matrices cuadradas del mismo orden, aun-que es ejecutable a los dos lados, no tiene la propiedad conmutativa.

Por ejemplo, las matrices A =

(1 00 2

)y B =

(1 21 0

)verifican que AB

y BA son distintos; sin embargo, las matrices A =

(1 00 2

)y B =

(5 00 5

)verifican que AB = BA. Ası que no hay reglas. Se dice entonces que el productono es conmutativo.

Teorema 2.15. Las matrices (Mm (K) ,+, ·) forman un anillo no conmutativo.

Demostracion. Se demuestra de forma directa.

2.16. Producto por un escalar. Sea Am×n una matriz con entradas en uncuerpo K y sea λ ∈ K. Se define el producto por un escalar como

λA = (cij) tal que cij = λaij .

Analogamente se define Aλ.

2.2. MATRICES 19

2.17. Propiedades del producto por un escalar Sean K un cuerpo, λ, µ ∈K y Am×n y Bn×k matrices con entradas en K.

1. Es conmutativo, λA = Aλ.

2. Se tienen las dos propiedades asociativas; a saber, λ(AB) = (λA)B yλ(µA) = (λµ)A.

3. Se tienen las dos propiedades distributivas: λ(A + B) = λA + λB y (λ +µ)A = λA+ µA.

4. Sobre los neutros se tiene 1A = A y λIm es la diagonal constante λ.

Ejemplos 8. 1. Para K = R

3 ·(−2 3 01 −1 3

)=

(−6 9 03 −3 9

).

2. Para K = R y m = 3,

−2 ·

1 0 00 1 00 0 1

=

−2 0 00 −2 00 0 −2

.

2.2.2. Submatrices y matrices en bloques

Sea A =

a11 . . . a1n

. . .am1 . . . amn

∈Mm×n (K).

Definicion 2.18. Una submatriz de A es aquella matriz que se forma eligiendociertas filas y columnas, colocando los elementos en el mismo orden.

Formalmente, si I = {i1, . . . , ip} ⊆ {1, . . . ,m} y J = {j1, . . . , jq} ⊆ {1, . . . , n}entonces

A( IJ ) = (a′kl)p×q tal que a′kl = aikjl .

Observacion 2.19. Para una submatriz A′ de A se escribe A′ = A ( filascolumnas )

Ejemplo 9. Para la matriz A =

1 2 3 42 4 6 83 6 9 12

definimos

A( 1,32,3 ) =

(2 36 9

).

En este caso I = {1, 3}, J = {2, 3} y p = q = 2, en terminos de la definicionanterior.

2.20. Tipos de submatrices Sea Am×n una matriz.

20 CAPITULO 2. MATRICES Y SISTEMAS

1. Decimos que una submatriz A′ es principal si A′ = A( II ); es decir, se elijenlas mismas filas que columnas. Si se quiere abreviar, basta escribir A(I).

2. Decimos que una submatriz principal A(I) es principal sobre la diagonalsi I = {1, . . . , p} con p ≤ m; es decir, el bloque formado por las primerasp filas y columnas.

Ejemplos 10. Consideremos la matriz A =

1 2 3 42 4 6 83 6 9 12

. Entonces

1. A(1, 3) =

(1 33 9

)es una submatriz principal.

2.

3. A(1, 2) =

(1 22 4

)es una submatriz principal sobre la diagonal.

2.21. Matrices en bloques. Dada una matriz A = (aij)m×n podemos consi-

derar una “particion en bloques” de A en submatrices; digamos, A11 = A(

1,...,r1,...,s

),

A12 = A(

1,...,rs+1,...,n

), A21 = A

(r+1,...,m

1,...,s

)A22 = A

(r+1,...,ms+1,...,n

).

Escribimos entonces

A = (Aij) =

(A11 A12

A21 A22

)o bien dibujar

A =

(A11 A12

A21 A22

)=

a11 · · · a1s

. . .ar1 · · · ars

a1s+1 · · · a1n

. . .ars+1 · · · arn

ar+1 1 · · · ar+1 s

. . .am1 · · · ams

ar+1s+1 · · · ar+1n

. . .ams+1 · · · amn

Observacion 2.22. Dos matrices definidas en bloques A = (Aij) y B = (Bkl)se podran multiplicar siempre que, primero, por supuesto, el producto, AB tengasentido y luego que cada producto AijBjk tambien tenga, a su vez, sentido. Esdecir, que no se requiere ninguna regla en especial, solo que el producto seaejecutable, en cuyo caso se obtendra una matriz con los bloques adecuados.

Ejemplo 11. Considerense las matrices

A =

1 2 −3 −4 52 −4 6 8 −10−3 6 9 −12 15

y B =

1 2−3 45 −6−7 89 −10

.

2.2. MATRICES 21

Partimos en bloques que se puedan multiplicar

A =

1 2 −3 −4 52 −4 6 8 −10−3 6 9 −12 15

= (A11 A12) y B =

1 2−3 45 −6−7 89 −10

=

(B11

B21

)

o bien

A =

1 2 −3 −4 52 −4 6 8 −10−3 6 9 −12 15

=

(A11 A12

A21 A22

)que tambien se puede multiplicar por B con su particion.

2.23. La traspuesta de una matriz Sea A = (aij)m×n. Se define la tras-

puesta de A como la matriz At =(a′ij)n×m tal que a′ij = aji.

Ejemplo 12. Si A es la matriz

A =

1 2 −3 −4 52 −4 6 8 −10−3 6 9 −12 15

entonces At =

1 2 32 −4 6−3 6 9−4 8 −125 −10 15

2.24. Propiedades de la matriz traspuesta. Sean K un cuerpo, y Am×n,Bm×n y Cn×k matrices con entradas en K. Entonces

1. (At)t

= A.

2. (A+B)t

= At +Bt

3. (AC)t

= CtAt.

Demostracion. Las dos primeras propiedades son inmediatas.Para la tercera, si denotamos A = (aij)m×n, C = (cij)n×k entonces AC =

(dij)m×k tal que dij =∑nl=1 ailclj , de donde (AC)t =

(d′ij)k×m tal que d′ij = dji.

Ası,

d′ij = dji =

n∑l=1

ajlcli =

n∑l=1

a′ljc′il =

n∑l=1

c′ila′lj

De aquı se desprende la igualdad (AC)t = CtAt.

2.25. Matriz simetrica y anti simetrica.

1. Una matriz simetrica es aquella que coincide con su traspuesta; es decir,toda matriz A, que verifique la igualdad A = At.

2. Una matriz antisimetrica es aquella que coincide con el opuesto de sutraspuesta; es decir, toda matriz A, que verifique la igualdad A = −At.

22 CAPITULO 2. MATRICES Y SISTEMAS

Ejemplos 13. 1. La matriz A =

1 0 20 −2 −32 −3 1

es simetrica.

2. La matriz A =

0 1 2−1 0 −3−2 3 0

es simetrica.

Tarea 1. Sobre las siguientes afirmaciones se pide deterinar de forma justifi-cada si son verdaderas o falsas.

1. Si una matriz A es simetrica entonces es cuadrada.

2. Si una matriz es antisimetrica entonces los elementos de su diagonal sonnulos.

2.26. La traza de una matriz. Sea A = (aij)n(cuadrada) una matriz sobreun cuerpo K. La traza de A es el escalar

tr (A) =

n∑i=1

aii.

2.27. Propiedades de la traza. Sean A y B matrices del mismo orden.Entonces

1. tr (A+B) = tr (A) + tr (B).

2. tr (A) = tr (At).

3. tr (AAt) =∑ni=1

∑nj=1 a

2ij.

Demostracion. Las dos primeras afirmaciones son triviales.Para la tercera, si hacemos A = (aij)m×n, con At =

(a′ij)m×n, tal que

a′ij = aji, entonces AAt = (cij)m×m tal que cij =∑nl=1 aila

′lj , de donde

cii =

n∑l=1

aila′li =

n∑l=1

ailail =n∑l=1

a2il

de donde se desprende de inmediato la igualdad.

2.28. Matrices invertibles. Sea An×m una matriz con entradas en un cuerpoK. Denotamos con I a la matriz identidad sin especificar el orden.

1. Decimos que A es invertible por la izquierda o tiene inversa por laizquierda si existe una matriz X tal que XA = I.

2. Decimos que A es invertible por la derecha o tiene inversa por la derechasi existe una matriz Y tal que AY = I.

3. Decimos que A es invertible (o tiene inversa) si existe una matriz B talque AB = BA = I.

2.2. MATRICES 23

Observacion 2.29. Notese que el que A tenga inversa implica conmutatividaden el producto.

Se puede comprobar facilmente que si A tiene inversa entonces n = m; esdecir, es cuadrada.

Ejemplos 14. 1. No toda matriz tiene inversa por algun lado. Por ejemplo,

cualquier matriz A 6= I tal que A2 = A, como

(1 00 0

), no puede tener

inversa (vease la Tarea 2 mas abajo).

2. Hay matrices que tienen inversa por un lado y por el otro no. Por ejemplo,

A =

(1 0 00 1 0

)y B =

1 00 10 0

se tiene que AB = I2, la identidad de 2 × 2; pero BA no es identidadalguna. Aun mas, se puede ver (se desprende de la Tarea 2 mas abajo)que A no puede tener inversa por la izquierda.

Tarea 2. Probar que si una matriz A, verifica que AB = 0, con B 6= 0, entoncesA no puede tener inversa por la izquierda.

Proposicion 2.30. Sea An×m una matriz con entradas en un cuerpo K.

1. Si A es invertible por la izquierda, con XA = I entonces X tiene ordenm× n e I tiene orden m.

2. Si A es invertible por la derecha, con AY = I entonces Y tiene ordenm× n e I tiene orden n.

3. Si A es invertible y se tiene XA = I y AY = I entonces m = n yademas, X = Y . Es decir, existe una unica matriz, digamos Z tal queZA = AZ = Im.

Demostracion. Las dos primeras afirmaciones son inmediatas de la definicionde producto. La ultima, inmediata de la propiedad asociativa.

Observaciones 2.31. 1. Los apartados (1) y (2) de la proposicion anteriornos plantean la posibilidad de despejar en AX = B, contando solo con lainversa por la izquierda.

2. Si una matriz Am×n tiene inversas Xn×m, Yn×m por la izquierda y derechaentonces X = Y , porque X = XIm = X(AY ) = (XA)Y = InY = Y .

3. Por otra parte, hay una oregunta que no podemos contestar por ahora:Dada una matriz Am×n, con m 6= n ¿es posible que exista una matrizXn×m tal que XA = In y AX = Im?

Tarea 3. 1. Dar un ejemplo de una matriz A que tenga dos inversas por laizquierda (derecha) diferentes.

24 CAPITULO 2. MATRICES Y SISTEMAS

2. Probar que si A es invertible y se tiene XA = I y X ′A = I entoncesX = X ′ y lo mismo ocurre al otro lado.

Notacion 2.32. Para toda matriz invertible A, denotamos a la unica inversacon el sımbolo A−1.

Proposicion 2.33 (Mas propiedades de la inversa).

1. Si A y B tienen inversa entonces AB (si existe) tiene inversa. En este

caso se verifica (AB)−1

= B−1A−1.

2. Si A tiene inversa entonces At tiene inversa y verifica (At)−1

=(A−1

)t.

Demostracion. Inmediatas de la definicion de producto y de inversa.

2.3. Sistemas de ecuaciones lineales

Ya hemos comentado los orıgenes de su consideracion. El estudio modernode los sistemas de ecuaciones se inicio con G. W. Leibniz4 en 1693, al introducirla nocion de determinante, aunque nunca lo publico. Varios autores desarrolla-ron lo que llamamos hoy en dıa el Metodo de Cramer, que comentaremos masadelante. Se atribuye a L. Euler5 el observar que los sistemas pueden no tenersolucion unica y proponer la idea de dependencia de unas ecuaciones a otras,pero no fue sino hasta 1811, cuando C. F. Gauss6 estudiaba el calculo de laorbita de un asteriode, que se introdujo el procedimiento sistematico que hoyllamamos metodo de eliminacion gaussiano. En 1888 el geodesista aleman W.

4Gottfried Wilhelm von Leibniz (Leipzig, 1646, Hannover 1716) ingreso en la Universidadde Leipzig a los 14 anos, siendo un estudiante excepcional. Estudio filosofıa, matematicas yderecho. Diplomatico, polıtico y gran matematico, se cuentan entre los temas de sus contri-buciones a la matematica, el algebra lineal y la geometrıa y el calculo diferencial e integral.Valga como pequena muestra, el hecho de que la notacion de integral

∫f(x)dx de debe a el.

5Leonhard Euler (Basilea, 1707, San Petersburgo, 1783) tambien ingreso a los 14 anos enla Universidad de Basilea, en Suiza, donde comenzo los estudio de teologıa, griego y hebreo,pero su inclinacion por la matematica y su brillante inteligencia hicieron que su padre lepermitiera cambiar a los estudios de matematicas, siendo el alumno mas destacado del famosomatematico J. Bernoulli. Euler fue uno de los matematicos mas prolıficos de la historia conmas de 850 trabajos relevantes en muchas areas de matematicas como algebra, geometrıa,analisis matematico y ecuaciones diferenciales, entre otras. En una de las entradas de nuestrafacultad podemos encontrar la famosa identidad de Euler, eπı + 1 = 0, que seguramente secomentara en la asignatura de Conjuntos y Numeros.

6Carl Friedrich Gauss (Brunswick, 1777, Gottingen, 1855) fue desde nino un genio reco-nocido y muy brillante. A los 21 anos resolvio un problema clasico de geometrıa; a saber,la construccion del polıgono regular de 17 lados con regla y compas. A los 22 anos presentosu disertacion doctoral sobre el Teorema Fundamental del Algebra. En 1801 publico una delas obras mas famosas de la matematica, Disquisitiones Arithmeticae, dedicada sobre todoa la Teorıa de los Numeros. Grandes contribuciones, ademas de la anterior, en geomtrıa noeuclıdea, estadıstica, analisis matematico y fısica, entre otras, le han hecho conocido como “ElPrıncipe de las Matematicas”.

2.3. SISTEMAS DE ECUACIONES LINEALES 25

Jordan7 realizo la variacion que conocemos como el metodo de Gauss-Jordan.

Una vez que tenemos formalizada la definicion y las propiedades basicas delas matrices, vamos a probar el resultado mencionado en la Observacion 2.4.

Teorema 2.34. Sea

a11x1 + · · ·+ a1nxn = b1. . .

am1x1 + · · ·+ amnxn = bm

un sistema de ecuaciones con coeficientes en un cuerpo K, y se considera AX =B la ecuacion vectorial habitual. Entonces los valores xi = ki ∈ K con i =1, . . . , n forman una solucion de sistema si y solo si el vector v = (k1, . . . , kn)es solucion de la ecuacion vectorial.

Es decir, salvo contexto, tienen exactamente las mismas soluciones.

Demostracion. Inmediata de la definicion de producto de matrices.

Vamos a establecer ahora la forma fundamental que tienen las soluciones deun sistema de ecuaciones.

Teorema 2.35. Con el producto de matriz por vector habitual, si un sistemade ecuaciones AX = B tiene solucion, esta ha de ser de la forma

X = X0 + Y

donde X0 es una solucion particular de AX = B e Y es solucion de la ecuacionhomogenea AY = 0.

Demostracion. Supongamos que tenemos una solucion, digamos X, con AX =B y sea X0 una determinada solucion particular (que puede ser la propia X).Hacemos Y = X−X0 y se tiene que X = X0 +Y . Ademas AY = A(X−X0) =AX −AX0 = B −B = 0.

Volvemos entonces a la ecuacion AX = B y el problema de despejar X = BA .

Con las operaciones ya definidas antes.Es claro que la expresion X = B

A implica que A−1B = BA−1, lo cual, asu vez, implica conmutatividad; sin embargo, conocemos ejemplos en los que laigualdad anterior no se tiene. Ademas, hemos analizado la existancia de inversos.

Ası que no tiene sentido dicha escritura, pero tampoco es que haga falta.Basta que se exista, A−1B, lo cual, sabemos que se tendra unas veces y otrasno. Entonces nos inclinamos por concluir tan solo que si existe una matriz C talque CA = I entonces la ecuacion AX = B tendra solucion.

El siguiente ejemplo nos muestra que eso tampoco es suficiente.

7Wilhelm Jordan (1842, Ellwangen, 1899, Hannover) era geodesico y su unica aportacion ala matematica es su variante del metodo de Gauss, que uso para resolver sistemas de ecuacionesinvolucradas en el estudio de la agrimensura, o topografıa tridimensional. Como geodesico,parece que fue muy prolıfico y su obra mas famosa fue un Manual de Geodesica.

26 CAPITULO 2. MATRICES Y SISTEMAS

Ejemplo 15. Observemos la siguiente situacion. Si A =

1 00 10 0

, entonces

claramente A no es cuadrada pero tiene inverso por la izquierda. Llamemos Ca un inverso (hay al menos dos), ası que CA = 12×2.

Si ahora B =

001

entonces, para resolver AX = B, simplemente hacemos

X = CB. ¿Que ocurre? Sale X = 0 y sabemos que no puede ser.

El problema es que hemos supuesto que los sistemas son equivalentes y nolo son. Luego las equivalencia solo seran posibles para sistemas compatibles; esdecir, si tengo Av = B, con v ∈ Kn entonces v = CB; pero en este caso, nohay vector; el sistema es incompatible. Luego, cuando se trata de matrices queno son invertibles es indispensable saber de antemano si el sistema tiene o nosolucion.

Es decir, que solo podemos asegurar las dos afirmaciones siguientes. Se dejacomo ejercicio demostrarlas.

Tarea 4. 1. Si A tiene una inversa por la izquierda, digamos C, y AX = Btiene solucion, digamos X0, entonces X0 = CB.

2. Si A tiene una inversa entonces AX = B tiene solucion X = A−1B.

Pero esto, claramente, describe menos de lo que sabemos. Por ejemplo,

AX = 0 siempre tiene solucion. Tambien ocurre que si A =

1 00 10 0

y B =

100

entonces AX = B tiene solucion unica X =

(10

)y sin embargo A no es cua-

drada.

Finalmente, si A =

(1 10 0

)y B =

(10

)entonces la ecuacion AX = b tiene

una infinidad de soluciones.Necesitamos herramientas nuevas para estudiar los sistemas de ecuaciones.

Comenzamos con la clasificacion, que se debe a Euler (vease la p. 24).

2.3.1. Clasificacion

Sistemas

Compatibles(tienen solucion)

{Determinados (unica)Indeterminados (no unica)

Incompatibles(no tienen solucion)

Antes de comenzar con los metodos, vamos a ver otros ejemplos sobre aritmeti-ca de matrices.

2.4. EL METODO DE GAUSS 27

Ejemplos 16. 1. Sabemos que en numeros reales ocurre que a 6= 0 implicaa2 > 0. Pero existen matrices A tales que A 6= 0, pero A2 = 0. Por

ejemplo, A =

(0 01 0

)

2. En numeros reales ab = 0 implica ba = 0. Pero si A =

(1 11 1

)y B =(

1 1−1 −1

)entonces AB = 0 pero BA 6= 0.

3. En numeros reales, los unicos numeros a tales que a2 = 1 son 1 y -1. Enmatrices hay mas. Algunas son,(

1 00 1

),

(−1 00 −1

),

(0 11 0

),

(0 −1−1 0

)4. Hay matrices cuyo producto es muy pecualiar,

A =

(0 01 0

)y B =

(1 00 0

)verifican que AB = A pero BA = 0. B es identidad por la derecha para Apero la anula por la izquierda.

2.4. El metodo de Gauss

Comenzamos con la definicion de sistemas de ecuaciones equivalentes.

Definicion 2.36. Dos sistemas de ecuaciones (escritos en ecuacion vectorial)AX = B y A′X = B′ decimos que son equivalentes si tienen exactamente lasmismas soluciones.

Por ejemplo, para Am×nX = B, si Em es invertible entonces EAX = EBes equivalente.

La idea de este metodo es partir de un sistema de ecuaciones y luego dellevar a cabo algunas operaciones que llamaremos operaciones elementales cons-truiremos otro sistema, equivalente (en el sentido de que tienen las mismassoluciones), que sea mas manejable para su clasificacion y en caso de sercompatible, encontrar las soluciones.

Vamos a comenzar con la descripcion de las operaciones elementales por fila;de forma completamente analoga se tienen las mismas operaciones por columna.

2.37. Operaciones elementales en sistemas de ecuaciones.

1. Intercambiar dos ecuaciones.

2. Multiplicar una ecuacion por un escalar no nulo.

28 CAPITULO 2. MATRICES Y SISTEMAS

3. Sumar a una ecuacion un multiplo escalar de otra.

Mas adelante demostraremos que dado un sistema de ecuaciones el nuevosistema que se obtiene al aplicar una operacion elemental es equivalente.

Ejemplo 17. Consierese el sistema

3x+ y = 5

x+ 2y = 1

que es compatible determinado, con solucion x = 95 e y = − 2

5 . Entonces

1. El sistema

x+ 2y = 1

3x+ y = 5

obtenido de intercambiar las dos ecuaciones es equivalente.

2. El sistema

3x+ y = 5

−3x− 6y = −3

obtenido de multiplicar la segunda ecuacion por −3, es equivalente.

3. El sistema

−5y = 2

x+ 2y = 1

obtenido de multiplicar la segunda ecuacion por −3 y sumarla a la primera,es equivalente.

2.4.1. Operaciones elementales y ecuaciones vectoriales.

Queremos trasladar la idea de operacion elemental en un sistema de ecua-ciones a una ecuacion vectorial; es decir, de la forma AX = B. Para fijar ideas,vamos a extender el ejemplo anterior.

Ejemplos 18. Consierese el sistema del Ejemplo 17

3x+ y = 5

x+ 2y = 1.

con ecuacion vectorial (3 11 2

)(xy

)=

(51

)Entonces

2.4. EL METODO DE GAUSS 29

1. El sistema

x+ 2y = 1

3x+ y = 5

obtenido de intercambiar las dos ecuaciones tiene ecuacion vectorial(1 23 1

)(xy

)=

(15

)es decir, se han intercambiado las filas de las matrices A y B, no ası lasde X.

2. El sistema

3x+ y = 5

−3x− 6y = −3

obtenido de multiplicar la segunda ecuacion por −3, tiene ecuacion vecto-rial (

3 1−3 −6

)(xy

)=

(5−3

)donde se puede ver que se han multiplicado por −3 la fila 2 en las matricesA y B, mientras que X no sufre cambio alguno.

3. El sistema

−5y = 2

x+ 2y = 1

obtenido de multiplicar la segunda ecuacion por −3 y sumarla a la primera,tiene ecuacion vectorial (

0 −51 2

)(xy

)=

(21

)donde se puede comprobar que ha obtenido de multiplicar la la segunda filade A y B por −3 y sumarla a la primera, y como siempre X permaneceigual.

Formalmente se tiene

2.38. Operaciones elementales por fila en matrices.

1. Intercambiar dos filas.

2. Multiplicar una fila por un escalar no nulo.

3. Sumar a una fila un multiplo escalar de otra.

30 CAPITULO 2. MATRICES Y SISTEMAS

Proposicion 2.39. Se considera el sistema de ecuaciones con coeficientes enun cuerpo K,

a11x1 + · · ·+ a1nxn = b1. . .

am1x1 + · · ·+ amnxn = bm

y la ecuacion vectorial AX = B, determinada por el sistema.Entonces el nuevo sistema obtenido por una toda operacion elemental del sis-

tema original tiene por nueva ecuacion vectorial aquella donde a los coeficientesA y B se les ha aplicado la correspondiente operacion elemental por filas.

Demostracion. Es directo haciendo las cuentas para cada operacion elemental.

Una vez establecida la relacion, vamos a ver las operaciones elementales comooperaciones de aritmetica de matrices en la ecuacion vectorial.

Definicion 2.40. Una matriz elemental es aquella que se obtiene al aplicar ala identidad una operacion elemental.

Observacion 2.41. La forma que tienen las matrices elementales

1. Matriz de intercambio de filas i0 y i1 (y de columnas)

E = (eij) tal que

ei0i1 = 1, ei1i0 = 1

eii = 1 si i 6= i0, i1

0 resto.

2. Matriz de multiplicar la fila (columna) i0 por un escalar k 6= 0

E = (eij) tal que

ei0i0 = k

eii = 1 si i 6= i0

0 resto.

3. Matriz de sumar un multiplo de la fila (columna) i0, digamos k, a la filai1.

E = (eij) tal que

ei1i0 = k

eii = 1

0 resto.

Ejemplo 19. Vamos a ver el caso n = 3.

1. La matriz elemental de intercambiar las filas 1 y 3 es0 0 10 1 01 0 0

.

2.4. EL METODO DE GAUSS 31

2. La matriz elemental de multiplicar la fila 2 por −3 es1 0 00 −3 00 0 1

.

3. La matriz elemental de multiplicar la fila 1 por −4 y sumarla a la segundafila es 1 0 0

−4 1 00 0 1

.

Observacion 2.42. Todas las matrices elementales tienen inversa y la inversaes una matriz elemental que corresponde con la operacion elemental contraria.

Proposicion 2.43. Toda operacion elemental por fila en una matriz A es elresultado de multiplicar la matriz A por la adecuada matriz elemental por laizquierda. (Columnas, por la derecha.)

Demostracion. Vamos a hacer la demostracion para una de las operaciones ele-mentales por fila y el resto se deja como ejercicio.

Sea A = (aij) y sea A′ la matriz que resulta de intercambiar la fila i0 con lafila i1. Entonces

A′ =(a′ij)

tal que

a′i0j = ai1j

a′i1j = ai0j

a′ij = aij resto.

Sea E la matriz elemental de intercambio de filas,

E = (eij) tal que

ei0i1 = 1, ei1i0 = 1

eii = 1 si i 6= i0, i1

0 resto.

Ahora hacemos EA = (cij) tqcij =∑np=1 eipapj .

Se afirma que EA = A′.

ci0j =

n∑p=1

ei0papj = ei0i1ai1j = ai1j = a′i0j

ci1j =

n∑p=1

ei1papj = ei1i0ai0j = ai0j = a′i1j

Para i 6= i0 y j 6= i1

cij =

n∑p=1

eipapj = eiiaij = aij = a′ij

32 CAPITULO 2. MATRICES Y SISTEMAS

Ejemplo 20. Vamos a volver al Ejemplo 19

1. La matriz elemental de intercambiar las filas 1 y 3 es0 0 10 1 01 0 0

Y ahora veamos como actua0 0 1

0 1 01 0 0

1 2 34 5 67 8 9

=

7 8 94 5 61 2 3

2. La matriz elemental de multiplicar la fila 2 por −3 es1 0 0

0 −3 00 0 1

Y ahora veamos como actua1 0 0

0 −3 00 0 1

1 2 34 5 67 8 9

=

1 2 3−12 −15 −18

7 8 9

3. La matriz elemental de multiplicar la fila 1 por −4 y sumarla a la segunda

fila es 1 0 0−4 1 00 0 1

Y ahora veamos como actua 1 0 0

−4 1 00 0 1

1 2 34 5 67 8 9

=

1 2 30 −3 −67 8 9

2.44. Forma escalonada

1. Un pivote es una entrada no cero tal que las entradas anteriores en lafila son cero.

2. Decimos que una matriz esta en forma escalonada si:

a) Las filas cero estan al final.

b) Las entradas posteriores por columna a un pivote son cero y anterio-res al pivote (si existe) de la fila siguiente.

2.45. Forma escalonada reducida Decimos que una matriz esta en formaescalonada reducida si:

2.4. EL METODO DE GAUSS 33

1. Esta en forma escalonada.

2. Las entradas anteriores por columna a un pivote son cero.

Observacion 2.46. Sea Am×n una matriz, con un elemento aij 6= 0. Entoncesexiste una matriz producto de matrices elementales E tal que la columna j-esimade EA es

EAj =

a1j

...1(lugar ij)

0...0

.

y ademas, A

(1, . . . i− 11, . . . , n

)= EA

(1, . . . i− 11, . . . , n

), siempre que i− 1 ≥ 1.

Efectivamente, basta multiplicar A por la matriz producto de elementales

E =

1. . . 0

1aij

−ai+1j

aij1

0...

. . .

−amjaij1

.

Observacion 2.47. Notese que es posible hacer un proceso analogo (por fila)para los elementos anteriores en la columna de aij .

Teorema 2.48. En toda matriz es posible llegar por medio de operaciones ele-mentales por fila a la forma escalonada y a la forma escalonada reducida.

Demostracion. Sea A una matriz arbitraria de m × n. Si la matriz es cero nohay nada que hacer. Supongase que A 6= 0.

Primero vamos a obtener la forma escalonada. De la matriz A sea k1 laprimera columna no cero. Sea (i1k1) el primer lugar no cero de dicha columna.Sea P1 la matriz elemental que intercambia las filas primera e i1-esima de A.entonces la matriz PA tiene la primera columna no cero (P1A)k1 y el primerelemento no cero en la columna esta en el lugar (1k1) . Ahora siguiendo laObservacion anterior, existe E1 tal que la matriz E1P1A tiene las primerask1 − 1 columnas cero, y la columna k1 es de la forma

(E1P1A)k1 =

10...0

.

34 CAPITULO 2. MATRICES Y SISTEMAS

Ahora consideramos la submatriz E1P1A

(2, . . . ,m

k1 + 1, . . . n

). Si tiene sentido

y es distinta de cero, entonces habra una primera columna que no sea cero.Digamos que es k2, y el primer elemento no cero en la columna esta en el lugar(i2k2) . Vista en la matriz E1P1A la columna es k1 + k2 y el elemento no ceroesta en el lugar (i2 + 1, k1 + k2) . Sea P2 la matriz que intercambia las filas 2 ei2 + 1. Ahora la columna k1 + k2 de P2E1P1A tiene un elemento no cero en lafila 2, y podemos aplicar otra vez la observacion para obtener

(E2P2E1P1A)k1+k2=

algo

10...0

.

Ası sucesivamente se procede hasta terminar, lo cual tiene que ocurrir, por-que k1 < k1 + k2 < k1 + k2 + k3 debe llegar a n. Notese que si se tienek1 < k1 + k2 < . . . < k1 + · · · + kr = n, (donde termina el proceso) enton-ces las primeras r filas de (

∏EiPi)A tienen todos los pivotes, luego es una

forma escalonada.Para la forma escalonada reducida, procedemos de la siguiente forma. Una

vez que se tiene la forma escalonada de A, digamos B. Entonces por la ultimaobservacion podemos hacer cero en los elementos anteriores por columna a lospivotes, comenzando por el ultimo pivote.

Ejemplo 21. Hacemos el proceso de reduccion y escribimos entre parentesis lanotacion para la correspondiente matriz elemental

0 1 2 0 30 4 5 0 60 0 0 0 00 2 1 0 0

3a↔4a

∼ (P1)

0 1 2 0 30 4 5 0 60 2 1 0 00 0 0 0 0

(−4)1a+2a→2a

∼ (E1)

0 1 2 0 30 0 −3 0 −60 2 1 0 00 0 0 0 0

(−2)1a+3a→3a

∼ (E2)

0 1 2 0 30 0 −3 0 −60 0 −3 0 −60 0 0 0 0

2a+3a→3a

∼ (E3)

0 1 2 0 30 0 −3 0 −60 0 0 0 00 0 0 0 0

−13

3a

∼ (E4)

0 1 2 0 30 0 1 0 20 0 0 0 00 0 0 0 0

donde

P1 =

1 0 0 00 1 0 00 0 0 10 0 1 0

, E1 =

1 0 0 0−4 1 0 00 0 1 00 0 0 1

, E2 =

1 0 0 00 1 0 0−2 0 1 00 0 0 1

,

E3 =

1 0 0 00 1 0 00 1 1 00 0 0 1

, E4 =

1 0 0 0

0 −13

0 00 0 1 00 0 0 1

,

2.4. EL METODO DE GAUSS 35

Corolario 2.49. Para toda matriz A, existen matrices invertibles, producto dematrices elementales, E,F tales que EA es la forma escalonada de A y

EAF =

1. . . 0

10

0. . .

0

donde la cantidad de 1 en la diagonal, coincide con la cantidad de pivotes quese obtienen al hacer la forma escalonada por filas de A.

Demostracion. Una vez que se tiene la forma escalonada reducida por filas, seprocede a hacer la forma escalonada por columnas.

2.50. Metodo de Gauss Partiendo de un sistema de ecuaciones, se conside-ra la matriz de coeficientes A, la matriz de los terminos independientes B, y lamatriz ampliada (A | B). Se obtiene la forma escalonada de la matriz A, apli-cando las mismas operaciones elementales a B. (A | B) ∼ · · · ∼ (EA | EB).Se resuelve el sistema (EA)X = (EB) , y como veremos ahora, ambos sistemastiene las mismas soluciones.

Demostracion. AX = B ∼ · · · ∼ EAX = EB. Si x0 es solucion de EAX = EBentonces como E tiene inversa x0 es solucion de AX = B y viceversa.

Observacion 2.51. El metodo de Gauss-Jordan es una variante mınima delanterior donde a diferencia del primero, se hace la reduccion hasta obtener laforma escalonada reducida.

Ejemplo 22.

x1 + x3 = 1

x1 + x2 + x3 + x4 = 0

x2 + x4 = 1.

Se considera entonces la matriz ampliada de coeficientes y reducimos 1 0 1 0 11 1 1 1 00 1 0 1 1

∼ · · · ∼ 1 0 1 0 1

0 1 0 1 −10 0 0 0 0

obteniendo el sistema

x1 + x3 = 1

x2 + x4 = −1.

36 CAPITULO 2. MATRICES Y SISTEMAS

2.4.2. Aplicaciones de la reduccion en la aritmetica de ma-trices

Vamos a ver como la reduccion de matrices nos permite hacer una aritmeticamuy fina sobre las matrices y desentranar su naturaleza. Solo nos ocuparemosdel fenomeno de la inversa. Recordemos que la definicion de inversa para unamatriz A exige que exista C tal que AC = CA = I. El siguiente resultadocompleta la Proposicion 2.30 y los parrafos siguientes.

Proposicion 2.52. Si Anm es tal que las ecuaciones AX = In e Y A = Imtienen solucion entonces n = m y X = Y .

Demostracion. Primero, si n < m consideremos la igualdad Y A = Im. Sabemosque existe una matriz producto de elementales F tal que AF = (M |0), donde

el bloque (0) al menos es una fila, pues n < m. Si llamamos e =

0...01

se tiene,

AFe = 0, de donde Y AFe = 0 y ası Fe = 0, lo cual es imposible porque e 6= 0y porque F es invertible.

El otro caso es analogo y se deja como ejercicio.

Recordemos que la Proposicion 2.30 nos dice que si AC = CA = I entoncesA y C son cuadradas, del mismo orden. Como tarea, el siguiente resultado.

Teorema 2.53. Sea An×n una matriz cuadrada. Son equivalentes:

1. A es invertible.

2. AX = B es sistema compatible determinado para todo Bn×1.

3. AX = 0 es sistema compatible determinado.

4. En la forma escalonada de A, todas las filas tienen pivote.

5. A es producto de matrices elementales.

Demostracion. [1⇒ 2]. Evidente, X = A−1B.[2⇒ 3] Caso particular.[3⇒ 4] Supongamos que al hacer la forma escalonada de A obtenemos r < n

pivotes. Entonces sabemos que existen matrices E,F tales que

EAF =

(Ir×r 0

0 0

)n×n

.

Llamemos e =

0...01

. Observese que EAFe = 0; pero Fe 6= 0, porque F es

invertible. Luego AFe = 0. Hacemos X = Fe. Entonces X 6= 0, pero AX = 0,contradiciendo la hipotesis de que el sistema homogeneo era determinado.

2.4. EL METODO DE GAUSS 37

[4⇒ 5] Por hipotesis debe de ocurrir que EAF = I. Entonces A = E−1F−1.Sabemos que E y F son producto de elementales (recordemos que la propia ma-triz elemetal afecta a fila o columnas solo en funcion del lado donde multiplica),ası que E−1F−1 tambien.

Tambien se deduce el resultado del hecho de que, al tener todas la filas pivotela forma escalonada reducida es la identidad.

[5⇒ 1] Inmediato del hecho de que el producto de invertibles es invertible.

El siguiente resultado es una notabilısima muestra de la aritmetica de lasmatrices finitas cuadradas sobre un cuerpo.

Corolario 2.54. Sean A,B matrices cuadradas. AB = I si y solo si BA = I.

Demostracion. Si AB = I entonces BX = 0 es SCD, luego B es invertible yABB−1 = B−1 de donde A = B−1.

Observacion 2.55. Todo sistema homogeneo es compatible.

Proposicion 2.56. Sea An×r. Si n < r entonces AX = 0 es SCI.

Demostracion. Sabemos que existen matrices invertibles E,F tales que

EAF =

( [I 00 0

]n×n

0n×(r−n)

)n×r

Luego hacemos C =

0...1

y se tiene EAFC = 0 porque r−n > 0. Entonces

A (FC) = 0, donde FC 6= 0, porque C 6= 0 y F es invertible.

Recordemos el Teorema 2.35

Teorema. Si un sistema de ecuaciones AX = B tiene solucion,esta ha de ser de la forma

X = X0 + Y

donde X0 es una solucion particular de AX = B e Y es solucion dela ecuacion homogenea AY = 0.

Las demostraciones de los siguientes resultados se dejan de tarea.

Corolario 2.57. Sea Am×n una matriz con entradas en algun cuerpo. Sonequivalentes:

1. AX = 0 es sistema compatible determinado.

38 CAPITULO 2. MATRICES Y SISTEMAS

2. Si AX = C es compatible entonces es determinado.

Demostracion. Tarea.

Corolario 2.58. Sea Am×n una matriz con entradas en algun cuerpo. Sonequivalentes:

1. AX = 0 es sistema compatible indeterminado.

2. Si AX = C es compatible entonces es indeterminado.

Demostracion. Tarea.

Ejemplo 23 (Los grados de libertad). Para el sistema del Ejemplo 22

x1 + x3 = 1

x1 + x2 + x3 + x4 = 0

x2 + x4 = 1.

Se puede comprobar que en este caso

A =

1 0 1 01 1 1 10 1 0 1

, E =

1 0 0−1 1 01 −1 1

y F =

1 0 −1 00 1 0 −10 0 1 00 0 0 1

.

Volvamos a la matriz ampliada de coeficientes 1 0 1 0 11 1 1 1 00 1 0 1 1

∼ · · · ∼ 1 0 1 0 1

0 1 0 1 −10 0 0 0 0

obteniendo el sistema

x1 + x3 = 1

x2 + x4 = −1.

Hemos aprendido que este sistema tiene “dos grados de libertad” y que lasolucion general haciendo x3 = λ y x4 = µ es de la forma

x1 = 1− λx2 = −1− µ.

Por otra parte, la solucion general de la ecuacion homogenea es

(λ, µ,−λ,−µ)

A lo largo del curso trataremos de formalizar y dar fundamento a la expresion“grados de libertad” relacionado con la ecuacion homogenea.

Capıtulo 3

Espacios vectoriales

La genesis del concepto de espacio vectorial (abstracto) la encontramos enla geometrıa con los trabajos de Descartes. En cuanto al estudio de los espa-cios vectoriales desde el punto de vista del algebra abstracta (el algebra lineal),este se inicia con Wessel1 en 1797 y Gauss en 1831, al interpretar a C comopuntos de coordenadas en el plano. A partir de ahı se interpretan como espaciovectorial y se introduce la nocion de numeros hipercomplejos, como por ejeml-po, los cuaterniones. El punto de vista moderno se debe principalmente a lascontribuciones de Grassmann2, en 1862. En el libro de Peano3 Calcolo geome-trico secondo l’Ausdehnungslehre di H. Grassmann preceduto dalle operazionidella logica deduttiva, se establece su estudio de forma axiomatica. TambienFrobenius4 tiene contribuciones importantes en las nociones de dependencia e

1Caspar Wessel nacio en 1745 en Vestby, Noruega y murio en 1818 en Copenhague, Di-namarca. Una vez terminada su educacion preuniversitaria, Wessel hizo sus estudios uni-versitarios en la Universidad de Copenhague, pues en aquellos tiempos, Noruega no tenıauniversidades. Trabajo toda su vida como topografo y en esa labor desarrollo muchos meto-dos matematicos. Wessel solo escribio un artıculo dedicado exclusivamente a las matematicas,en que desarrolla el punto de vista geometrico de los numeros complejos (como puntos en elplanos con coordenadas polares y trigonometricas) que despues fue redescubierto por Argandy Gauss.

2Hermann Grassmann (1809 Stettin, Prussia (actualmente, Szczecin, Polonia), 1809-mismositio 1877. Estudion Teologıa y despues Matematicas en la Universidad de Berlın. En 1831inicio su carrera como profesor, aunque nunca fue profesor universitario. Aun cuando tienecontribuciones notables al estudio del Algebra lineal y las llamadas Algebras exteriores, Grass-mann estuvo dedicado basicamente a la ensenanza y sus esfuerzos por hacer comprensible lamatematica lo llevaron a desarrollar y sistematizar las tecnicas del calculo vectorial en su obraDie lineale Ausdehnungslehre, ein neuer Zweig der Mathematik (teorıa de la extension lineal,una nueva rama de las matematicas).

3Giuseppe Peano nacio en 1858 en Cuneo, Italia (en ese tiempo Reino de Sardinia) ymurio en 1932, en Turın. Peano fue un alumno muy adelantado: a los 22 anos ya era doctor enmatematicas y a los 26 profesor en la Universidad de Turın. Realizo importantes contribucionesen la teorıa de conjuntos, la geometrıa diferencial y el calculo.

4Ferdinand George Frobenius nacio en 1849 en Berliner-Charlottenburg, Prusia (hoy Berlın,Alemania) y murio en el mismo sitio, en 1917. Presento su tesis doctoral, dirigida por Weiers-trass, en la Universidad de Berlın en 1870. En 1874 entro como profesor en la Universidad deBerlın y al ano siguiente ingreso en la Eidgenossische Polytechnikum de Zurich, donde estu-

39

40 CAPITULO 3. ESPACIOS VECTORIALES

independencia lineal, rango y sistemas de coordenadas.

Definicion 3.1. Sea K un cuerpo. Un espacio vectorial V sobre K esta formadopor:

1. Un conjunto (de vectores) V .

2. Dos operaciones:

a) Suma: + : V × V −→ V .

b) Producto por un escalar · : K × V −→ V .

Junto con los siguientes axiomas:

Sobre la suma:

1. Es asociativa.

2. Hay neutro, que denotaremos con 0 ∈ V .

3. Cada vector v ∈ V tiene (un unico) opuesto −v ∈ V .

4. Es conmutativa.

(Es decir, (V,+) es grupo abeliano).

Sobre el producto por un escalar:

1. Es asociativo (en el unico sentido posible).

2. Hay dos propiedades distributivas,

a) (α+ β) v = αv + βv.

b) α (v + w) = αv + αw.

3. El neutro de K cumple 1v = v, ∀v ∈ V .

Ejemplos 24. Sea K un cuerpo.

1. Comenzamos con el espacio trivial V = {0} que tambien escribimos V =(0) con la suma y el producto por escalar obvios.

2. Considerese el conjunto

Kn = {(x1, . . . , xn) | xi ∈ K, ∀i = 1, . . . , n}

junto con la suma coordenada a coordenada

(x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)

vo hasta 1891 que volvio a Berlın. Aparte de sus aportaciones al estudio sistematico de losespacios vectoriales, los conceptos de dependencia e independecia lineal y el calculo de la di-mension; tiene notables contribuciones al estudio de la teorıa de la representacion y caracteresde grupos, ademas de otras en analisis matematico.

41

y el producto por un escalar

k · (x1, . . . , xn) = (kx1, . . . , kxn) .

Se deja como ejercicio comprobar que Kn = (Kn,+, ·) es un K-espaciovectorial. (Notese que todo vector puede ser visto como matriz de orden1× n, ası que este ejemplo esta contenido en el siguiente.)

3. El conjunto de las matrices, Mn×m (K) (vease la Definicion 2.6) juntocon la suma dada en (2.10) y el producto por un escalar definido en (2.16)

4. Los polinomios K[X], junto con la suma y el producto por un escalarhabituales.

5. Consideremos la matriz A ∈Mn×m(K), el vector incognita X y formemosel sistema homogeneo AX = 0.

Se deja como ejercicio comprobar que el conjunto de soluciones

V = {v ∈ Km | Av = 0}

es un K-espacio vectorial. Analogamente se puede definir un espacio desoluciones de la ecuacion Y A = 0.

6. De forma mas concreta, si A = (2, 5) entonces el espacio AX = 0 es elplano en R2 (que pasa por el origen) con ecuacion implıcita o general

2x1 + 5x2 = 0

y recıprocamente, sabemos que todo plano (que pasa por el origen) tieneasociada una ecuacion general (homogenea), que obtenemos, por ejemplo,a partir de su vector normal.

7. El conjunto de soluciones v = (v1, v2) ∈ R2 de la ecuacion 2x1 + 5x2 = 1no es un espacio vectorial.

8. Las funciones reales de variable real F = {f : R→ R | f es aplicacion},junto con la suma habitual (f + g)(r) = f(r) + g(r) para todo r ∈ R y elproducto por un escalar (k · f)(a) = k f(a), con k ∈ R.

Observacion 3.2. En principio, no existe una razon que nos muestre que esmejor escribir a los elementos de Kn, bien como fila o bien como columna; esdecir

v = (v1, . . . , vn) o bien v =

v1

...vn

;

y tampoco tenemos que decidirnos por una escritura por defecto; es decir, unanotacion. Dado un espacio, siempre que sea necesario aclararemos la notacion.

En todo caso, siguiendo la definicion de matriz traspuesta (2.23) se tendraque si v ∈ Kn es un vector fila entonces el vector vt sera un vector columna, deforma obvia.

42 CAPITULO 3. ESPACIOS VECTORIALES

Propiedades 3.3. Sea K un cuerpo y V un K-espacio vectorial.

1. Para todo v ∈ V se tiene que 0v = 0.

2. Para todo λ ∈ K y v ∈ V se tiene. Si λv = 0 entonces λ = 0 o v = 0.

Demostracion. Para (1), usaremos el hecho de que, en cualquier cuerpo, 0+0 =0. Ası que 0v = (0 + 0)v = 0v + 0v y como es grupo abeliano se tiene 0 = 0v.

El enunciado (2) se deja como ejercicio, con la indicacion de que la propiedad1v = v puede ser util.

3.1. Subespacios

Definicion 3.4. Sea V un K-espacio. Decimos que S ⊆ V es un subespacio deV si S tiene estructura de espacio vectorial, con las operaciones de V .

Notacion 3.5. Si S ⊂ V es un subespacio de V entonces escribimos simple-mente S ≤ V .

Ejemplos 25. Sea K un cuerpo.

1. Los ejemplos extremos son el subespacio trivial S = (0) y el subespacioimpropio S = V .

2. En R2, se considera S = {v = (v1, v2) | v1 > v2}. Se pide mostrar que Sno es subespacio de R2.

3. En R2, se considera S = {v = (v1, v2) | 2v1 = v2}. Se pide mostrar que Ses subespacio de R2.

4. Sea S = {(x, y, 1) | x, y ∈ R} ⊂ R3, junto con las operaciones

(x, y, 1) + (x′, y′, 1) = (x+ x′, y + y′, 1) y λ(x, y, 1) = (λx, λy, 1).

Entonces S es un R-espacio vectorial pero no es subespacio de R3.

Teorema de la caracterizacion de los subespacios

Teorema 3.6. Sea V un K-espacio vectorial y S ⊆ V . S es subespacio de V siy solo si para todo u, v ∈ S y para todo α, β ∈ K se tiene αu+ βv ∈ S.

Demostracion. Supongamos que S es subespacio de V . Entonces dados u, v ∈ Sy α, β ∈ K se tiene que αu y βv son elementos de S porque al ser K-espaciovectorial tiene producto por un escalar; de hecho, el mismo que K y V , y comoademas S es grupo abeliano entonces αu+ βv ∈ S.

Recıprocamente es inmediato ver que S tiene suma, ya que para todo u, v ∈ Sy con α = β = 1 se tiene u+ v ∈ S y para u ∈ V y α ∈ K arbitrario, haciendov = 0 o bien β = 0 se tiene que αu ∈ S. Las propiedades de la suma y elproducto por un escalar se heredan de V .

3.1. SUBESPACIOS 43

Observacion 3.7. Para probar que un cierto S ⊆ V es subespacio se puedeproceder de la siguiente forma. Se consideran cualesquiera dos vectores u, v ∈ Sy un solo escalar α ∈ K. Entonces, por separado se comprueba que:

1. u+ v ∈ S.

2. αu ∈ S.

Trivialmente, estas dos condiciones son equivalentes a las hipotesis del Teo-rema 3.6.

Tarea 5. Sea K un cuerpo. Dada una matriz A ∈ Mn×m(K), un vector inde-terminada X y B ∈ Kn un vector columna, formemos el sistema AX = B.

Se pide probar que el conjunto de soluciones es subespacio de Km si y solosi B = 0.

Ejemplo 26. Sea K un cuerpo y consideremos el espacio de los polinomiosK[X], descrito antes. Se define el conjunto de los polinomios de grado a lo masn ∈ N; es decir

Pn(K,X) = {p(X) ∈ K[X] | grado(p) ≤ n}

o simplemente Pn si el cuerpo y la indeterminada estan fijos.Se pide probar que Pn es subespacio de K[X].

Definicion 3.8. Sea K un cuerpo y A ∈Mn×m(K). Al subespacio de las solu-ciones AX = 0 se le conoce como espacio nulo por la derecha de A y se denotaNd(A). Analogamente se define el espacio nulo por la izquierda, Ni(A).

Tarea 6. Sea K un cuerpo y se consideran A ∈ Mn×m(K) y E una matrizcualquiera de operaciones elementales. Probar que Nd(A) = Nd(EA).

Observacion 3.9. Es inmediato comprobar que por la propia definicion deespacio nulo de una matriz, las ecuaciones implıcitas de Nd(A) se obtienen conla ecuacion homogenea AX = 0.

Ejemplos 27. Se pide decidir justificadamente si los siguientes conjuntos sonsubespacios de R3.

1.{

(x, y, z) ∈ R3 x, y, z ∈ R}

.

2.{

(x, y, z) ∈ R3 xy = z}

.

3.{

(x, y, z) ∈ R3 2x+ 4y = 3z}

.

4.{

(x, y, z) ∈ R3 2x+ 4y = 3z, x+ y = 2z}

.

5.{

(x, y, z) ∈ R3 2x+ 4y = 3z, x+ y = 2z, 3x+ 5y = 5z}

.

6.{

(x, y, z) ∈ R3 x2 + y2 = 1}

.

44 CAPITULO 3. ESPACIOS VECTORIALES

3.10. Forma lineal Una forma lineal en unas indeterminadas x1, . . . , xn esuna expresion f (x1, . . . , xn) de la forma

∑ni=1 aixi, con ai ∈ K, para todo

i = 1, . . . , n.

Observacion 3.11. Notese que toda expresion del tipo

{(x1, . . . , xn) ∈ Kn | fi (x1, . . . , xn) = 0, i = 1, . . . ,m}

con fi (x1, . . . , xn) una forma lineal, para cada i = 1, . . . ,m es subespacio.

Tarea 7.

1. Se pide identificar las formas lineales en los ejemplos anteriores donde sehaya decidido que hay subespacio (notese que una forma lineal no es unaecuacion).

2. Se pide que se identifiquen los subespacios definidos de esta forma conespacios nulos de matrices.

3. Se pide que, en terminos la Tarea 6, se simplifiquen las formas lineales.

3.2. Combinaciones lineales

Definicion 3.12. Sea V un K-espacio vectorial y {v1, . . . , vn} ⊆ V . Una com-binacion lineal (c.l., para abreviar) de v1, . . . , vn es una expresion formal

α1v1 + · · ·+ αnvn

donde los α1, . . . , αn ∈ K.

Ejemplo 28.

1. La expresion 2(1, 2, 0) + 3(1, 1, 1) es una combinacion lineal de (1, 2, 0) y(1, 1, 1).

2.

7(1, 2) + 8(2, 1) = (23, 22)

Esto es una c.l. de (1, 2) y (2, 1)Decimos que (23, 22) se expresa como c.l. de(1, 2) y (2, 1); pero no es una c.l. mas que desı mismo.

La siguiente definicion nos indica que vamos a entender por combinacioneslineales iguales.

Definicion 3.13. Sea V un K-espacio vectorial y {v1, . . . , vn} ⊆ V . Dos combi-naciones lineales, digamos

∑αivi y

∑βivi decimos que son la misma o igua-

les como combinaciones lineales si y solo si αi = βi para todo i = 1, . . . , n.

Notese que no tiene cabida, por la definicion anterior, relacionar combina-ciones lineales de distintos conjuntos de vectores.

Ejemplos 29.

3.2. COMBINACIONES LINEALES 45

1. Las expresiones 2(1, 2, 0) + 3(1, 1, 1) y 5(1, 2, 0)− 2(1, 1, 1) son dos combi-naciones lineales distintas de (1, 2, 0) y (1, 1, 1).

2. Identificamos las combinaciones lineales 5(1, 2, 0)− 2(1, 1, 1) y 5(1, 2, 0) +(−2)(1, 1, 1). La segunda expresion es mas formal.

3. 2 (1, 2)+1 (2, 4) y 4 (1, 2)+0 (2, 4) son dos combinaciones lineales distintasde (1, 2) y (2, 4). Notese que si se ejecutan las operaciones obtenemos elmismo vector.

Es decir que (4, 8) se expresa como c.l. de (1, 2) y (2, 4) de dos manerasdistintas.

4. Consideramos los vectores (1, 0) y (0, 1). Se puede comprobar trivialmenteque si se tienen dos expresiones (3, 4) = a(1, 0)+b(0, 1) y (3, 4) = c(1, 0)+d(0, 1) entonces a = c = 3 y b = d = 4. Ası que aquı (3, 4) se expresa comoc.l. de (1, 0) y (0, 1) de forma unica.

Observacion 3.14. Es muy importante que notemos que distintas c.l. de{v1, . . . , vn}, al ejecutar las operaciones pueden resultar, o no, en un mismovector.

Y de aquı, dos conclusiones:

1. Un vector se puede expresar como c.l. de un conjunto de vectores de formaunica o no unica.

2. Ası que, igualdad de combinaciones lineales no es lo mismo que igualdadde vectores.

Notese que en el Ejemplo 29.4 toda expresion de cualquier vector (a, b) ∈ R2

es posible llevarla a cabo y ademas es unica.Un ejemplo mas.

Ejemplo 30. Se considera el conjunto de vectores X = {1, X, . . . ,Xn, . . . } enK[X].

Se pide probar que todo polinomio en K[X] se expresa de forma unica comocombinacion lineal de X .

3.2.1. Combinaciones lineales y matrices

Combinaciones lineales y sistemas de ecuaciones

Problema 1: Sabemos que, dados dos vectores, por ejemplo, (1, 2) y (1, 3)y escalares 4, 6 podemos construir la c.l. 4 (1, 2) + 6 (1, 3) y ejecutar lasoperaciones 4 (1, 2) + 6 (1, 3) = (10, 7). Pero, dado un vector (7, 14) ¿comosaber si se expresa como c.l. de (1, 2) y (1, 3)?

Para resolver esto, formamos

(7, 14) = x (1, 2) + y (1, 3) .

46 CAPITULO 3. ESPACIOS VECTORIALES

Entonces, como la igualdad de vectores es componente a componente, sedebera verificar

7 = x+ y14 = 2x+ 3y

¡un sistema de ecuaciones! Veamos la matriz ampliada.(1 1 72 3 14

)es decir, enKn, resolver sistemas de ecuaciones y expresar unos vectorescomo c.l. de otros puede identificarse.

En terminos de la ecuacion vectorial(1 12 3

)(xy

)=

(714

)que podemos tambien expresar como c.l. de forma directa en terminos de co-lumnas (

12

)· x+

(13

)· y =

(714

)Problema 2: ¿Cual es la relacion entre sistemas compatibles determinadoe indeterminado y las c.l?

Para resolver esto, notemos que si un sistema es compatible indeterminadoes porque tiene infinidad de soluciones ası que habra infinidad de c.l. queden el mismo resultado. Si, por el contrario, la solucion es unica, solohabra una posible (y unica) c.l. cuyo resultado sea el vector en cuestion.Cuando para un conjunto de vectores {v1, . . . , vn} haya una combinacion∑αivi = v tal que sea una solucion unica, es decir, que dada otra c.l.

distinta∑βivi = w se tiene v 6= w diremos que la c.l.

∑αivi es unica.

3.15. La relacion entre c.l. en Kn y sistemas de ecuaciones con coeficientesen K es:

Sistema compatible = expresion de un vector como c.l. de otrosSistema compatible determinado = expresion unicaSistema compatible indeterminado = expresion no unicaSistema incompatible = no se expresa

Combinaciones lineales y producto de matrices

A continuacion vamos a ver que en un producto de matrices, la matriz pro-ducto tiene, en sus filas y columnas, combinaciones lineales de las filas y colum-nas de los factores.

Observacion 3.16. Sean Am×n y Bn×k matrices sobre un cuerpo K. Sea C =AB. Entonces:

3.3. DEPENDENCIA E INDEPENDENCIA LINEAL 47

1. Las columnas de C se expresan como combinaciones lineales de las colum-nas de A.

2. Las filas de C se expresan como combinaciones lineales de las filas de B.

Efectivamente. (1) Sean

Am×n =

a11 . . . a1n

. . .am1 . . . amn

y Bn×k =

b11 . . . b1k. . .

bn1 . . . bnk

.

Sea C = AB. Entonces

C =

∑ni=1 a1ibi1 . . .

∑ni=1 a1ibik

. . .∑ni=1 amibi1 . . .

∑ni=1 amibik

.

Consideremos las columnas de C∑ni=1 a1ibi1

...∑ni=1 amibi1

=

n∑i=1

bi1

a1i

...ami

, . . . ,

∑ni=1 a1ibik

...∑ni=1 amibik

=

n∑i=1

bik

a1i

...ami

por tanto se expresan como c.l. de las columnas de A.

Con un argumento completamente analogo se tiene el resultado para filas.

3.3. Dependencia e independencia lineal

Considerese el sistema2x+ y = ax+ 3y = bx+ y = c

Para resolverlo hacemos: 2 1 a1 3 b1 1 c

∼ 1 1 c

0 −1 a− 2c0 0 2a+ b− 5c

Sabemos que si a, b, c son tales que 2a + b − 5c = 0 entonces SCD. Si no,

incompatible, pero ya hemos comentado que jamas sera indeterminado.Por los corolarios (2.57)y (2.58) sabemos que cuando un sistema AX = B

es compatible determinado (indeterminado) entonces todo sistema compatibleAX = C sera determinado (indeterminado).

La relacion anterior queda mejor plasmada con este resultado general.

48 CAPITULO 3. ESPACIOS VECTORIALES

Proposicion 3.17. Sea K un cuerpo, V un K-espacio vectorial y {v1, . . . , vm}una familia de vectores en V . Sean v, w ∈ V tales que ambos se expresan comoc.l. de los vectores v1, . . . , vm.

Entonces v se expresa de forma unica si y solo si w se expresa de formaunica.

Demostracion. Supongamos que v se expresa de forma unica, digamos v =∑mi=1 kivi, y queremos ver que w tambien. Para eso, consideremos las expre-

siones w =∑mi=1 aivi y w =

∑mi=1 bivi y tenemos que ver que ai = bi para todo

i = 1, . . . ,m. Igualamos las dos expresiones de w, restamos y sumamos a la dev, ası se tiene que v =

∑mi=1(ai − bi + ki)vi, de donde, por hipotesis, para todo

i = 1, . . . ,m, se tiene ai − bi + ki = ki y ası ai = bi.

Pero hay mas. Los mismos corolarios nos dicen que basta saber lo que ocurrecon el sistema homogeneo AX = 0. Ese fenomeno tambien se extiende a espaciosgenerales.

Corolario 3.18. Sea K un cuerpo, V un K-espacio vectorial y {v1, . . . , vm}una familia de vectores en V . Sea v ∈ V tal que se expresa como c.l. de losvectores v1, . . . , vm.

Entonces v se expresa de forma unica si y solo si 0 ∈ V se expresa de formaunica.

Demostracion. Inmediato del hecho de que 0 siempre se expresa como c.l. decualquier familia de vectores.

Esos resultados nos llevan a la siguientes definiciones.

Definicion 3.19. Sea {v1, . . . , vn} ⊆ V . Decimos que {v1, . . . , vn} es lineal-mente dependiente (l.d., para abreviar), o que los vectores v1, . . . , vn forman unsistema ligado, si existe j ∈ {1, . . . , n} tal que vj =

∑i6=j αivi p.a. αi ∈ K.

Definicion 3.20. Decimos que el conjunto {v1, . . . , vn} es linealmente indepen-diente (l.i.) si no es l.d.

Aunque no es el objetivo de nuestro curso es claro que estas dos definicionesse pueden extender a conjuntos arbitrarios de vectores. Diremos que un conjuntode vectores X es l.d. si existe v ∈ X tal que existe un subconjunto finito β ⊂ Xtal que v se expresa como c.l. de los elementos de β. Es decir que un conjuntoarbitrario X es l.d. si existe (o sea tiene) un subconjunto finito que es l.d. en elsentido de la Definicion 3.19.

Sera l.i. si no es l.d. o sea, todo subconjunto finito es l.i. en el sentido de ladeinicion anterior.

Observacion 3.21. Es inmediato probar que {v1, . . . , vn} ⊆ V es l.d. si y solosi existe una c.l.

∑i αivi = 0, con alguna αi 6= 0.

En particular, si algun elemento vi = 0 el conjunto ya sera l.d.

Notese que el enunciado de la observacion anterior es equivalente a decir que0 se expresa de forma no unica como c.l. de {v1, . . . , vn} ⊆ V .

3.3. DEPENDENCIA E INDEPENDENCIA LINEAL 49

Ejemplos 31.

El conjunto {(1, 2) , (2, 1) , (1, 0)} es l.d.

El conjunto {(1, 0, 1) , (1, 1, 0)} es l.i.

Sean e1 = (1, 0, . . . , 0) , . . . , en = (0, . . . , 0, 1). Entonces {ei}ni=1 en Kn esl.i.

En K[X], el conjunto X definido en el Ejemplo 30 es claramente l.i.

3.3.1. Dependencia lineal y matrices

Ahora recopilaremos lo visto y lo interpretaremos en terminos de ecuacionesvectoriales.

Teorema 3.22. Sea K un cuerpo, V un K-espacio vectorial y {v1, . . . , vn} ⊆ V .Son equivalentes:

1. {v1, . . . , vn} es l.d.

2. Existen α1, . . . , αn no todos cero tales que 0 =∑ni=1 αivi.

3. Suponiendo V = Km. Si A =

v1 . . . vn

entonces AX = 0 es SC

Indeterminado.

Demostracion. [1⇒ 2] Es directo de la Definicion 3.19 y la Observacion 3.21.[2 ⇒ 3] Es inmediata del hecho de que las columnas de A son los vectores

escritos como columna.[3 ⇒ 1] Es inmediata del hecho de que las columnas de A son los vectores

escritos como columna y de la Observacion 3.21 y la Definicion 3.19.

Hay un resultado completamente analogo para la independencia lineal:

Teorema 3.23. Sea {v1, . . . , vn} ⊆ V . Son equivalentes:

1. {v1, . . . , vn} es l.i.

2. Si 0 =∑ni=1 αivi entonces α1, . . . , αn son todos cero.

3. Suponinendo V = Km. Si A =

v1 . . . vn

entonces AX = 0 es

SC Determinado.

Podrıamos resumir la situacion anterior en el siguiente esquema:Sea V un K-espacio vectorial y {v1, . . . , vn} ⊆ V . Entonces

50 CAPITULO 3. ESPACIOS VECTORIALES

{v1, . . . , vn} es l.i. ⇔ toda expresion v =∑αivi es unica

{v1, . . . , vn} es l.d. ⇔ toda expresion v =∑αivi es no unica

Ejemplo 32. Considerense los vectores (1, 2, 1), (2, 0, 1), (1, 6, 2). Queremosdeterminar si forman un conjunto l.i.

Entonces, por los teoremas anteriores lo que hacemos es construir una matrizA cuyas columnas son los vectores anteriores y clasificar AX = 0 o su analogopor filas; ası, 1 2 1 0

2 0 6 01 1 2 0

∼ · · · ∼ 1 2 1 0

0 1 −1 00 0 0 0

luego, AX = 0 es SCI y por tanto el conjunto es l.d.

Una aplicacion interesante de los resultados anteriores junto con el Teore-ma 2.53 es el siguiente.

Corolario 3.24. Sea A una matriz n× n. Son equivalentes:

1. A tiene inversa.

2. Las columnas de A forman un conjunto l.i.

3. Las filas de A forman un conjunto l.i.

Demostracion. Sabemos que A tiene inversa si y solo si AX = 0 es SCD y estoimplica que las columnas de A son un conjunto li.

Usando un argumento totalmente analogo pero ahora con el sistema XA = 0se tiene el resto.

3.4. Conjuntos generadores

En la seccion anterior nos referimos a vectores que se expresan como c.l. deotros de forma unica o no, pero siempre bajo el supuesto de que se expresan.Ahora vamos a abordar el problema de cuando un vector se expresa como c.l.de otros y cuando no.

Volvamos al sistema AX = B, con

2x+ y = ax+ 3y = bx+ y = c

Para resolverlo habıamos hecho: 2 1 a1 3 b1 1 c

∼ 1 1 c

0 −1 a− 2c0 0 2a+ b− 5c

3.4. CONJUNTOS GENERADORES 51

Notese que, en particular, si a = 1, b = 3 y c = 1 se tiene SCD, mientras quesi a = 0, b = 1 y c = 0 entonces es incompatible.

Nos preguntamos entonces por el conjunto

S ={B ∈ R3 | AX = B es compatible

}.

De inmediato observamos que

S ={

(a, b, c) ∈ R3 | 2a+ b− 5c = 0}

que sabemos es la ecuacion de un subespacio dada por una forma lineal (vease(3.10)); o bien Nd(2 1 − 5) (vease la Definicion 3.8). A este subespacio lollamaremos el subespacio generado (o engendrado) por {(2, 1, 1) , (1, 3, 1)}.

Mas formalmente, sea V un K-espacio vectorial y {v1, . . . , vn} ⊆ V . Sea

〈v1, . . . , vn〉 =

{u ∈ V u =

n∑i=1

αivi, con α1, . . . , αn ∈ K

}.

Vamos a ver que 〈v1, . . . , vn〉 es un subespacio de V como consecuencia delos siguientes resultados mas generales y formales.

Definicion 3.25. Sea K un cuerpo, V un K-espacio vectorial y X ⊆ V unsubconjunto arbitrario de V , (puede ser finito o infinito, pero por lo pronto, novacıo). Definimos el conjunto

〈X〉 =

{v ∈ V v =

n∑i=1

αivi, con n ∈ N, αi ∈ K, vi ∈ X

}

Teorema 3.26. En la situacion de la definicion anterior:

1. 〈X〉 es subespacio de V (con la notacion de 3.5 〈X〉 ≤ V ).

2. Si un subespacio W ≤ V es tal que X ⊆W entonces 〈X〉 ≤W . Es decir,es el “menor” subespacio que contiene a X.

Demostracion. Para probar el apartado (1.) vamos a usar el Teorema 3.6.Sean α, β ∈ K y v, w ∈ 〈X〉 tales que v =

∑ni=1 αixi y w =

∑mj=1 βjyj ,

con {αi}ni=1 , {βj}mj=1 ⊂ K. Hacemos, para k = 1, . . . , n + m, lo siguiente:

γk =

{ααi si k = i ≤ nββj si k = n+ j

y uk =

{xi si k = i ≤ nyj si k = n+ j

. Entonces αv + βw =∑n+mk=1 γkuk, el cual directamente vemos que es un elemento de 〈X〉.

El apartado (2) se deja como ejercicio.

Definicion 3.27. Sea K un cuerpo, V un K-espacio vectorial y X ⊆ V . Alsubespacio 〈X〉 se le llama el subespacio generado o engendrado por X.

52 CAPITULO 3. ESPACIOS VECTORIALES

Definicion 3.28. Decimos que {v1, . . . , vn} ⊆ V es un conjunto generador(para V ) si 〈v1, . . . , vn〉 = V .

Por ejemplo, el conjunto {(2, 1, 1), (1, 3, 1)} que vimos al inicio, es generadorpara el subespacio con ecuacion 2x+ y − 5z = 0. Vamos a ver otros.

Ejemplos 33. En los siguientes ejemplos se pide probar:

1. Para Kn, se tiene 〈{ei}ni=1〉 = Kn (vease el Ejemplo 31).

2. Para K[X], se tiene 〈X 〉 = K[X] (vease el Ejemplo 30).

3. Para K[X], se define Xn = {1, . . . , Xn}. Entonces 〈Xn〉 = Pn (vease elEjemplo 26).

El siguiente resultado es util y muy natural.

Proposicion 3.29. Sea K un cuerpo y V un K-espacio vectorial. Sean X,Y ⊆V tales que X ⊆ Y . Entonces 〈X〉 ≤ 〈Y 〉

Demostracion. Se deja como ejercicio.

3.4.1. Conjuntos generadores y matrices

Aunque ya lo hemos visto de hecho, vamos a establecer con formalidad comoobtener las ecuaciones implıcitas del subespacio generado por un conjunto finitode vectores en Kn.

Sea K un cuerpo y V ≤ Km un subespacio con un conjunto generador{v1, . . . , vn}. Evitamos el caso trivial suponiendo que no todos los vectores son 0;de hecho, podemos suponer que ninguno lo es. Directamente de los parrafos ini-

ciales de esta seccion se puede ver que si formamos A =

v1 . . . vn

m×n

y B =

b1...bm

; consideramos el sistema AX = B y reducimos a la forma escalo-

nada, obtendremos b1

v1 . . . vn...bm

∼ · · · ∼ ( EA EB)

=

(0 6= A′t×n B′

0 F

)

donde, si t < n entonces F = (ft+1, . . . , fm) seran formas lineales a partir de lascuales definiremos el subespacio V = 〈v1, . . . , vn〉 (vease la Observacion 3.11).

Ya sabemos que toda solucion, digamos C, del sistema homogeneo determi-nado por las formas lineales, que escribimos FX = 0, verifica que AX = C escompatible y por lo tanto C ∈ V = 〈v1, . . . , vn〉.

3.4. CONJUNTOS GENERADORES 53

Como caso extremo, si t = m entonces, tendremos queKm = V = 〈v1, . . . , vn〉.

Ası, tenemos el siguiente resultado que resume lo anterior.

3.30. Ecuaciones implıcitas de un subespacio de Km.Sea K un cuerpo y V ≤ Km un subespacio. Si conocemos un conjunto gene-

rador para V , digamos β ⊂ V , entonces por lo visto anteriormente, junto con laObservacion 3.11 podemos determinar un sistema homogeneo FX = 0, dondeF es la matriz de las formas lineales que obtenemos de los vectores de β puestoscomo columnas, ası que

V = {v ∈ Km | v es solucion de FX = 0} .

Al sistema FX = 0 se le conoce como las ecuaciones implıcitas de V .

Ası, hemos demostrado lo siguiente:

Proposicion 3.31. Para todo subespacio V ≤ Kn, existe una matriz M(V ) talque

V = {v ∈ Kn | v es solucion de M(V )X = 0}

Demostracion. Es el metodo anterior, donde M(V ) = F .

Ejemplo 34. Sea V = 〈(1, 2, 1, 2), (2, 0, 1, 4), (1, 6, 2, 2)〉. Queremos determi-nar las ecuaciones del subespacio generado por dichos vectores.

Consideramos AX = B, como se ha indicado, y reducimos el sistema am-pliado

1 2 1 a2 0 6 b1 1 2 c2 4 2 d

∼ · · · ∼

1 2 1 a0 1 −1 a− c0 0 0 2a+ b− 4c0 0 0 d− 2a

.

Ası que las ecuaciones implıcitas de V = 〈(1, 2, 1), (2, 0, 1), (1, 6, 2)〉 son2a + b − 4c = 0 y 2a − d = 0, que tambien podemos escribir cambiando lanotacion

2x+ y − 4z = 0

2x− w = 0

En terminos de la definicion anterior, F =

(2 1 −4 02 0 0 −1

).

Mas adelante veremos como encontrar un conjunto generador a partir de lasecuaciones implıcitas.

Subespacios fila y columna de una matriz

Asociado a cualquier matriz Am×n =

a11 . . . a1n

. . .am1 . . . amn

con entradas en

un cuerpo, se tienen dos subespacios vectoriales.

54 CAPITULO 3. ESPACIOS VECTORIALES

1. El subespacio fila de A, que denotamos F (A) ⊆ Rn. Es el subespaciogenerado por las filas; es decir, si denotamos la i-esima fila de A con A( i

... ),es

〈A( 1... ), . . . , A(m... )〉 ⊆ Kn.

2. El subespacio columna de A, que denotamos C (A) ⊆ Rm. El subes-pacio generado por las columnas de A. Es el subespacio generado por lascolumna; es decir, si denotamos la j-esima columna de A con A( ...j ), es

〈A( ...1 ), . . . , A( ...n )〉 ⊆ Km.

Observacion 3.32. Tambien podemos interpretar el subespacio fila como

{B = (b1, . . . , bn) ∈ Kn XA = B es compatible}

o bien AtX = B con X y B, si nos empenamos siempre en trabajar con vectorescolumna.

El el otro caso, analogamente sera el conjuntoB =

b1...bn

∈ Kn AX = B es compatible

.

o bien XAt = B con X y B vectores fila.

Si en lugar de partir de una matriz partimos de unos vectores columna(analogo para filas),

Observaciones 3.33. Sea K un cuerpo.

1. Sean {v1, . . . , vn} ⊆ Kr , v ∈ V y A =

v1 . . . vn

r×n

.

El siguiente esquema describe la relacion entre espacio columna y sistemasde ecuaciones

v ∈ 〈v1, . . . , vn〉 ⇔ el sistema AX = v es compatible ⇔ v ∈ C (A)

2. Sea A una matriz y sea E una matriz producto de elementales. Conside-remos la ecuacion AX = B. El metodo de Gauss nos dice en este contextoque B ∈ C(A)⇔ EB ∈ C(EA).

Ejemplo 35. En el Ejemplo 34 lo que hacemos es interpretar el subespacio Vcomo el espacio columna de la matriz A obteniendo sus ecuaciones implıcitas.

Proposicion 3.34. Sea K un cuerpo y sean Am×n y Bn×k matrices sobre K.Entonces

3.5. BASES Y DIMENSION 55

1. C(AB) es subespacio de C(A).

2. F(AB) es subespacio de F(B).

Demostracion. Son consecuencia directa de en la Observacion 3.16

Corolario 3.35. Sea K un cuerpo y sean Am×n una matriz arbitraria y E, E′

matrices invertibles sobre K. Entonces

1. C(AE′) = C(A).

2. F(EA) = F(A).

Demostracion. Una inclusion es consecuencia inmediata del resultados anterior.Para la otra, notese que, por ejemplo, A = AE′E′−1.

3.5. Bases y dimension

Definicion 3.36. Sea V un K-espacio vectorial y β = {v1, . . . , vn} ⊆ V . Deci-mos que β es una base para V si es l.i. y generador (i.e. base = l.i. + generador).

Esta definicion se puede, como antes, extender a conjuntos infinitos de vec-tores.

Ejemplos 36. Sea K un cuerpo.

1. El conjunto X , definido en el Ejemplo 30, es una base para K[X] (versioninfinito).

2. El conjunto {ei}ni=1, definido en el Ejemplo 31, es una base para Kn.

3. El conjunto Xn, definido en el Ejemplo 33, es una base para Pn, definidoen el Ejemplo 26.

4. En el Ejemplo 34 se tiene V = 〈(1, 2, 1, 2), (2, 0, 1, 4), (1, 6, 2, 2)〉. En esecaso {(1, 2, 1, 2), (2, 0, 1, 4), (1, 6, 2, 2)} es generador para V , pero no esbase porque no es l.i.

5. El espacio trivial V = {0} = (0) no tiene base.

Definicion 3.37. Los tipos de base definidos en los primeros tres ejemplosanteriores se conocen como bases canonicas.

3.38. Coordenadas de un vector respecto de un conjunto l.i.Sea V un K-espacio vectorial y β ⊆ V un conjunto l.i. Para todo vector v ∈

〈β〉 sabemos que existe una expresion unica v =∑ni=1 aivi, con {v1, . . . , vn} ⊆ β

y ai ∈ K, para i = 1, . . . , n. Al juego de coordenadas (a1, . . . , an) que provienede la expresion anterior lo llamaremos las coordendas de v respecto de β ydenotaremos [v]β = (a1, . . . , an).

Al conjunto de todas las coordenadas anteriores lo llamaremos un sistemade coordenadas definido por β.

56 CAPITULO 3. ESPACIOS VECTORIALES

Teorema 3.39. Sea K un cuerpo. Toda base ordenada de un K-espacio vecto-rial define un sistema de coordenadas.

Demostracion. Sea V un K-espacio vectorial y β una base para V . Como β esconjunto generador entonces todo elemento de V se expresa como c.l. de β ycomo β es l.i. la expresion es unica; luego a cada elemento v ∈ V se le puedeasociar de manera unica unas coordenadas [v]β .

La siguiente observacion nos muestra por que le llamamos “sistema”.

Observacion 3.40. Sea K un cuerpo, V un K-espacio vectorial y β ⊂ V unabase. Para cualesquiera vectores u, v ∈ V y para cualquier escalar λ ∈ K setiene.

1. [u+ v]β = [u]β + [v]β, con la suma usual de coordenadas.

2. [λu]β = λ[u]β, con el producto por un escalar usual de coordenadas.

Demostracion. Inmediata.

Ejemplos 37. Sea K un cuerpo.

1. En el caso de X , la base canonica para K[X], se tiene que todo polino-mio con coeficientres en K, digamos p(X) =

∑mi=0 aiX

i se puede escribir[p(X)]X = (a0, . . . , am, 0, . . . ). Ası que son juegos de coordenadas infinitas(ordenados por N) donde a partir de un momento m ∈ N todas las coor-denadas son 0. En este caso se dice que las coordenadas [p(X)]X son casinulas; es decir, son nulas, excepto un numero finito de entradas.

2. La base canonica E = {ei}ni=1 de Kn determina las coordenadas que hemosusado toda la vida.

3. La base canonica Xn, para Pn, nos lleva a escribir, para p(X) =∑ni=0 aiX

i ∈Pn se escribe [p(X)]Xn = (a0, . . . , an).

En las siguientes secciones veremos como, una vez definido un sistema decoordenadas, todas las tecnicas matriciales que hemos ido desarrollando paraKn, se aplican de forma directa y natural, pues ahora podremos concebir a losvectores “como coordenadas”, pero antes vamos a terminar de exponer algunosresultados teoricos y tecnicas generales, que no dependen de la existencia desistemas de coordenadas.

Proposicion 3.41. Sea K un cuerpo, V un K-espacio vectorial y β ⊂ V .

1. El conjunto β es una base para V si y solo si todo elemento v ∈ V seexpresa de manera unica como combinacion lineal de β.

2. Si V = 〈β〉 y β es l.i. entonces β es una base para V

Demostracion. Inmediata de la definicion de base y de conjuntos l.i. y generador.

3.5. BASES Y DIMENSION 57

Teorema 3.42. Todo K-espacio vectorial V tiene al menos una base.

Demostracion. La demostracion de este resultado excede el alcance de nuestrocurso.

Hay un tipo de espacios donde podemos estudiar las bases de acuerdo conlos objetivos de nuestro curso. Los espacios llamados de dimension finita. Ahıpodremos dar tecnicas para extraer y completar a bases, como veremos.

Definicion 3.43. Sea K un cuerpo y V un K-espacio vectorial. Decimos queV es un espacio de dimension finita si V tiene un conjunto generador finito.

Ejemplo 38. Para un cuerpo K, todos los Kn son espacios de dimension finita;ası como todos los Pn, mientras que K[X] no lo es, aunque conocemos una basepara el.

En (3.30) describimos las ecuaciones implıcitas para subespacios de Kn (queahora sabemos generalizar a cualquier K-espacio vectorial). Vamos a hacer lopropio para las ecuaciones parametricas. Trabajaremos solo en Kn y su exten-sion a cualquier K-espacio vectorial sera, igual que antes, obvia.

Sea V ≤ Kn un subespacio con un conjunto generador {v1, . . . , vr} y, co-

mo antes, construimos la matriz A =

v1 . . . vr

n×r

, ahora junto con

los sımbolos λ = (λ1, . . . , λr), que llamaremos parametros, y el vector X =(x1, . . . , xn), formamos la ecuacion vectorial Aλ = X. Si lo escribimos comosistema de ecuaciones con, digamos vi = (vi1, . . . , vin), entonces se tendra

x1 = λ1v11 + · · ·+ λnv1n

...

xn = λ1vn1 + · · ·+ λnvnn

que son las conocidas ecuaciones parametricas de V .Enunciamos formalmente la construccion anterior.

3.44. Ecuaciones parametricas de V ≤ Kn.Sea K un cuerpo y V ≤ Kn un subespacio. Si conocemos un conjunto ge-

nerador, digamos β para V , podemos formar, como se ha descrito, un sistemaAλ = X, de tal forma que todo vector v ∈ V corresponde con los valores que lasvariables xi puedan tomar a partir de asignar valores a los parametros λi. Esdecir,

V = {v ∈ Kn | existe un vector-parametros λ ∈ Kn con Aλ = v}.

Al sistema Aλ = X se le llama las ecuaciones parametricas de V .

Formalmente se tiene el siguiente resultado.

58 CAPITULO 3. ESPACIOS VECTORIALES

Proposicion 3.45. Para todo subespacio S ≤ Kn con un conjunto generador,existe una matriz M(S) y parametros λ = (λ1, . . . , λn) tal que

S = {X ∈ Kn M(S)λ = X es determinado }

Ejemplo 39. Volvamos al Ejemplo 34. Se tiene V = 〈(1, 2, 1, 2), (2, 0, 1, 4), (1, 6, 2, 2)〉.Queremos determinar las ecuaciones parametricas del subespacio generado pordichos vectores. Primero necesitamos una base, digamos {(1, 2, 1, 2), (2, 0, 1, 4)}que es l.i. (queda claro que necesitamos un metodo para extraer bases de con-juntos generadores).

Consideramos Aλ = X, ası que1 22 01 12 4

(λ1

λ2

)=

x1

x2

x3

x4

x1 = λ1 + 2λ2

x2 = 2λ1

x3 = λ1 + λ2

x4 = 2λ1 + 4λ2

En los paragrafos siguiente y el posterior, veremos que es posible extender yextraer bases a partir de conjuntos de vectores. Por lo pronto nos centraremosen la existencia; mas adelante veremos tecnicas matriciales concretas.

Extension a una base a partir de conjuntos l.i.

Teorema 3.46. Sea V un K-espacio vectorial y {v1, . . . , vn} ⊆ V un conjuntol.i. Si v ∈ V es tal que v 6∈ 〈v1, . . . , vn〉 entonces {v1, . . . , vn, v} tambien es l.i.

Demostracion. Supongase que hay una c.l. a1v1 + · · · + anvn + av = 0 concoeficientes no cero. Si a 6= 0 entonces pasamos restando −av =

∑aivi lo cual

es imposible pues v 6∈ 〈v1, . . . , vn〉. Ası que a = 0. Entonces debera ocurrirque −akvk =

∑i 6=k aivi pero esto tambien es imposible porque el conjunto es

l.i. Luego todos los coeficiente son cero y por tanto {v1, . . . , vn, v} tambien esl.i.

Extraccion de una base en conjuntos linealmente dependientes.

Teorema 3.47. Sea V un K-espacio vectorial. Si {v1, . . . , vn} ⊆ V es tal quevk =

∑i 6=k αivi entonces 〈vi〉i 6=k = 〈v1, . . . , vn〉.

Demostracion. Trivial. Se deja como ejercicio.

Teorema 3.48. Todo K-espacio vectorial V , de dimension finita, tiene al me-nos una base.

Demostracion. Como V es de dimension finita entonces existe un conjunto ge-nerador finito, digamos {v1, . . . , vn} ⊆ V , con los vi 6= 0. Si {v1, . . . , vn} esl.i. ya terminamos. Si no, es porque hay algun vk1 =

∑i 6=k1 αivi. Entonces

〈vi〉i 6=k1 = 〈v1, . . . , vn〉 = V . Si {vi}i 6=k1 es l.i., hemos terminado; si no, es por-que hay algun vk2 =

∑i 6=k1,k2 αivi. Entonces 〈vi〉i 6=k1,k2 = 〈v1, . . . , vn〉 = V . De

nuevo, si {vi}i 6=k1,k2 es l.i. hemos terminado; si no, continuamos el proceso, quetiene que terminar porque el conjunto es finito y es facil ver que todo conjuntocon un solo vector no cero es l.i.

3.5. BASES Y DIMENSION 59

3.5.1. Sistemas de coordenadas y matrices

Ahora vamos a hacer un repaso de las tecnicas matriciales que hemos vistoaplicadas a espacios vectoriales de dimension finita.

Sea V un espacio vectorial sobre un cuerpo K y supongamos que V tieneuna base β ⊂ V ordenada, finita, con n-elementos. Consideremos el conjuntoγ = {v1, . . . , vn} ⊆ V y formamos la matriz

A =

[v1]β . . . [vn]β

con las coordenadas de los vectores de γ en terminos de β. Se tienen los siguienteshechos, cuya justificacion se deja como ejercicio.

1. Un vector v ∈ V verifica que v ∈ 〈γ〉 si y solo si el sistema AX = [v]β escompatible y ademas.

a) El sistema anterior es SCD si y solo si v se expresa de forma unica.

b) El sistema anterior es SCI si y solo si v se expresa de forma no unica.

2. El conjunto γ es l.i. si y solo si AX = 0 es determinado y es l.d. en otrocaso.

3. Las ecuaciones implıcitas de 〈γ〉 respecto de la base β se construyen exac-tamente como en(3.30) y aun mas,

4. Podemos aplicar lo visto en la Observacion 3.33.

5. Por tanto, γ es un base para V si y solo si para todo v ∈ V el sistemaAX = [v]β es SCD.

Ejemplos 40. 1. Sean K = R y V = P2 y considerese la base canonicaX2 =

{1, X,X2

}. Sean p1(X) = 1 + X y p2(X) = X + 2X2, con los que

formamos γ = {p1, p2}.Entonces en terminos de los parrafos anteriores [p1]X2

= (1, 1, 0), mientrasque [p2]X2

= (0, 1, 2). Ası formamos

A =

1 01 10 2

.

De aquı se tiene:

a) Para saber si el polinomio f(X) = 2 +X−2X2 ∈ P2 verifica f ∈ 〈γ〉hacemos, [f ] = (2, 1,−2) y reducimos 1 0 2

1 1 10 2 −2

∼ · · · ∼ 1 0 2

0 1 −10 0 0

60 CAPITULO 3. ESPACIOS VECTORIALES

es SCD, lo da respuesta positiva. Aun mas, la expresion es unica.

Por otra parte, se puede comprobar que g = 1 +X +X2 verifica queg 6∈ 〈γ〉, pues obtendremos un sistema incompatible.

b) De lo anterior, por la Proposicion 3.17 se tiene que γ es l.i.

c) Para obtener las ecuaciones implıcitas de γ respecto de β, hacemos 1 0 a1 1 b0 2 c

∼ · · · ∼ 1 0 a

0 1 b− a0 0 c− 2b+ 2a

de donde

2x− 2y + z = 0

es la ecuacion implıcita.

Esto quiere decir que un polinomio f ∈ P2 verifica f ∈ 〈γ〉 si y solosi (2 − 2 1) · [f ] = 0; por ejemplo, para f(X) = 2 + X − 2X2 que

ya hemos ensayado, se puede comprobar que (2 − 2 1) ·

21−2

= 0,

como debe de ser.

2. Ahora consideremos en R3 el conjunto γ = {(1, 1, 0), (0, 1, 1), (1, 0, 1)} ex-presado en terminos de la base canonica ε3, por defecto, como siempre.Ası formamos

A =

1 0 11 1 00 1 1

.

De aquı se tiene:

a) Para saber si el vector v = (1, 2, 2) verifica v ∈ 〈γ〉 reducimos 1 0 1 11 1 0 20 1 1 2

∼ · · · ∼ 1 0 1 1

0 1 −1 10 0 2 1

es SCD, lo da respuesta positiva. Aun mas, la expresion es unica.

b) Se puede comprobar que para cualquier vector v ∈ R3 se tiene SCD,por tanto γ es base (no tiene ecuaciones implıcitas).

c) Entonces, por ejemplo, el vector de la base canonica e1 = (1, 0, 0)tiene como coordenadas en la base γ a la solucion de 1 0 1 1

1 1 0 00 1 1 0

∼ · · · ∼ 1 0 1 1

0 1 −1 −10 0 2 1

que nos da [e1]γ =

(12 ,−

12 ,

12

).

d) En forma anecdotica y trivial, notese que [(1, 1, 0)]γ = (1, 0, 0).

3.6. TEOREMA DE STEINITZ Y DIMENSION 61

3.6. Teorema de Steinitz y dimension

Uno de los conceptos mas importantes (si no el mas) del algebra lineal esel de dimension. En el caso de los espacios de dimension finita, es un numeroinvariante que podemos asociar y del que obtendremos mucha informacion sobrela estructura algebraica. Antes de ver dicho concepto, algunos resultados muynotables; el primero debido a Enrst Steinitz5

Teorema 3.49 (Steinitz). Sea V un K-espacio vectorial de dimension finita conbase β = {v1, . . . , vn} y sea γ = {u1, . . . , um} un conjunto l.i. Entonces m ≤ n.Aun mas, si 0 6= r = n−m entonces existe un subconjunto {vi1 , . . . , vir} tal queγ ∪ {vi1 , . . . , vir} es una base.

Demostracion. Hacemos

u1 =∑ai1vi es decir [u1]β = [a11, . . . , an1]

...um =

∑aimvi es decir [um]β = [a1m, . . . , anm]

y A = (aij)n×m, la matriz de las coordenadas, puesta como columna, comohacemos siempre. Sabemos, por la Proposicion 2.56, que si m > n entonces elsistema AX = 0 es indeterminado y por el resultado anterior γ serıa l.d. Asıque m ≤ n. La parte final proviene de la extension, Teorema 3.46.

Corolario 3.50. Sea V un K-espacio de dimension finita y sean {v1, . . . , vn}y {u1, . . . , ur} bases para V . Entonces n = r.

Demostracion. Si n 6= r entonces debera ocurrir n > r o n < r. En el primercaso {v1, . . . , vn} serıa l.d., imposible. El otro caso lo serıa el otro conjunto y estambien imposible. Luego debe ser n = r.

Observacion 3.51. Por lo anterior, un espacio vectorial de dimension finitapuede tener muchas bases, pero el numero de vectores de cada una es invariante.

Esto nos permite dar la siguiente definicion:

Definicion 3.52. Sea V un K-espacio vectorial. La dimension de V es el nume-ro de vectores que tiene una (y en consecuencia todas) base de V . Se denotadim (V ).

Por convencion, el espacio trivial verifica dim ({0}) = 0.

Ejemplo 41. Todo Kn tiene dimension n.

Ahora vamos con los subespacios.

5Ernst Steinitz nacio en Silesia, Alemania (hoy Polonia), en 1871 y murio en Kiel, Alemania,en 1928. Discıpulo de Frobenius, Kronecker y Max Planc en la Universidad de Berlın, obtuvosu doctorado por la Universidad de Breslau en 1894. En 1897 ingreso en la Socidad MatematicaAlemana. Fue profesor en la Universiad de Wurzburg y en la Universidad de Kiel, desde 1920hasta su muerte. En 1942, su esposa, Martha, fue asesinada por los nazis en una camara degas en el campo de concentracion de Treblinka.

62 CAPITULO 3. ESPACIOS VECTORIALES

Teorema 3.53. Sea V un K-espacio vectorial y S ⊆ V un subespacio. Si V esde dimension finita entonces tambien lo es S.

Demostracion. Supongamos que dim (V ) = n. Sea {v1, . . . , vk} un conjunto l.i.en S que encontramos como punto de partida. Notese que k ≤ n. Si el conjuntoes generador ya terminamos. Si no, entonces habra algun 0 6= vk+1 = v ∈ Stal que v 6∈ 〈v1, . . . , vk〉. Si llamamos vk+1 = v ası que {v1, . . . , vk, vk+1} es l.i.,luego k + 1 ≤ n. Si el conjunto es generador ya; si no agregamos otro y asıhasta llegar a lo mas a γ = {v1, . . . , vk, vk+1, vn}, que seguirıa siendo l.i. Si γ esgenerador, ya es base; si no entonces habra algun 0 6= v ∈ S tal que v 6∈ 〈γ〉 yγ ∪ {v} seguirıa siendo l.i. Pero γ ∪ {v} tiene n+ 1 puntos, lo cual es imposible.Ası que γ es generador para S.

De aquı podemos obtener una desigualdad muy importante:

Teorema 3.54. Sea V un K-espacio vectorial de dimension finita y S ⊆ V unsubespacio.

1. dim (S) ≤ dim (V ).

2. dim (S) = dim (V ) si y solo si S = V .

Demostracion. La primera parte es inmediata del teorema anterior.Para la segunda. Si dim (S) = dim (V ) entonces hay una base de S, β. Si β

no es generador entonces habra v ∈ V tal que v 6∈ 〈β〉 ası que podrıamos agregarβ′ = β ∪ {v}, que serıa l.i. Pero β′ ya tiene mas elementos que dim (V ), eso esimposible. Luego β es generador. El recıproco es trivial.

Observacion 3.55. Los resultados anteriores nos permiten tambien construirlas siguientes ”desigualdades”sobre numero de elementos.

#l.i. ≤ dim (V ) ≤ #generador

y las igualdades se cumplen cuando tenemos bases.

Demostracion. Supongamos que dimV = n. El Teorema de Steinitz nos da ladesigualdad de la izquierda. Para ver la posible igualdad hay que probar que siun conjunto γ ⊂ V tiene |γ| = n entonces es base. Es directo y muy facil. Laotra desigualdad se hace de forma completamente analoga.

3.7. El rango de una matriz

Proposicion 3.56. Sea K un cuerpo, A una matriz arbitraria y sean E y E′

matrices invertibles sobre K tales que EA y AE′ tienen sentido. Entonces:

3.8. MATRICES Y CONSTRUCCIONES DE BASES 63

1. dim C (A) = dim C (EA).

2. dimF (A) = dimF (AE′).

Demostracion. Vamos a probar solo el primer apartado. El otro es completa-mente analogo. Sea {Ai1 , . . . , Aik} un conjunto de columnas de A. Entonces{EAi1 , . . . , EAik} lo es de columnas de EA. Ahora, para escalares α1, . . . , αnde K se tiene que

k∑j=1

αjAij = 0⇔ E

k∑j=1

αjAij

= 0⇔k∑j=1

αjEAij = 0

y por tanto uno de los conjuntos de columnas seras l.i. si y solo si lo es el otro.De aquı se desprende de inmediato el resultado.

Teorema 3.57. Sea Am×n una matriz. Entonces dim C (A) = dimF (A) =numero de pivotes en cualquier forma escalonada (fila o columna).

Demostracion. Sea EA una forma escalonada por filas. Entonces haciendo laforma por columnas se tiene que existe F invertible tal que

EAF =

(Ir 00 0

)Notese que dim C (EAF ) = dimF (EAF ) = r. Ahora bien, sabemos, por elCorolario 3.35, que C(EA) = C(EAF ) y por la Proposicion 3.56, dim C(A) =dim C(EA). Juntamos todo,

dim C (A) = dim C (EA) = dim C (EAF ) = dimF (EAF ) =

dimF (EA) = dimF (A)

Definicion 3.58. Al numero dim C (A) = dimF (A) = numero de pivotes encualquier forma escalonada (fila o columna) se le conoce como rango de la matrizA.

Si A = 0 entonces el rango sera 0.

El rango de una matriz A se denota rg(A).

3.8. Matrices y construcciones de bases

3.59. Un metodo para obtener bases de espacios nulos de matrices.Consideremos cualquier matriz Am×n con entradas en algun cuerpo. Sabe-

mos que existen matrices producto de elementales E,F tales que

EAF =

(Ir 00 0

)

64 CAPITULO 3. ESPACIOS VECTORIALES

Sea {e1, . . . , en} la base canonica de Kn escrita como columna. Notese queN (EAF ) = 〈er+1, . . . , en〉. Ahora hacemos ui = Y ei para i = r + 1, . . . , n.

Se afirma que {ur+1, . . . , un} es base para N (A).Vamos a ver que es l.i. y generador. Primero l.i. Consideramos una combi-

nacion lineal∑ni=r+1 αiui = 0. Entonces

0 =

n∑i=r+1

αiui =

n∑i=r+1

αiFei = Y

(n∑

i=r+1

αiei

)=

n∑i=r+1

αiei

y esto ultimo implica que los αi son todos 0.Ahora vamos a ver que es generador. Sea v ∈ N (A). Entonces 0 = Av =

EAFF−1v, ası que F−1v ∈ N (EAF ), y entonces se expresa como F−1v =∑ni=r+1 αiei. Ası que v = F

(∑ni=r+1 αiei

)y usando propiedades aritmeticas

del producto v =∑ni=r+1 αiFei, y por tanto, v =

∑ni=r+1 αiFei =

∑ni=r+1 αiui.

En la practica se procede ası:Partimos de una matriz A y hacemos la forma escalonada EA con pivoltes

1; luego, (EAI

)∼ · · · ∼

(EAFF

).

Entonces una base de N (A) se tiene al tomar las ultimas r-columnas de F .

Observacion 3.60. Se deduce de inmediato y luego sera muy util el siguientehecho: dimN (XAY ) = dimN (A).

Ejemplo 42. Sea K un cuerpo, V un K-espacio vectorial con base β = {v1, v2, v3, v4}y S ≤ V el subespacio con ecuaciones implıcitas respecto a β

2x+ y − z − t = 0

x+ z + t = 0.

Se pide encontrar una base para S (que solo podemos expresar en sus coordena-das respecto de β, claro).

Respuesta. Interpretamos a S como el espacio nulo de la matriz de coeficientes.Reducimos la matriz, primero por filas(

2 1 −1 −11 0 1 1

)∼ · · · ∼

(1 0 1 10 1 −3 −3

)y luego viene la parte en la que necesitamos recuperar la matriz de operacionespor columna

1 0 1 10 1 −3 −31 0 0 00 1 0 00 0 1 00 0 0 1

∼ · · · ∼

1 0 0 00 1 0 01 0 −1 −10 1 3 30 0 1 00 0 0 1

3.8. MATRICES Y CONSTRUCCIONES DE BASES 65

Entonces, segun lo visto antes, dimS = 2 y {(−1, 3, 1, 0), (−1, 3, 0, 1)} es unabase escrita en las coordenadas de β.

Esto es lo que interpretamos como “dos grados de libertad”, donde tendremosque encontrar dos soluciones linealmente independientes. Notese que, en estecaso, corresponde con los valores {z = 1, t = 0} y {z = 0, t = 1}.

Extraccion de bases por operaciones elementales

Supongamos que tenemos los vectores {v1, . . . , vr} ⊆ Kn.

Podemos proceder de dos maneras, colocando las coordenadas de los vectorescomo filas o como columnas.

Primero por filas.

Hacemos las matriz

A =

− v1 −...

− vr −

Se reduce de forma “canonica” (se busca el primer pivote por la derecha, se

pone en la primera fila, se reduce; se busca el siguiente pivote, se pone en lasegunda fila, se reduce, etcetera).

Con esto formamos la matriz

A′ =

− v′i1 −...

− v′it −− 0 −

...− 0 −

Sabemos que

{v′i1 , . . . , v

′it

}es base para F(A) = F(EA). Ademas, notese

que

v′i1 = vi1v′i2 = vi2 + k12v

′i1

...v′it = vit + k1tv

′i1

+ · · ·+ kt−1 t v′it−1

Haciendo las coordenadas de las vij , respecto de las primas.

vi1 (1, 0, . . . , 0)vi2 (−k12, 1, 0, . . . , 0)

...vit (−k1t, . . . ,−kt−1t, 1)

66 CAPITULO 3. ESPACIOS VECTORIALES

Y si ahora ponemos las coordenadas como columna y nos sale una matrizcuadrada de la forma

1 −k12 −k13 . . . −k1t

0 1 −k23 . . . −k2t

...0 1

que claramente vemos que es invertible. Por tanto {vi1 , . . . , vit} es linealmenteindependiente.

Ahora por columna.Hacemos la matriz

A =

| |v1 . . . vr| |

y se reduce por filas con el metodo de Gauss y obtenemos

EA =

| |Ev1 . . . Evr| |

.

Se consideran aquellas columnas que tienen pivote. {Evi1 , . . . , Evit}, que esun conjunto es l.i.

Estas columnas forman una base para el espacio columna de EA. Para com-probar esto, basta observar que podemos continuar el proceso siguiendo el meto-do de Gauss-Jordan, digamos E′A, donde ahora se tiene que

E′vij =

0...

1(lugarj)

0...0

.

Ahora bien, hemos visto en la demostracion de la Proposicion 3.56 que sillamamos Ai a las columnas de A se tiene que

∑ni=1Ai = 0 ⇔

∑ni=0EAi = 0,

y de ahı se tiene que {vi1 , . . . , vit} es l.i. y como dim C(E′A) = t entoncesdim C(A) = t y por tanto, el conjunto anterior es una base.

Notese que este proceso se puede hacer al mismo tiempo que se obtienen lasecuaciones implıcitas.

Ejemplo 43. Sea V = 〈(0, 1, 1, 0), (1, 1, 2, 1), (2, 3, 1, 1), (3, 5, 4, 2)〉 ≤ Rn. Sepide:

1. Dar las ecuaciones implıcitas (respecto de la base canonica).

2. Extraer una base del conjunto generador dado para V y comprobar quedimR V = 3.

3.9. SUMA E INTERSECCION FINITAS DE SUBESPACIOS 67

3. Comprobar que los vectores (3, 4, 3, 2) y (3, 6, 5, 2) son elementos de V yforman un conjunto l.i.

4. Extender el conjunto l.i. anterior a una base para V .

Respuesta. Comenzamos obteniendo las ecuaciones implıcitas0 1 2 3 x1 1 3 5 y1 2 1 4 z0 1 1 2 t

∼ · · · ∼

1 1 3 5 y0 1 −2 −1 z − y0 0 1 1 x−z+y

4

0 0 0 0 t− z + y − 3(x−z+y)4

De donde la ecuacion es −3x+ y − z + 4t = 0.

Como hemos escrito los vectores como columna y hemos hecho reduccion porfilas aplicamos el procedimiento anterior y se tiene que {(0, 1, 1, 0), (1, 1, 2, 1), (2, 3, 1, 1)}es una base que hemos extraıdo.

El apartado (3) es inmediato. Finalmente, para extender el conjunto a unabase, utilizaremos los vectores de la base que ya conocemos. Procedemos porfilas, reduciendo sin intercambiar filas

3 4 3 23 6 5 20 1 1 01 1 2 12 3 1 1

∼ · · · ∼

3 4 3 20 1 1 00 0 0 00 0 4

313

0 0 0 0

de aquı que una base para V es {(3, 4, 3, 2), (3, 6, 5, 2), (1, 1, 2, 1)}.

Tambien podemos proceder por columnas3 3 0 1 24 6 1 1 33 5 1 2 12 2 0 1 1

∼ · · · ∼

3 3 0 1 20 2 1 − 1

313

0 0 0 23 − 2

30 0 0 1

3 − 13

obteniendo la misma base.

3.9. Suma e interseccion finitas de subespacios

Comenzamos abordando la interseccion de subespacios.

Proposicion 3.61. Sean K un cuerpo y V un K-espacio vectorial. Sean {S1, . . . , Sn}una familia de subespacios de V . Entonces

⋂ni=1 Si es un subespacio de V .

Demostracion. Se deja como ejercicio. Es inmediata del Teorema de la Carac-terizacion de los Subespacios (3.6)

Observacion 3.62. Se consideran los subespacios S1 = {(x, 0) | x ∈ R} yS2 = {(0, y) | y ∈ R}. Claramente, S1 ∪ S2 no es subespacio.

68 CAPITULO 3. ESPACIOS VECTORIALES

Hemos comprobado entonces que la union de subespacios no necesariamentees cerrada para combinaciones lineales. De ahı podemos encontrar muy naturalla siguiente definicion.

3.63. Suma de subespacios. Sean K un cuerpo y V un K-espacio vecto-rial. Sean {S1, . . . , Sn} una familia de subespacios de V . Definimos la suma desubespacios como el conjunto

n∑i=1

Si =

{v ∈ V | v =

n∑i=1

vi, vi ∈ Si, i = 1, . . . , n

}

o bien,

n∑i=1

Si =

{v ∈ V | v =

n∑i=1

αivi, αi ∈ K, vi ∈ Si, i = 1, . . . , n

}puesto que αivi ∈ Si.

Proposicion 3.64. Sean K un cuerpo y V un K-espacio vectorial. Sean {S1, . . . , Sn}una familia de subespacios de V . El conjunto

∑ni=1 Si es un subespacio de V ,

que contiene a todos los subespacios Si.

Demostracion. Inmediata, por el Teorema 3.6.

Corolario 3.65. Sean K un cuerpo y V un K-espacio vectorial. Sean {S1, . . . , Sn}una familia de subespacios de V . Entonces

n∑i=1

Si =

⟨n⋃i=1

Si

Demostracion. Es directa del resultado anterior.

Vamos a dar una formula para calcular su dimension.

Teorema 3.66 (Formula de Grassmann). Sea V un K-espacio vectorial dedimension finita y U,W ≤ V . Entonces

dim (U +W ) = dimU + dimW − dim (U ∩W )

Demostracion. Sabemos que U ∩W es subespacio de V . Consideremos una basepara el, digamos β = {v1, . . . , vl}. Ahora, sean γ1 = {u1, . . . , un} los vectoresque completan una base para U y γ2 = {w1, . . . , wm} los vectores que completanuna base para W .

Se afirma que γ = {v1, . . . , vl, u1, . . . , un, w1, . . . , wm} es una base para elespacio suma U +W .

Para ver que es l.i. hacemos

l∑i=1

aivi +

n∑j=1

bjuj +

m∑k=1

ckwk = 0. (3.1)

3.9. SUMA E INTERSECCION FINITAS DE SUBESPACIOS 69

De aquı se tiene que −∑mk=1 ckwk ∈ U y por tanto −

∑mk=1 ckwk ∈ U ∩W .

Ası que se expresara como combinacion lineal de β, de forma que−∑mk=1 ckwk =∑l

i=1 divi y de aquı∑li=1 divi +

∑mk=1 ckwk = 0, de donde, al ser β ∪ γ2 un

conjunto l.i., se tiene di = 0 para todo i = 1, . . . , l y (lo que nos importa) ck = 0

para todo k = 1, . . . ,m. Ası que de la igualdad (3.1) nos queda∑li=1 aivi +∑n

j=1 bjuj = 0 y como β ∪ γ1 es l.i. se tiene que el resto de los coeficientesai = 0 para todo i = 1, . . . , l y bj = 0 para todo j = 1, . . . , n.

El hecho de que es generador es muy simple y se deja como ejercicio.

Ahora estudiaremos la suma directa.

3.67. Familia independiente de subespacios. Sean K un cuerpo y V unK-espacio vectorial. Sea {S1, . . . , Sn} una familia de subespacios de V . Decimosque es una familia independiente de subespacios si ocurre que para cada i =1, . . . , n

Si⋂ n∑

j 6=i

Sj = (0)

3.68. Suma directa. Sean K un cuerpo y V un K-espacio vectorial. Sea{S1, . . . , Sn} una familia independiente de subespacios de V . Se dice en estecaso que la suma

∑ni=1 Si es directa (o suma directa interna) y se escribe

n∑i=1

Si =

n⊕i=1

Si.

Ejemplos 44. 1. Sea V un R-espacio vectorial de dimension 3. Se consi-deran los subespacios U con ecuacion 2x + y − z = 0 y W con ecuacionx+ y − 2z = 0, respecto de alguna base de V. Se pide:

a) Comprobar que las ecuaciones implıcitas de U ∩W son{2x+ y − z = 0x+ y − 2z = 0

.

b) Dar una base para dicho subespacio.

2. En el mismo espacio se consideran ahora los subespacios U con ecuacio-

nes

{2x+ y = 0

z = 0y W con ecuaciones

{x+ y = 0

z = 0respecto de

alguna base. Se pide:

a) Dar las ecuaciones implıcitas de U +W .

b) Comprobar que los subespacios forman una familia independiente.

c) Dar una base para U +W .

El siguiente resultado tecnico es muy util. Lo podrıamos llamar “los subes-pacios complementarios”.

70 CAPITULO 3. ESPACIOS VECTORIALES

Proposicion 3.69. Sea V un K-espacio vectorial de dimension finita. Paratodo U ≤ V existe W ≤ V tal que U ⊕W = V .

Demostracion. Trivial, basta extender una base para U .

Tambien se puede demostrar como ejercicio el siguiente resultado.

Proposicion 3.70. Sea {U1, . . . , Un} una familia de subespacios de V . Estacoleccion es independiente si y solo si para cada eleccion 0 6= vt ∈ Uit (donde{i1, . . . , is} ⊆ {1, . . . , n}) se tiene que {vi1 , . . . , vis} es l.i.

Demostracion. Trivial.

3.71. Producto directo o suma directa externa finita.Sea {V1, . . . , Vn} una familia de K-espacios vectoriales. Se considera el pro-

ducto directo∏ni=1 Vi y se le dota de estructura de espacio vectorial, con las

operaciones,

(v1, . . . , vn) + (v′1, . . . , v′n) = (v1 + v′1, . . . , vn + v′n)

λ(v1, . . . , vn) = (λv1, . . . , λvn)

Es inmediato comprobar que el conjunto anterior junto con las operacionesdescritas es un K-espacio vectorial y se deja como ejercicio.

A este espacio se le conoce como espacio producto o suma directa finitaexterna y se denota igual que su escritura como conjunto; es decir,

∏ni=1 Vi =

V1 × · · · × Vn. En algunos textos tambien⊕n

i=1 Vi, igual que la suma interna ypor el contexto se distingue si es interna o externa.

Observacion 3.72. Sean V,W K-espacios vectoriales y consideremos el espa-cio producto, V ×W . Es importante notar que, estrictamente, V y W no sonsubespacios de V ×W ; sin embargo, si se consideran V ′ = {(v, 0) | v ∈ V } yW ′ = {(0, w) | w ∈W} se puede comprobar que ya son subespacios del productoy que V ′ +W ′ = V ×W ; ademas de ser suma directa.

Incluso se llega a identificar V con V ′ y W con W ′ sabiendo de antemanoque no es una igualdad estricta.

Como ejercicio se pide extender esta idea a un numero finito de factores.

Ejemplo 45. El espacio Kn podemos identificarlo con K×· · ·×K o K⊕· · ·⊕K

Proposicion 3.73. En la situacion anterior dimV ⊕W = dimV + dimW .

Demostracion. Inmediato de la formula de Grassmann (3.66) y de la Observa-cion 3.72 que acabamos de ver.

De hecho, sabemos por los ejercicios que la Formula de Grassmann se puede

extender a dim (∑ni=1 Si) =

∑ni=1 dim (Si) −

(∑nj=2 dim

(Sj ∩

∑j−1i=1 Si

)); ası

que podemos probar que dim (⊕n

i=1 Vi) =∑ni=1 dim(Vi).

3.10. ESPACIO COCIENTE 71

3.10. Espacio cociente

En esta seccion es necesario que recordemos el concepto de relacion de equi-valencia, clases de equivalencia y conjunto cociente.

Definicion 3.74. Sea V un K-espacio vectorial y W ≤ V . Para u, v ∈ Vdefinimos la relacion

u ∼ v ⇔ u− v ∈W

Proposicion 3.75. La relacion anterior es relacion de equivalencia.

Demostracion. Trivial, se deja como ejercicio.

3.76. Espacio cociente. En vista de la proposicion anterior, consideramosal conjunto cociente, que denotaremos V/W y vamos a dotarlo de operacionescon las que construir un nuevo espacio vectorial.

Definimos la suma [u]+[v] = [u+v] y el producto por un escalar λ[v] = [λv].Tendremos que demostrar que las operaciones estan bien definidas y que

verifican los axiomas de K-espacio vectorial.

Teorema 3.77. En la situacion anterior, el conjunto V/W , junto con las ope-raciones descritas tiene estructura de K-espacio vectorial

Demostracion. Vamos a ver que la suma esta bien definida y el resto se dejaracomo ejercicio. Sean u ∼ u′ y v ∼ v′. Tenemos que probar que [u+v] = [u′+v′].Esto ultimo sera verdadero si y solo si u+v− (u′+v′) ∈W lo cual, trivialmentees verdadero.

Definicion 3.78. Al conjunto V/W con la estructura de K-espacio vectorial sele conoce como espacio cociente.

Proposicion 3.79. Sea V un K-espacio vectorial de dimension finita y W ≤ V .La dimension del espacio cociente es

dim (V/W ) = dimV − dimW

Demostracion. Supongamos que dim(V ) = m y dim(W ) = n, con n ≤ m. Sim = n entonces por el Teorema 3.54 se tendra que V = W y solo habra unaclase de equivalencia, con lo que V/W = (0).

Supongamos entonces que n < m y consideremos una base para W , digamos{w1, . . . , wn} que extendemos a una base para V ; β = {w1, . . . , wn, vn+1, . . . , vm}.

Se afirma que el conjunto de clases {[vn+1], . . . , [vm]} es una base para V/W .Primero consideremos una igualdad

∑mi=n+1 αi[vi] = [0], con αi ∈ K, para

i = n + 1, . . . ,m. Entonces∑mi=n+1 αivi ∈ W , ası que existen αj ∈ K, para

j = 1, . . . , n, tales que∑mi=n+1 αivi =

∑nj=1 αjwj y como β es l.i. todos los

coeficientes han de ser nulos; en particular αn+1 = · · · = αm = 0.Ahora consideremos un elemento arbitrario del espacio cociente, que como

sabemos podemos escribir a traves de cualquiera de sus representantes, digamos[v] ∈ V/W . Como v ∈ V entonces existen αj ∈ K, para j = 1, . . . , n y αi ∈K, para i = n + 1, . . . ,m tales que

∑nj=1 αjwj +

∑mi=n+1 αivi = v, de donde∑m

i=n+1 αivi ∼ v y por tanto∑mi=n+1 αi[vi] = [v].

72 CAPITULO 3. ESPACIOS VECTORIALES

Ejemplo 46. Se considera V = R3 y W = 〈(0, 0, 1)〉. En este caso se puedecomprobar que (v1, v2, v3) ∼ (v′1, v

′2, v′3) si y solo si v1 = v′1 y v2 = v′2.

Por experiencia, hemos visto que describir las clases de equivalencia y losconjuntos cociente es muy laborioso, pero las tecnicas del algebra lineal nosayudan a simplificar mucho, como veremos.

a) Extendemos una base de W a una base de V . Sabemos por la demostracionde la proposicion anterior que las clases del conjunto que extiende seranuna base del espacio cociente. En este caso puede ser {[(1, 0, 0)], [(0, 1, 0)]}la base de V/W .

b) Ahora describimos las clases. Para λ, µ ∈ R.

λ[(1, 0, 0)] = {(x, y, z) | x = λ, y = 0, z ∈ R}= {(λ, 0, z) | z ∈ R}

µ[(0, 1, 0)] = {(x, y, z) | x = 0, y = µ, z ∈ R}= {(0, µ, z) | z ∈ R}

c) En general, toda clase sera de la forma, para λ, µ ∈ R,

λ[(1, 0, 0)] + µ[(0, 1, 0)] = [(λ, µ, 0)] = {(λ, µ, z) | z ∈ R}

Observacion 3.80. Sea V un K-espacio vectorial con subespacios U,W , talesque V = U ⊕W . Es inmediato de los resultados anteriores que si {u1, . . . , ur}es una base para U , entonces {[u1], . . . , [ur]} es una base para V/W .

Capıtulo 4

Dimension y rango

Las nociones de dimension y rango fueorn desarrolladas principalmante porGrassmann, Cayley y Frobenius. El resultado principal de este capıtulo es elTeorema de Rouche-Fronbenius.

4.1. Repaso de preliminares

Hemos visto que asociados a cualquier matriz Am×n se tienen tres (puedenser 4) subespacios y tambien algunas relaciones entre ellos.

1. Espacio fila de A. El subespacio de Kn generado por las filas de A. Sedenota F (A) (3.4.1).

2. Espacio columna de A. El subespacio de Km generado por las columnasde A. Se denota C (A) (3.4.1).

3. Espacio nulo (por la derecha) de A.N (A) = {v ∈ Kn Av = 0} (3.8)

4. Los siguientes numeros son iguales (3.57):

a) rg (A).

b) dim (F (A)).

c) dim (C (A)).

d) Numero de filas l.i. de A.

e) Numero de columnas l.i. de A.

f ) Numero de pivotes en la forma escalonada por fila de A.

g) Numero de pivotes en la forma escalonada por columna de A.

Vamos ahora a cerrar esta lista de resultados con una relacion muy impor-tante conocida como la ecuacion del rango.

73

74 CAPITULO 4. DIMENSION Y RANGO

Teorema 4.1 (Ecuacion del rango). Sea Am×n una matriz arbitraria. Entonces

rg (A) + dimN (A) = n.

Demostracion. Consideremos cualquier matriz Am×n con entradas en alguncuerpo. Sabemos que existen matrices producto de elementales X,Y tales que

EAF =

(Ir×r 0

0 0

).

Por el Teorema 3.57 y el Corolario 3.35 sabemos que rg(A) = r. Ahora,recordemos que en la construccion de una base para el espacio nulo (3.59) vimosque el conjunto {Fer+1, . . . , F en} es base deN (A), de donde se tiene la igualdad.Como caso particular, si r = n entonces N (A) = 0 e igualmente la igualdad severifica.

4.2. Teorema de Rouche-Frobenius

Uno de los resultados mas notables de la teorıa sobre los sistemas de ecuacio-nes es el siguiente criterio de clasificacion, tambien llamado teorema de Rouche-Capelli, Rouche-Fontene, dependiendo del paıs y la cultura.

Este teorema fue publicado por primera vez por Rouche1 en 1875, con unaversion mejor en 1880. G. Fontene2 publico una nota atribuyendose la autorıa.Mas tarde, Frobenius y Capelli3 publicaron, cada uno, demostraciones muynotables. En la de Frobenius, explıcitamente, este llama al resultado teorema deRouche-Fontene; aun ası, en Espana y parte de America Latina se le conoce comoteorema de Rouche-Frobenius, debido a la influencia de un notable e historicolibro de algebra lineal escrito por el matematico hispano-argentino Rey Pastor4.

Teorema 4.2. Considerese la ecuacion vectorial o el sistema AX = B. Siempreocurre que rg (A) ≤ rg (A|B) (3.54).

1. Si rg (A) = rg (A|B) = numero de incognitas (=num. de col.) entoncesSCD.

1Eugene Rouche nacio en 1832 en Sommieres, Francia y murio en 1910 en Lunel, Francia.En 1855 entro como profesor en el Lycee Charlemagne de Parıs y en 1858 presento dos tesisde doctorado; una en matematicas y otra en fısica. En 1877 ingreso en la Ecole Centrale deParıs. Ademas, trabajo como profesor para la Ecole Polytechnique de Parıs.

2Georges Fontene nacio en Rousies, Francia, en 1848 y murio en Parıs, en 1923. No setienen muchos datos de su vida. Se sabe que se dedico a la ensenanza no universitaria conmucho exito institucional.

3Alfredo Capelli nacio en Milan, Lombardo-Veneto (actualmente Italia) en 1855 y murioen Napoles, en 1910. Se graduo en la Universidad de Roma, en 1877. En 1881 ingreso comoprfesor en la Universidad de Palermo. Sus contribuciones mas relevantes se tienen en la teorıade grupos y ecuaciones.

4Julio Rey Pastor nacio en Logrono en 1888 y murio en Buenos Aires en 1962. Obtuvo sudoctorado en la Universidad de Madrid (que precede a la Complutense) en 1910 y fue fundadorde la Sociedad Matematica Espanola (que precede la actual RSME). En 1917 se traslado aArgentina donde siguio desarrrollando una gran influencia en el desarrollo de las matematicashispanas.

4.3. APLICACIONES Y PROPIEDADES DEL RANGO 75

2. Si rg (A) = rg (A|B) < numero de incognitas (=numero de col.) entoncesSCI.

3. Si rg (A) < rg (A|B) entonces el sistema es Incompatible.

Demostracion. Supongamos que A tiene orden m × n. Sabemos que C(A) ≤C(A|B) pues hemos agregado el vector columna B a la matriz.

Primero notemos lo siguiente: rg(A) = rg(A|B) si y solo si, por definicionde rango, dim(C(A)) = dim(C(A|B)) y por el Teorema 3.54 esto ocurre si ysolo si C(A) = C(A|B) y esto, a su vez, ocurre si y solo si B ∈ C(A) y por laObervacion 3.33 esto se tiene si y solo si el sistema AX = B es compatible.

De aquı, obtenemos que rg(A) = rg(A|B) si y solo si el sistema AX = B escompatible. Para probar los dos primeros apartados procedemos como sigue:

1. Si rg(A) = n entonces, por definicion de rango y de dimension, las co-lumnas de A forman un conjunto l.i. y por el Teorema 3.23 el sistema AX = 0es determinado, lo cual implica por el Corolario 3.17 que el sistema compatibleAX = B, es determinado.

2. Si rg(A) < n entonces el conjunto de columnas de A es l.d. y, como antes,por el Teorema 3.22 se tendra que AX = B es compatible indeterminado.

3. Hemos visto que rg(A) = rg(A|B) si y solo si el sistema AX = B escompatible. Por contrapositiva, se tiene el resultado.

4.3. Aplicaciones y propiedades del rango

Proposicion 4.3. Sean A,B,E, F matrices tales que E y F son invertibles yAB, EA, AF tienen sentido. Entonces

1. rg (AB) ≤ mın {rgA, rgB}.

2. rgA = rgEA = rgAF .

3. rg (A) = rg (At).

Demostracion. 1. Inmediato del hecho de que F(AB) ⊆ F(B) y de que C(AB) ⊆C(A), junto con la definicion de rango.

2. Inmediato del hecho de que dim C(A) = dim C(EA) = dim C(AF ).3. rgA = dim C(A) = dimF(A) = dim C(At) = rgAt.

Vamos a terminar con unos ejemplos donde aplicaremos el Teorema deRouche.

Ejemplos 47. 1. Considerese el sistema

x+ 3y = 5

2x+ y = 5

x+ 2y = 4

76 CAPITULO 4. DIMENSION Y RANGO

del cual obtenemos la matriz ampliada, que reducimos por filas 1 3 52 1 51 2 4

∼ · · · ∼ 1 3 5

0 1 10 0 0

.

Entonces,

rg(A) = rg(A|B) = 2, que es igual al numero de columnas. Por tantoes sistema compatible determinado.

Resolvemos x = 2 e y = 1.

2. Ahora considerese el sistema

x+ 3y = 5

2x+ y = 0

x+ 2y = 2

del cual obtenemos la matriz ampliada, que reducimos por filas 1 3 52 1 01 2 2

∼ · · · ∼ 1 3 5

0 1 20 0 −1

.

Entonces,

2 = rg(A) < rg(A|B) = 3, que nos da un sistema incompatible.

3. Finalmente, considerese el sistema

x+ 3y + 5z = 0

2x+ y + 5z = 0

x+ 2y + 4z = 0

del cual obtenemos la matriz ampliada, que reducimos por filas 1 3 5 02 1 5 01 2 4 0

∼ · · · ∼ 1 3 5 0

0 1 1 00 0 0 0

.

Entonces,

rg(A) = rg(A|B) = 2, que es menor que el numero de columnas. Portanto es sistema compatible indeterminado.

Resolvemos. Como dimN (A) = 1, tenemos un grado de libertad. Co-mo hemos visto en el Ejemplo 23 y mas formalmente en el Ejemplo 42que vimos en 3.59, tenemos un grado de libertad, ası que considera-mos un parametro, digamos λ y resolvemos x = −2λ, y = −λ yz = λ.

Capıtulo 5

Aplicaciones lineales

La primera aparicion de las aplicaciones lineales como las interpretamos hoyen dıa aparece en el famoso libro de Gauss Disquisitiones arithmeticae en elcontexto del estudio de las llamadas formas cuadraticas. Mas tarde Cayley ydespues GRassmann aportaron formalizacion y relevancia a su estudio. Fue yacon Peano, al igual que con otros temas que hemos mencionado, que se formalizoel concepto y se demostraron los primeros resultados provenientes de axiomas.La forma como vemos estos temas hoy en dıa, proviene de los textos de EmmyNoether1

Definicion 5.1. Sean V,W espacios vectoriales sobre un cuerpo K.Una aplicacion f : V →W decimos que es lineal si verifica:

1. f (v + w) = f (v) + f (w) para todo v ∈ V y w ∈W

2. f (λv) = λf (v) para todo λ ∈ K y v ∈ V

O bien, si dados vectores v, w ∈ V y escalares λ, µ ∈ K se tiene quef (λv + µw) = λf (v) + µf (w)

Es decir, una aplicacion lineal relaciona combinaciones lineales con combi-naciones lineales.

Observacion 5.2. Si f : V →W que es lineal entonces f (0) = 0.

1Emmy Noether nacio en 1882 en Erlangen, Bavaria, Alemania y murio en 1935 in BrynMawr, Pennsylvania, Estados Unidos. Hija de un distinguido fısico-matematico en su educa-cion preuniversitaria destaco especialmente en el estudio de las lenguas; sin embargo, en 1900solicito matricularse en la carrera de matematicas. Por su condicion de mujer, no se le permitiomatricularse (a pesar de aprobar los examenes de admision), pero sı asistir a las clases, tantoen la Universidad de Erlangen, como en las de Gottingen y Nurnberg. En 1904 la ley cambioy ya se pudo matricular. En 1907 obtuvo su doctorado con grandes honores. A partir de ahı,obtuvo una gran reputacion ganando premios y participando en las mas importantes socieda-des cientıficas. En 1915 volvio a Gottingen a trabajar con CHilbert y Klein, hasta 1933 en quefue expulsada de la Universidad por el gobierno nazi. Emigro a Estados Unidos donde pudocontinuar con sus grandes aportaciones en la Universidad de Bryn Mawr, hasta su repentinamuerte por enfermedad, en 1935.

77

78 CAPITULO 5. APLICACIONES LINEALES

Ejemplos 48.

1. f : R3 → R2 tal que f(x, y, z) = (x+ y, z).

2. f : P2 → P3 tal que f(a0 + a1X + a2X

2)

= a2X3.

3. Sea Am×n una matriz. Multiplicar por A, elementos de Kn es una aplica-cion fA· : Kn → Km tal que fA · (v) = Av.

4. Sea A una matriz y E una matriz invertible (producto de matrices elemen-tales) de tal manera que el producto EA tiene sentido. Sea f : C(A) →C(EA) tal que f(v) = E · v. Entonces f es una aplicacion lineal biyectivacon f−1 = E−1.

5. Sea V = W1 ⊕ · · · ⊕Wn. Definimos ρi : V → Wi de la siguiente forma.Para v ∈ V existen unicos wi ∈ Wi tales que v =

∑ni=1 wi. Entonces

ρi (v) = wi. Esta aplicacion es lineal. Se llama la proyeccion sobre Wi.

6. Sea V = W1⊕· · ·⊕Wn. Definimos µi : Wi →W tal que µi (w) = w. Estaaplicacion es lineal e inyectiva. Se llama la inclusion natural.

7. Sea V un K-espacio vectorial y W ≤ V . Sea η : V → V/W , la proyeccioncanonica. Esta es tambien aplicacion lineal.

8. Sea V = V1 × · · · × Vn espacio producto. Tanto πi : V → Vi tal queπ (v1, . . . , vn) = vi, como νi : Vi → V tal que ν (v) =

(0, . . . , v(i), 0, . . . , 0

)son lineales.

9. TAREA: Sea V = Kn. Se considera {i1, . . . , ir} ⊆ {1, . . . , n}. Entoncesρi1,...,ir : Kn → Kr, tal que ρi1,...,ir (x1, . . . , xn) = (xi1 , . . . , xir ) es lineal.Tambien es una proyeccion.

5.1. Nucleo e imagen

Definicion 5.3. Sea K un cuerpo y V,W K-espacios vectoriales. Asociados auna aplicacion lineal f : V →W hay dos conjuntos notables:

1. El nucleo de f, que denotamos

Nuc f = {v ∈ V f (v) = 0} .

2. La imagen de f, que denotamos

Imf = {w ∈W ∃v ∈ V tq f (v) = w} .

Proposicion 5.4. Sea K un cuerpo y V,W K-espacios vectoriales. Para todaaplicacion lineal f : V → W se tiene que Nuc f e Imf son subespacios de V yW , respectivamente.

5.2. CLASIFICACION DE LAS APLICACIONES LINEALES 79

Demostracion. Inmediato de la definicion de aplicacion lineal y del Teorema 3.6.

Ejemplos 49. El los Ejemplos 48 se pide calcular el nucleo y la imagen.

1. f : R3 → R2 tal que f(x, y, z) = (x+ y, z).

En este caso, Nuc f = {(x, y, z) | x+ y = 0, z = 0}, una recta. Ademas,Imf = {(a, b) | a = x+ y, b = z} = R2.

2. f : P2 → P3 tal que f(a0 + a1X + a2X

2)

= a2X3.

Aquı, Nuc f = {a0 + a1X + a2X2 | a2 = 0} = {a0 + a1X | a0, a1 ∈ R} y

ası...

3. Sea Am×n una matriz. Multiplicar por A, elementos de Kn es una aplica-cion fA· : Kn → Km tal que fA · (v) = Av.

En este caso Nuc fA es el espacio nulo por la derecha de A, (3.8) y laimagen es C(A) (3.4.1).

4. Sea A una matriz y E una matriz invertible (producto de matrices elemen-tales) de tal manera que el producto EA tiene sentido. Sea f : C(A) →C(EA) tal que f(v) = E · v. Entonces f es una aplicacion lineal biyectivacon f−1 = E−1.

y ası con el resto.

Notese que en el ejemplo anterior, f : R3 → R2 tal que f(x, y, z) = (x+y, z)se tiene que f(x, y, z) = (0, 0) si y solo si x + y = 0 y z = 0 si y solo si

(x, y, z) ∈ N(

1 1 00 0 1

).

A su vez, (a, b) ∈ Imf si y solo si a = x+y y b = z si y solo si

(1 1 0 a0 0 1 b

)es compatible si y solo si (a, b) ∈ C

(1 1 00 0 1

).

Esto nos deja entrever que las aplicaciones lineales y las matrices seran es-tudios entrelazados.

5.2. Clasificacion de las aplicaciones lineales

Definicion 5.5. Sea K un cuerpo, V,W K-espacios vectoriales y f : V → Wuna aplicacion lineal.

1. Decimos que f es un monomorfismo si f es aplicacion inyectiva.

2. Decimos que f es un epimorfismo si f es aplicacion sobreyectiva o supra-yectiva.

80 CAPITULO 5. APLICACIONES LINEALES

3. Decimos que f es un isomorfismo si f es aplicacion biyectiva. Si entredos espacios, V,W existe un isomorfismo, decimos que los espacios sonisomorfos y denotamos V ∼= W .

Proposicion 5.6. Sea f : V →W una aplicacion lineal:

1. f es monomorfismo ⇔ Nuc f = {0} ⇔ dim Nuc f = 0.

2. f es epimorfismo ⇔ Imf = W ⇔ dim Imf = dimW

Demostracion. 1. El hecho de que Nuc f = {0} ⇔ dim Nuc f = 0 ya lo sabemos.⇒] Sea u ∈ Nuc f . Se tiene que f(0) = f(u), de donde, por hipotesis, 0 = u.⇐] Si f(u) = f(v) entonces f(u − v) = 0, por ser lineal, de donde, por

hipotesis, u− v = 0.El otro apartado se deja como ejercicio.

Ejemplos 50. Vamos a clasificar algunas de las aplicaciones de los Ejem-plos 48. Se pide justificar las respuesta.

1. f : R3 → R2 tal que f(x, y, z) = (x+ y, z) es epimorfismo.

2. f : P2 → P3 tal que f(a0 + a1X + a2X

2)

= a2X3. No es monomorfismo

ni epimorfismo.

3. Sea A una matriz y E una matriz invertible (producto de matrices elemen-tales) de tal manera que el producto EA tiene sentido. Sea f : C(A) →C(EA) tal que f(v) = E · v. Entonces f es una aplicacion lineal biyectivacon f−1 = E−1. En este caso, f es isomorfismo.

4. Sea V = W1 ⊕ · · · ⊕Wn. La proyeccion de V sobre Wi es epimorfismo.

5. Sea V = W1 ⊕ · · · ⊕Wn. La inclusion natural µi : Wi → V es monomor-fismo.

6. Sea V un K-espacio vectorial y W ≤ V . La proyeccion canonica η : V →V/W es epimorfismo.

Teorema 5.7. Sea V un K-espacio vectorial con dimV = n. Dada una baseordenada β ⊂ V, existe un isomorfismo asociado ϕβ : V → Kn tal que ϕβ (β)es la base canonica de Kn (3.37).

Es mas, para v ∈ V , f(v) = [v]β.

Demostracion. Sea β = {v1, . . . , vn} y consideramos la aplicacion biyectiva vi 7→ei. Ahora definimos, para v ∈ V .

Expresamos v =∑ni=1 aivi que sabemos que es unica.

Entonces f(v) =∑ni=1 aiei = [v]β .

Ahora tenemos que probar que f es aplicacion lineal; es decir, es una apli-cacion y cumple la Definicion 5.1. Se deja como ejercicio.

5.2. CLASIFICACION DE LAS APLICACIONES LINEALES 81

Corolario 5.8. Sean V,W espacios vectoriales sobre un cuerpo K. EntoncesV ∼= W ⇔ dimV = dimW

Demostracion. Trivial, de lo anterior.

Podemos llegar aun mas lejos. Al fenomeno que veremos a continuacion sele suele llamar “extender una aplicacion por linealidad”.

Teorema 5.9. Sean V,W K-espacios vectoriales. Sea β = {vi i = 1, . . . , n}una base ordenada para V y se considera cualquier aplicacion σ : β → W .Entonces, existe una unica aplicacion lineal f : V → W tal que f (vi) = σ(vi)para todo i ∈ I.

La imagen de la aplicacion Imf ⊆ 〈Imσ〉 (3.25)

Demostracion. Procederemos de forma analoga al teorema anterior. Definimos,para v ∈ V .

Expresamos v =∑ni=1 aivi que sabemos que es unica.

Entonces f(v) =∑ni=1 aiσ(vi).

Ahora tenemos que probar que f es aplicacion lineal; es decir, es una aplica-cion y cumple la Definicion 5.1. Ademas, que es unica. Se deja como ejercicio.

Ejemplo 51. Sea σ : ε3 → R4 tal que σ(1, 0, 0) = (1, 2, 1, 2), σ(0, 1, 0) =(1, 0, 1, 2) y σ(0, 0, 1) = (1, 6, 2, 2). Se pide dar la regla de correspondencia de launica aplicacion que extiende a σ por linealidad; es decir, f(x, y, z) =?.

Para resolver esto, hacemos

(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)

f(x, y, z) = xf(1, 0, 0) + yf(0, 1, 0) + zf(0, 0, 1)

f(x, y, z) = x(1, 2, 1, 2) + y(1, 0, 1, 2) + z(1, 6, 2, 2)

f(x, y, z) = (x+ y + z, 2x+ 6z, x+ y + 2z, 2(x+ y + z)).

Observacion 5.10. En la situacion del Teorema anterior, con γ = {wi i ∈ J}supongamos que I = J y que σ es la identidad. Entonces

1. f es inyectiva si y solo si γ es l.i.

2. f es epi si y solo si γ es generador para W .

3. f es isomorfismo si y solo si γ es base.

Efectivamente. Vamos a ver la primera de las afirmaciones. Supongamos que∑nj=1 ajwj = 0. Entonces 0 =

∑nj=1 ajwj =

∑nj=1 ajf (vj) = f

(∑nj=1 ajvj

)y

por hipotesis∑nj=1 ajvj = 0, lo cual implica que ai = 0, para i = 1, . . . , n, pues

β es base.Recıprocamente, sea v ∈ Nuc f . Si v =

∑ni=1 aivi se tiene que 0 = f (

∑ni=1 aivi) =∑n

i=1 aif (vi) =∑ni=1 aiwi = 0, lo cual implica que ai = 0, para i = 1, . . . , n y

en consecuencia v = 0.

82 CAPITULO 5. APLICACIONES LINEALES

Ejemplos 52. Se pide probar los siguientes resultados.

1. Pn ∼= Kn+1.

2. Mm×n(K) ∼= Kn·m.

5.3. Matriz asociada

Vamos a probar que toda aplicacion lineal entre dos espacios vectoriales conun par de bases ordenadas fijas tiene asociada una matriz. Eso nos permitira enmuchos casos reducir el estudio de aplicaciones al de matrices y sistemas.

Sean V,W espacios vectoriales de dimensiones n y m, respectivamente, sobreun cuerpo K. Sea f : V →W una aplicacion lineal.

Sean β = {v1, . . . , vn} y γ = {w1, . . . , wm} bases ordenadas de V y W ,respectivamente. Entonces, se tienen escalares aij tales que

f (v1) = a11w1 + · · ·+ am1wm...

f (vn) = a1nw1 + · · ·+ amnwm

Definicion 5.11. A la matriz (aij) se la denota Mγβ (f) y se llama la matriz

asociada a f respecto de las bases β y γ.

Observacion 5.12. En la situacion de la definicion anterior se tiene:

Mγβ (f) =

|[f (v1)]γ|

. . .|

[f (vn)]γ|

donde|

[f (v1)]γ|

denota las coordenadas de los vi 3.38 escritas como columna.

Ejemplos 53. Volvamos a los Ejemplos 48

1. f : R3 → R2 tal que f(x, y, z) = (x+ y, z).

Vamos a calcular primero respecto de las bases canonicas. En este caso

f(1, 0, 0) = 1(1, 0) + 0(0, 1) = (1, 0).

f(0, 1, 0) = 1(1, 0) + 0(0, 1) = (1, 0).

f(0, 0, 1) = 0(1, 0) + 1(0, 1) = (0, 1) y ası

Mεε (f) =

(1 1 00 0 1

).

Ahora consideremos las bases β = {(1, 1, 0), (1, 0, 1), (0, 1, 1)} y γ = {(1, 1), (1, 2)}.En este caso

5.3. MATRIZ ASOCIADA 83

f(1, 1, 0) = (2, 0) = 4(1, 1)− 2(1, 2) = [4,−2]γ .

f(1, 0, 1) = (1, 1) = 1(1, 1) + 0(1, 2) = [1, 0]γ .

f(0, 1, 1) = (1, 1) = 1(1, 1) + 0(1, 2) = [1, 0]γ y ası

Mγβ (f) =

(4 1 1−2 0 0

).

2. f : P2 → P3 tal que f(a0 + a1X + a2X

2)

= a2X3.

Se pide comprobar que Mεε (f) =

0 0 00 0 00 0 00 0 1

3. Sea Am×n una matriz. Multiplicar por A, elementos de Kn es una aplica-

cion fA· : Kn → Km tal que fA · (v) = Av.

En este caso, la matriz asociada en las bases canonicas es Mεε (fA) = A

4. Sea V = W1 ⊕ · · · ⊕Wn. Definimos ρi : V → Wi de la siguiente forma.Para v ∈ V existen unicos wi ∈ Wi tales que v =

∑ni=1 wi. Entonces

ρi (v) = wi. Esta aplicacion es lineal. Se llama la proyeccion sobre Wi.

5. Sea V = W1⊕· · ·⊕Wn. Definimos µi : Wi →W tal que µi (w) = w. Estaaplicacion es lineal e inyectiva. Se llama la inclusion natural.

Teorema 5.13. Sean V,W K-espacios vectoriales con bases ordenadas β y γ,respectivamente y f : V →W una aplicacion lineal. Sea v ∈ V cualquier vector.Entonces, la siguiente relacion se verifica:

Mγβ (f) · [v]β = [f(v)]γ .

Demostracion. Sean β = {v1, . . . , vn} y γ = {w1, . . . , wm} bases ordenadas de Vy W , respectivamente, y sea Mγ

β (f) = (aij)mn obtenida como en la definicion.

Sea v ∈ V con v =∑nj=1 rjvj . Entonces [v]β = (r1, . . . , rn) y el producto

Mγβ (f) [v]β = (ci) (matriz columna) tal que ci =

∑np=1 aiprp.

Ahora calculamos f (v) =∑ni=1 rif (vi) y sustituyendo cada f (vi) en termi-

nos de la base γ, f (v) =∑ni=1 ri (a1iw1 + · · ·+ amiwm). Ahora factorizamos

los wi y nos queda la suma

f (v) =

m∑i=1

(ai1r1 + · · ·+ ainrn)wi =

m∑i=1

ciwi,

ası que ϕγ (f(v)) = (ci) = Mγβ (f) (ϕ(v)).

Una relacion interesante sobre matrices asociadas se tiene en el siguienteresultado. Para ello, tenemos que recordar la definicion de ϕβ : V → Kn en(5.7) tal que ϕβ(v) = [v]β y ϕβ(β) = εn.

84 CAPITULO 5. APLICACIONES LINEALES

Proposicion 5.14. En la situacion del teorema anterior, sean εn y εm las basescanonicas de Kn y Km, respectivamente. Entonces

Mγβ (f) = Mεm

εn

(ϕγ ◦ f ◦ ϕ−1

β

)Demostracion. Seguiremos el diagrama

V W

Kn Km

-f

-ϕγ ◦ f ◦ ϕ−1

β

6

ϕβ

?

ϕ−1β

6

ϕ−1γ

?

ϕγ

En el siguiente argumento usamos repetidamente que si x ∈ Kn entoncesϕε(x) = x.

Sea x ∈ Kn. Entonces,

Mγβ (f)·x = Mγ

β (f)ϕβ

(ϕ−1β (x)

)= ϕγ

(f(ϕ−1β (x)

))= ϕεm

((ϕγ ◦ f ◦ ϕ−1

β

)(x))

=

= ϕεm

((ϕγ ◦ f ◦ ϕ−1

β

)(ϕεn (x))

)= M εm

εn

(ϕγ ◦ f ◦ ϕ−1

β

)ϕεn (x) = M εm

εn

(ϕγ ◦ f ◦ ϕ−1

β

)x

Ejemplos 54. 1. Verificar la relacion para f : P2 → P3 tal que f(a0 + a1X + a2X

2)

=

3a0 + a2X + a1X2. En las bases β =

{1, X,X2

}, γ =

{1, X,X2, X3

}.

2. Para f : R3 → R2 tal que f(x, y, z) = (x + y, z). En las bases β ={(1, 1, 0), (1, 0, 1), (0, 1, 1)} y γ = {(1, 1), (1, 2)}.

5.15. Calculo del nucleo y la imagen. Sea K un cuerpo y V,W espaciosvectoriales sobre K, con bases ordenadas β = {v1, . . . , vn} y γ = {w1, . . . , wm} ,respectivamente. Supongase que dimV = n y dimW = m. Y sea f : V → Wuna aplicacion lineal. Considerese la matriz asociada Mγ

β (f).Del Teorema 5.13 se deducen los siguientes hechos.

1. v ∈ Nuc f si y solo si Mγβ (f) · [v]β = 0 si y solo si [v]β ∈ N

(Mγβ (f)

), el

espacio nulo de la matriz. Es decir Nuc f ∼= N(Mγβ (f)

)a traves de las

restricciones de ϕβ y ϕ−1β ,

Nuc f-

� N(Mγβ (f)

)ϕ−1β

ϕβ

5.3. MATRIZ ASOCIADA 85

Efectivamente. v ∈ Nuc f ⇔ f(v) = 0 ⇔ [f(v)]γ = 0 ⇔ M(f)[v]β = 0.

2. w ∈ Imf si y solo si la ecuacion Mγβ (f)X = ϕ−1

γ (w) tiene solucion

si y solo si ϕ−1γ (w) ∈ C

(Mγβ (f)

), el espacio columna. Es decir Imf ∼=

C(Mγβ (f)

)a traves de las restricciones de ϕγ y ϕ−1

γ ,

Imf-

� C(Mγβ (f)

)ϕ−1γ

ϕγ

Efectivamente. La primera afirmacion proviene de la observacion (3.33.1).Ahora bien, w ∈ Imf ⇔ existe v ∈ V tq Mγ

β (f)[v]β = [w]γ = ϕγ(w) ⇔ϕγ(w) ∈ C

(Mγβ (f)

)Una consecuencia es

Proposicion 5.16. En el contexto anterior.

1. dim Nuc f = dimN(Mγβ (f)

)2. dim Imf = dim C

(Mγβ (f)

)= rg

(Mγβ (f)

)Demostracion. Inmediata del parrafo anterior (5.15).

Recordemos la ecuacion del rango (Teorema 4.1), para una matriz A,

dimN (A) + rg (A) = numero de columnas de A.

Esto se traduce en la siguiente igualdad, para nuestra aplicacion f,

dim Nuc f + dim Imf = dimV (5.1)

Como consecuencia de esto se tiene:

Proposicion 5.17. Sea K un cuerpo y V,W espacios vectoriales sobre K, conbases ordenadas β y γ, respectivamente, y sea f : V →W una aplicacion lineal.Considerese la matriz asociada Mγ

β (f). Entonces

1. f es isomorfismo si y solo si Mγβ (f) es invertible y ademas Mβ

γ

(f−1

)=

Mγβ (f)

−1.

2. f es monomorfismo si y solo si rg(Mγβ (f)

)= dimV .

86 CAPITULO 5. APLICACIONES LINEALES

3. f es epimorfismo si y solo si rg(Mγβ (f)

)= dimW .

Ejemplo 55. Sea K un cuerpo y V,W espacios vectoriales sobre K, con basesordenadas β y γ, respectivamente, y sea f : V → W la aplicacion lineal queextiende por linealidad a la aplicacion σ : β →W tal que:

σ(v1) = w1 + 2w2 + w3 + 2w4

σ(v2) = w1 + w3 + 4w4

σ(v3) = w1 + 6w2 + 2w3 + 2w4.

Se pide:

1. Calcular la matriz asociada en las bases β y γ.

2. Calcular las ecuaciones implıcitas del nucleo y la imagen en la base quecorresponda.

3. Calcular las ecuaciones parametricas del nucleo y la imagen en la base quecorresponda.

Vamos a responder a las preguntas.

Primero, como estamos trabajando en espacios abstractos, echaremos manode lo visto en la Seccion 3.5.1.

1. Directamente se tiene que la matriz es

Mγβ (f) =

1 2 12 0 61 1 22 4 2

.

2. Para obtener las ecuaciones implıcitas del nucleo en la base β, como secomento en (5.15) y en la Observacion 3.9, hacemos Mγ

β (f)X = 0. Reduciendo1 2 1 02 0 6 01 1 2 02 4 2 0

∼ · · · ∼

1 2 1 00 1 −1 00 0 0 00 0 0 0

.

se tiene que

x+ 2y + z = 0

y − z = 0

son las ecuaciones implıcitas.

5.4. COMPOSICION Y PRODUCTO 87

Ahora bien, para obtener las ecuaciones implıcitas de la imagen en la baseγ, tomando en cuenta (5.15.2) hacemos

1 2 1 x2 0 6 y1 1 2 z2 4 2 t

∼ · · · ∼

1 2 1 x0 1 −1 z − x0 0 0 2x+ y − 4z0 0 0 t− 2x

.

que nos da

2x+ y − 4z = 0

2x− w = 0

3. Para obtener las ecuaciones parametricas del nucleo respecto de β, pode-mos proceder como en (3.59) para obtener una base, o simplemente buscar dossoluciones l.i. para

x+ 2y + z = 0

y − z = 0.

Vamos a hacer lo segundo. Ya sabemos que hay un grado de libertad (es una rec-ta), ası que cualquier solucion no cero es una base; por ejemplo v = (3,−1,−1).Por el metodo visto en (3.44) las ecuaciones son x = 3λ

y = −λz = −λ

Para terminar, obtendremos las ecuaciones implıcitas de la imagen a partirde una base. Por lo visto en (5.15) y en el metodo (3.44), primero extraemosuna base de columnas, como {(1, 2, 1, 2), (2, 0, 1, 4)}, en vista de que conocemoslos pivotes de la forma escalonada de la matriz, y luego hacemos las ecuaciones;a saber,

x = λ+ 2µy = 2λz = λ+ µt = 2λ+ 4µ.

5.4. Composicion y producto

Consideremos ahora U, V,W, espacios vectoriales de dimensiones l, n,m, conbases δ, β, γ, respectivamente. Sean f : U → V y g : V → W aplicacioneslineales. Sabemos que (g ◦ f) : U →W es tambien aplicacion lineal.

Teorema 5.18. Mγδ (g ◦ f) = Mγ

β (g)Mβδ (f) (notese la necesaria coincidencia

de β).

88 CAPITULO 5. APLICACIONES LINEALES

Demostracion. Sea u ∈ δ. Vamos a probar queMγδ (g ◦ f) [u]δ = Mγ

β (g)Mβδ (f) [u]δ.

(Notese que esto es suficiente porque como δ va a dar a la base canonica y el pro-ducto de la matriz con la base canonica nos va dando las columnas, ya podemosasegurar que las matrices son iguales.)

ϕ−1γ (Mγ

δ (g ◦ f)ϕδ (u)) = (g ◦ f) (u) = g (f (u)) =

ϕ−1γ

(Mγβ (g)ϕβ (f (u))

)= ϕ−1

γ

(Mγβ (g)ϕβ

(ϕ−1β

(Mβδ (f)ϕδ (u)

)))=

ϕ−1γ

(Mγβ (g)

(Mβδ (f)ϕδ (u)

))= ϕ−1

γ

(Mγβ (g)Mβ

δ (f)ϕδ (u))

Como ϕγ es isomorfismo, se tiene (Mγδ (g ◦ f)ϕδ (u)) =

(Mγβ (g)Mβ

δ (f)ϕδ (u))

.

Cambio de base

Una de las aplicaciones mas notables es la llamada matriz de cambio de base.Sea V un K-espacio vectorial y sean β y β′ bases de V . Supongamos que

v ∈ V y queremos conocer ϕβ′(v) a partir de ϕβ(v) y viceversa.Entonces

[v]β′ = Mβ′

β (Id) · [v]β

y

[v]β = Mββ′ (Id) · [v]β′

Definicion 5.19. A las matrices Mβ′

β (Id) se les llama matrices de cambio de

base y se denotan como Mβ′

β (Id) = Cβ′

β

Observacion 5.20. Toda matriz de cambio de base Cβ′

β es invertible; de hecho,

Cβ′

β · Cββ′ = I = Cββ′ · C

β′

β

5.21. Cambio de base en una matriz asociada. Supongase que se tieneuna aplicacion f : V → W de la cual se conoce la matriz asociada en ciertasbases β y γ, de V y W , respectivamente. Para obtener la matriz asociada enotro par de bases, digamos δ, α se puede hacer lo siguiente:

Mαδ (f) = CαγM

γβ (f)Cβδ .

Ejemplo 56. Supongase que se tiene una aplicacion lineal f : V → W de laque se conoce la matriz asociada en ciertas bases, sea A. Si obtenemos la matrizen cualesquiera otras, digamos B, podemos asegurar que rgB = rgA.

5.22. Calculo de la matriz de cambio de base En la situacion general deun K-espacio vectorial V con un par de bases β = {v1, . . . , vn} y β′, la matriz

5.4. COMPOSICION Y PRODUCTO 89

de cambio de base Cβ′

β por definicion es

Cβ′

β =

| |[v1]β′ . . . [vn]β′

| |

.

En particular, si V = Kn, β = {v1, . . . , vn} base de Kn y εn es la basecanonica,

Cεnβ =

| |v1 . . . vn| |

.

La otra es Cβεn =(Cεnβ

)−1

.

Ejemplo 57. Considerese en R3 el conjunto β = {(1, 1, 0), (0, 1, 1), (1, 0, 1)},expresado en terminos de la base canonica ε3, por defecto, como siempre.

Se pide hallar Cβεn .

Para resolver este problema podemos proceder de dos formas. La primeraes encontrar [(1, 0, 0)]β, etc. es decir, resolver los tres sistemas (se puede hacersimultaneamente) 1 0 1 1 0 0

1 1 0 0 1 00 1 1 0 0 1

(notese que esto se hace para calcular la inversa por operaciones elementales).

O bien calculamos, para

Cεβ =

1 0 11 1 00 1 1

la matriz inversa

Cβε =1

2

1 1 −1−1 1 11 −1 1

con cualquier metodo.

Ejemplo 58. Se considera la aplicacion lineal f : R3 → R2, dada por f(x, y, z) =(x + z, y − x). Se pide encontrar la matriz asociada en las bases ordenadasβ = {(1, 1, 0), (0, 1, 1), (1, 0, 1)} y γ = {(1, 1), (1, 2)}.

Para resolver esto, debemos tomar en cuenta que cuando se escribe sin masuna regla de correspondencia, se esta refiriendo a la base canonica. Una formade encontrar la matriz es la siguiente.

Calculamos Mε2ε3 (f) =

(1 0 1−1 1 0

).

90 CAPITULO 5. APLICACIONES LINEALES

Hacemos cambio de base. Primero establecemos lo que necesitamos

Mγβ (f) = Cγε2M

ε2ε3 (f)Cε3β .

Entonces Cγε2 =

(2 −1−1 1

)y Cε3β =

1 0 11 1 00 1 1

que ya habıamos calcu-

lado.

Finalmente

Mγβ (f) =

(2 1 5−1 0 3

).

5.5. Teoremas de isomorfıa

Sean V, V ′, U,W K-espacios vectoriales tales que U,W son subespacios deV . Sea f : V → V ′ una aplicacion lineal. Entonces:

Teorema 5.23 (Primer Teorema de Isomorfıa). Sean V, V ′ K-espacios vecto-riales y sea f : V → V ′ una aplicacion lineal. Entonces la aplicacion linealinducida f : V/Nuc f → V ′ dada por f(v + Nuc f) = f(v) esta bien definida yes monomorfismo, y por tanto

V/Nuc f ∼= Imf.

Demostracion. Ya conocemos por el Teorema 3.77 y la Definicion 3.78 al espacioV/Nuc f .

Empezamos viendo que f esta bien definida. Se tiene que v + Nuc f =v′ + Nuc f si y solo si v − v′ ∈ Nuc f si y solo si f(v − v′) = 0 si y solo sif(v) = f(v′) si y solo si f(v + Nuc f) = f(v′ + Nuc f).

Probar que es lineal se deja como ejercicio, ası como comprobar que es mo-nomorfismo.

Notese que si solamente se quiere probar que existe un isomorfismo V/Nuc f ∼=Imf , esto se obtiene de inmediato del calculo de la dimension del espacio co-ciente (Proposicion 3.79), la formula de Grassmann (Teorema 3.66) y el hechode que K-espacios con igual dimension, son isomorfos (Corolario 5.8).

Exactamente lo mismo ocurre con los dos siguientes resultados.

Corolario 5.24 (Segundo Teorema de Isomorfıa). Sean V,U,W K-espaciosvectoriales tales que U,W son subespacios de V . Entonces

(U +W ) /U ∼= W/ (U ∩W )

a traves de la correspondencia (u+ w) + U 7→ w + (U ∩W ).

5.6. EL ESPACIO DE LAS APLICACIONES LINEALES 91

Demostracion. Se considera la aplicacion f : U + W → W/ (U ∩W ) tal quef(u+w) = w+ (U ∩W ). Como la suma no es directa, tenemos que comprobarque es aplicacion. Si u + w = u′ + w′ entonces w − w′ = u′ − u ∈ U luegow − w′ ∈ U ∩W , de donde f(u+ w) = f(u′ + w′).

Comprobar que es lineal es directo y se deja como ejercicio.

Finalmente, notese que u + w ∈ Nuc f si y solo si w ∈ U , ası que podemosaplicar el Primer Teorema de Isomorfıa.

Corolario 5.25 (Tercer Teorema de Isomorfıa). Sean V,U,W K-espacios vec-toriales tales que U,W son subespacios de V y W ≤ U . Entonces

(V/W ) / (U/W ) ∼= V/U

a traves de la correspondencia (v +W ) + (U/W ) 7→ v + U .

Demostracion. Definimos f : V/W → V/U tal que f(v +W ) = v +U . Primerotenemos que ver que esta bien definida. Se tiene que v +W = v′ +W si y solosi v − v′ ∈W y como W ≤ U se tiene v + U = v′ + U .

Comprobar que es lineal es directo y se deja como ejercicio.

Vamos a calcular el nucleo. v + W ∈ Nuc f si y solo si v ∈ U si y solo siv+W ∈ U/W ; por tanto Nuc f = U/W . Luego se aplica el Primer Teorema deIsomorfıa.

5.6. El espacio de las aplicaciones lineales

Comenzaremos probando que el conjunto de las aplicaciones lineales puededotarse de estructura de espacio vectorial.

Definicion 5.26. Sean V,W K-espacios vectoriales. Se considera el conjunto,L, de todas las aplicaciones lineales de V en W . Definimos la suma y el productopor un escalar:

1. (f + g) (v) = f(v) + g(v).

2. (λf) (v) = λf(v).

Teorema 5.27. En la situacion de la definicion anterior. El conjunto L juntocon la suma y el producto por un escalar tiene estructura de K-espacio vectorial.

Demostracion. Es directa y se deja como ejercicio.

Definicion 5.28. Al espacio del teorema anterior se le conoce como el espa-cio de las aplicaciones lineales, o el espacio de los homomorfismos entreespacios vectoriales y se denota

HomK(V,W )

92 CAPITULO 5. APLICACIONES LINEALES

Teorema 5.29. Sean V y W K-espacios vectoriales tales que dimV = n ydimW = m, con bases ordenadas β y γ respectivamente. Se considera la corres-pondencia

σβ γ : HomK(V,W ) −→Mm×n(K)

dada por

σβ γ(f) = Mγβ (f)

Esta correspondencia es aplicacion lineal y, aun mas, es isomorfismo.

Demostracion. Es inmediato comprobar que σβ γ es aplicacion. Tenemos que verque es lineal. Sean λ, µ ∈ K y f, g ∈ HomK(V,W ). Queremos ver que Mγ

β (λf +

µg) = λMγβ (f) + µMγ

β (g). Supongamos que β = {v1, . . . , vn}. Considero un

elemento vi ∈ β. Entonces [(λf+µg)(vi)]γ es la i-esima columna deMγβ (λf+µg).

Ahora bien, por definicion de suma y producto por un escalar del espacioHomK(V,W ) se tiene que (λf+µg)(vi) = λf(vi)+µg(vi) y como la asignacion decoordenadas ϕγ : W → Km (vease el Teorema 5.7) es aplicacion lineal, entonces[(λf + µg)(vi)]γ = ϕγ (λf + µg)(vi)) = ϕγ (λf(vi) + µg(vi)) = λϕγ (f(vi)) +µϕγ (g(vi)) = λ[f(vi)]γ + µ[g(vi)]γ que es la i-esima columna de λMγ

β (f) +

µMγβ (g).

Corolario 5.30. En la situacion del teorema anterior, dim HomK(V,W ) =dimV · dimW .

Demostracion. Inmediato del teorema anterior y el Ejercicio 52.

Ejemplo 59. Aunque es trivial, puede interesarnos saber que, visto K como Kespacio vectorial, HomK(K,K) ∼= K. Esto es inmediato del corolario anterior,pero es muy interesante exhibir un isomorfismo usando el teorema anterior.

Homomorfismos y suma directa

Proposicion 5.31. Sean V,W K-espacios vectoriales con V = U⊕U ′. Entonces

η : HomK(U ⊕ U ′,W )→ HomK(U,W )⊕HomK(U ′,W )

tal que η(f) = (f1, f2) con f1 = f |U y f2 = f |U ′ es isomorfismo de K-espaciosvectoriales.

Demostracion. El hecho de que sean isomorfos se puede deducir del calculo dedimensiones, pero lo que queremos ver es que la correspondencia η es isomorfis-mo de K-espacios vectoriales.

Lo primero que observamos es que, dado f ∈ HomK(U⊕U ′,W ), se tiene quef1 = f |U y f2 = f |U ′ son unicas; es decir, solo tienen una forma de definirse,ası que η es aplicacion.

Vamos a ver que es lineal. Se consideran λ, µ ∈ K y f, g ∈ HomK(U⊕U ′,W ).Notese que lo que tenemos que probar es que (λf +µg)U = λ · fU +λ · gU y que(λf + µg)U ′ = λ · fU ′ + λ · gU ′ . De ahı sera inmediato el resultado.

5.7. EL ESPACIO DUAL 93

Es evidente que tienen el mismo dominio y codominio. Vamos a ver la regla decorrespondencia. Sea, pues, u ∈ U . Entonces (λf + µg)U (u) = (λf + µg)(u) =λ · f(u) + µ · g(u) = λ · fU (u) + λ · gU (u) = (λ · fU + λ · gU )(u). Con U ′ escompletamente analogo.

Observacion 5.32. Ası que

HomK(U ⊕ U ′,W ) ∼= HomK(U,W )⊕HomK(U ′,W ).

Tambien se puede probar, usando la proyeccion ρi de los Ejemplos 48(5) que

HomK(V,W1 ⊕W2) ∼= HomK(V,W1)⊕HomK(V,W2)

a traves de f 7→ (ρ1 ◦ f, ρ2 ◦ f).Aun mas, ambos resultados se pueden extender a un numero finito de su-

mandos.

5.7. El espacio dual

Definicion 5.33. Sea V un K-espacio vectorial. Considerese al propio cuerpoK como espacio vectorial sobre sı mismo. Se llama espacio dual de V al espacioHomK(V,K). Se denota V ∗.

Proposicion 5.34. Si V es de dimension finita entonces dimV = dimV ∗.

Demostracion. Inmediato del Corolario 5.30.

Observacion 5.35. El Teorema 5.29 nos dice que si se considera en V la baseβ = {v1, . . . , vn y la base canonica de K visto como K-espacio vectorial, digamosε1, entonces la correspondencia

f 7→Mε1β (f) = (f (v1) , . . . , f (vn))

da un isomorfismo V ∗ ∼= M1×n(K).

A continuacion vamos a construir una base de particular interes en el estudiode los espacios duales.

5.36. La delta de Kronecker. Para i, j ∈ N se define

δi j =

{0 si i 6= j,

1 si i = j.

que se conoce como la Delta de Kronecker.Notese que puede ser vista como una aplicacion δ : N × N → {0, 1} con la

regla de correspondencia anterior.

El siguiente resultado se conoce como el Teorema de la Base Dual.

94 CAPITULO 5. APLICACIONES LINEALES

Teorema 5.37. Sea V un K-espacio vectorial con base β = {v1, . . . , vn}. Seconsideran las aplicaciones

v∗i : V −→ K tales que v∗i (vj) = δi j =

{0 si i 6= j,

1 si i = j.

Entonces, las v∗i son lineales; es decir, v∗i ∈ V ∗ y ademas, el conjunto β∗ ={v∗1 , . . . , v∗n} es base para el espacio dual, V ∗.

Demostracion. Es inmediato comprobar que son aplicaciones lineales y se dejacomo ejercicio.

Por el Teorema de Steinitz (3.49) basta probar que β∗ es l.i. Considereseuna K-combinacion lineal

∑nj=0 αjv

∗j = 0, donde 0 es la aplicacion constante

0(v) = 0. Para cada i ∈ {1, . . . , n}, se tiene que 0 = 0(vi) =(∑n

j=1 αjv∗j

)(vi) =∑n

j=1 αjδji = αi. De donde αi = 0 para todo i ∈ {1, . . . , n} y por tanto β∗ esl.i.

Definicion 5.38. A la base β∗ de la definicion anterior se la conoce como basedual de β.

Observaciones 5.39.

1. Se puede comprobar facilmente que en la situacion del teorema anterior setiene que tomando la base canonica de K visto como K-espacio vectorial,ε1 se tiene Mε1

β (v∗i ) = (0, . . . , 0, 1i, 0, . . . , 0).

2. Sea v∗ ∈ V ∗, un elemento arbitrario y β∗ = {v∗1 , . . . , v∗n} la base dualde V ∗. Expresamos v∗ =

∑ni=1 αiv

∗i , ası que [v∗]β∗ = (α1, . . . , αn) =∑n

i=1 αiMε1β (v∗i ), por la observacion anterior.

Finalmente, por el Teorema 5.29 se tiene

[v∗]β∗ =

n∑i=1

αiMε1β (v∗i ) = Mε1

β

(n∑i=1

αiv∗i

)= Mε1

β (v∗)

Ejemplos 60. 1. Sean V = R3 y β la base canonica. Calcular la matriz dela base dual en dichas bases.

2. Sea S ={

(x, y, z) ∈ R3 x+ y + z = 0}

junto con base ordenada β ={v1 = (1,−1, 0), v2 = (0, 1,−1)}. Se pide:

a) Dar la matriz asociada a los elementos de la base dual en las basesβ y la canonica.

Respuesta. Es exactamente Mε1β (v∗1) = (1, 0) y Mε1

β (v∗2) = (0, 1),como dice la teorıa.

5.7. EL ESPACIO DUAL 95

b) Calcular la regla de correspondencia de los elementos de β∗ en termi-nos de (x, y, z) con x+ y + z = 0.

Respuesta. Sabemos que todo vector v = (x, y, z) con x+ y + z = 0se puede expresar como combinacion lineal de v1 y v2. Para saberexactamente como, podemos hacer 1 0 x−1 1 y0 −1 z

∼ 1 0 x

0 1 x+ y0 −1 z

∼ 1 0 x

0 1 x+ y0 0 x+ y + z

de donde (x, y, z) = xv1 +(x+y)v2, siempre que x+y+z = 0. Noteseque se puede comprobar xv1 + (x+ y)v2 = (x, y,−x− y).

Ahora, para v = (x, y, z) ∈ S, se tiene

v∗1(v) = v∗1(xv1 + (x+ y)v2) = x

v∗2(v) = v∗2(xv1 + (x+ y)v2) = x+ y

y se tiene el resultado. Notese que nosotros no conocemos la reglageneral v∗i (x, y, z) en R3.

5.7.1. Aplicacion dual

Definicion 5.40. Sean V,W K-espacios vectoriales de dimension finita, conbases β y γ respectivamente. Considerese una aplicacion lineal f : V → W . Sedefine la aplicacion dual f∗ : W ∗ → V ∗ como f∗(w∗) = w∗ ◦ f .

Trivialmente es aplicacion lineal porque es composicion de aplicaciones li-neales. Nos preguntamos por la matriz asociada.

Proposicion 5.41. Sean V,W K-espacios vectoriales de dimension finita, conbases β y γ respectivamente. Considerese una aplicacion lineal f : V →W y laaplicacion dual f∗ : W ∗ → V ∗. Entonces

Mβ∗

γ∗ (f∗) =(Mγβ (f)

)t.

Demostracion. Para este argumento, tenemos que distinguir cuidadosamenteentre filas y columnas. Vamos a dejar los habituales como fila y las columnasseran los traspuestos de las filas. Sabemos que

Mβ∗

γ∗ (f∗) · [w∗]tγ∗ = [w∗ ◦ f ]tβ∗ ,

donde los traspuestos son las coordenadas puestas como columna.Tambien sabemos, por la Observacion 5.39(2) que [w∗]γ∗ = Mε

γ (w∗) y que[w∗ ◦ f ]β∗ = Mε

β (w∗ ◦ f) = Mεγ (w∗)Mγ

β (f).

96 CAPITULO 5. APLICACIONES LINEALES

Luego, tomando traspuestas se tiene que

Mβ∗

γ∗ (f∗) ·Mεγ (w∗)

t= Mγ

β (f)tMεγ (w∗)

t.

De aquı se tiene, sustituyendo w∗ por cada w∗i de la base dual γ∗, que lasmatrices columna a columna son iguales, luego

Mβ∗

γ∗ (f∗) = Mγβ (f)

t

Ejemplo 61. Sea f : R3 → R2 tal que f(x, y, z) = (x + y, y − z). Encontrarf∗ (w∗), donde w∗(x, y) = x+ y.

Primero calculamos

Mε2ε3 (f) =

(1 1 00 1 −1

)Ademas, calculamos facilmente [1 1]ε∗3 = Mε1

ε3 (w∗).Como [f∗ (w∗)]tε∗3 = Mε2

ε3 (f)t[w∗]tε∗3 se tiene que [f∗ (w∗)]ε∗3 = (1 2 − 1).

Finalmente, sabemos que [f∗ (w∗)]ε∗3 = Mε1ε3 (f∗ (w∗)) y por la relacion entre

aplicacion lineal y matriz asociada (Vease el Teorema 5.13) se tiene

f∗ (w∗) (x, y, z) = x+ 2y − z.

5.7.2. Doble dual o bidual

Sean V un K-espacio vectorial de dimension finita, con base β. Podemosahora hacer del dual, otro dual. Es decir, considerar V ∗∗ y de hecho, podemosseguir ası, al parecer, indefinidamente. Vamos a ver que ganamos.

Es claro que las dimensiones de V y V ∗ son iguales, por el resultado de lasbases duales, ası que V y V ∗∗ tambien tienen la misma dimension, luego sonisomorfos, y tambien puedo preguntarme sobre la base dual de la base dual.

Hay un isomorfismo tıpico que resulta especialmente relevante en Algebra ygeometrıa. Se define de la siguiente manera:

Definicion 5.42. Sea V un K-espacio vectorial de dimension finita, con baseβ. Se define

θ : V → V ∗∗

tal que

θ(v) : V ∗ → K

θ(v) (w∗) = w∗(v)

Proposicion 5.43. Sea V un K-espacio vectorial de dimension finita, con baseβ = {v1, . . . , vn} y sea considera el doble dual V ∗∗, con la base β∗∗ obtenida comobase dual de V ∗. Entonces

5.7. EL ESPACIO DUAL 97

1. θ (vi) = v∗∗i .

2. θ : V → V ∗∗ es isomorfismo.

Demostracion. Por la definicion de base dual, se tiene que v∗∗i(v∗j)

= δij =

δji = v∗j (vi) = θ (vi)(v∗j). Esto prueba la parte 1.

(2) Es inmediato de (1) porque se desprende que θ relaciona base con base(Vease las Observaciones 5.10).

Proposicion 5.44. Sean V,W K-espacios vectoriales de dimension finita, f :V → W una aplicacion lineal y f∗∗ : V ∗∗ → W ∗∗ la aplicacion doble dual.Entonces el diagrama

V ∗∗ W ∗∗

V W

-f∗∗

-f

6

θ−1V

?

θV

6

θ−1W

?

θW

es conmutativo; es decir, θW ◦ f = f∗∗ ◦ θV .

Demostracion. Sean v ∈ V y w∗ ∈W ∗.

f∗∗ (θV (v)) (w∗) = (θV (v) ◦ f∗) (w∗) = θV (v) (w∗ ◦ f) =

= (w∗ ◦ f) (v) = w∗ (f (v)) = θW (f (v)) (w∗)

5.7.3. Subespacios ortogonales

Definicion 5.45. Sea V un K-espacio vectorial. Consideramos la aplicacion.

〈−,−〉 : V ∗ × V −→ K

tal que 〈f, v〉 = f (v).

1. Sea A ⊆ V (subconjunto). El conjunto ortogonal de A es

A⊥ = {v∗ ∈ V ∗ 〈v∗, a〉 = 0 para todo a ∈ A}

2. Sea B ⊆ V ∗ (subconjunto). El conjunto ortogonal de B es

B⊥ = {v ∈ V 〈v, b〉 = 0 para todo b ∈ B}

98 CAPITULO 5. APLICACIONES LINEALES

Observacion 5.46. La aplicacion f : V → V ∗∗ tal que f(v) = 〈−, v〉 verificaf = θV . Es facil de comprobar.

Proposicion 5.47. Propiedades:

1. A⊥ es subespacio de V ∗.

2. A ⊆ B implica B⊥ ⊆ A⊥.

3. V ⊥ = {0} y {0}⊥ = V ∗.

4. Si W ≤ V entonces dimW⊥ = dimV − dimW .

5. Si W ≤ V entonces W⊥⊥ = W (estrictamente, θV (W ) = W⊥⊥).

6. Si U,W ≤ V entonces (U ∩W )⊥

= U⊥ +W⊥ y (U +W )⊥

= U⊥ ∩W⊥.

Y se tienen las propiedades analogas para los subconjuntos de V ∗.

Demostracion. 1. Se desprende del hecho de que A⊥ =⋂a∈A Nuc 〈−, a〉.

2. Trivial.3. Se tiene que

V ⊥ = {v∗ ∈ V ∗ | v∗(a) = 0 ∀ a ∈ V } = {0}

de donde se desprende el resultado. El otro tambien se tiene trivialmente.

4. Por el apartado anterior solo tenemos que considerar el caso 0 6= W � V .Tomemos una base de W , digamos {v1, . . . , vm}, que extendemos a V ; ası β ={v1, . . . , vm, vm+1 . . . , vn}. Ahora consideremos la base dual, β∗.

Se afirma que W⊥ =⟨{v∗m+1, . . . , v

∗n

}⟩. Veamos. Para cualesquier ındices

1 ≤ i ≤ m y m + 1 ≤ j ≤ n se tiene que v∗j (vi) = 0, ası que v∗j ∈ W⊥

y se tiene una inclusion. Para la otra, tomemos cualquier elemento w ∈ W⊥.Como β∗ es base dual de V ∗ ⊃ W⊥ entonces se tiene una expresion w∗ =∑mk=1 αkv

∗k =

∑mi=1 αiv

∗i +

∑nj=m+1 αjv

∗j . Ahora, por un lado, 〈w∗, vk〉 = αk y

por otro 〈w∗, vi〉 = 0 para todo 1 ≤ i ≤ m. De aquı se desprende el resultado.

5. Primero notese que si w ∈ W entonces, para todo v∗ ∈ W⊥ se tiene que〈v∗, w〉 = 0, ası que θV (w)(v∗) = 0 luego 〈θV (w), v∗〉 = 0 de donde θV (w) ∈W⊥⊥. Con esto tenemos la inclusion W ≤W⊥⊥.

Finalmente,

dimW⊥⊥ = dimV ∗ − dimW⊥ = dimV ∗ − (dimV − dimW ) = dimW

de donde se desprende el resultado.

6. Primero, notese que, como U ∩W ≤ U,W entonces U⊥,W⊥ ≤ (U ∩W )⊥

de donde U⊥ + W⊥ ≤ (U ∩W )⊥

. De forma analoga se tiene que (U +W )⊥ ≤

U⊥ ∩W⊥

5.7. EL ESPACIO DUAL 99

Tomando duales en la primera y aplicando la segunda de las inclusionesanteriores se tiene que

(U ∩W )⊥⊥ ≤

(U⊥ +W⊥

)⊥ ≤ U⊥⊥ ∩W⊥⊥y por (5) se tiene

(U⊥ +W⊥

)⊥= U ∩W , de donde, otra vez tomando duales

(U ∩W )⊥

= U⊥ +W⊥, porque ya se tenıa una igualdad.Ahora tomando duales con la segunda y aplicando la primera de las inclu-

siones anteriores, se tiene(U⊥ ∩W⊥

)⊥ ⊆ (U +W )⊥⊥

= U +W = U⊥⊥ +W⊥⊥ ⊆(U⊥ ∩W⊥

)⊥de donde

(U⊥ ∩W⊥

)⊥= U +W y ası (U +W )

⊥= U⊥ ∩W⊥.

Proposicion 5.48. Sea f : V →W lineal y f∗ : W ∗ → V ∗. Entonces (Imf)⊥

=

Nuc f∗ y (Nuc f)⊥

= ImF ∗.

Demostracion. Solo basta describir los conjuntos.

100 CAPITULO 5. APLICACIONES LINEALES

Capıtulo 6

Determinantes y sistemasde ecuaciones

La primera aparicion de los determinantes como herramienta de solucion desistemas de ecuaciones se produjo en Japon, en 1683, con un texto de T. Seki1

donde se resuleven sistemas de ecuaciones de orden hasta 5 × 5. La segundaaparicion es en Europa, en 1693, cuando Leibniz introdujo los determinantescon el mismo proposito; sin embargo, no publico sus contribuciones (han sidopublicadas hace relativamente poco tiempo) a pesar de que son numerosas. Laprimera publicacion con estudio de ideas y metodos aparece en un libro deC. Maclaurin2 aplicados a sistemas de ecuaciones de orden 3 × 3. Mas tarde,Cramer3 expuso en uno de sus libros de texto, el conocido como metodo deCramer, aunque aparece sin demostracion.

La primera exposicion sistematica de los determinantes de matrices se debe

1Tozazaku Seki nacio en 1642 in Fujioka (hoy Gunma), Kozuke, Japon y murio en 1708in Edo (hoy Tokyo). Adoptado por una familia noble, fue un prodigio de las matematicas yadquirio gran prestigio en la nobleza. Ademas de su contribucion al metodo de solucion deecuaciones por determinantes (su metodo es mas general que el de Leibniz), tambien tieneaportaciones sobre los numeros de Bernoulli, las soluciones de la ecuacion cubica (1685) usandoel mismo metodo que propuso Horner 100 anos mas tarde y un largo etcetera.

2Colin Maclaurin nacion en 1698 en Kilmodan, Escocia y murio en 1746, en Edimburgo.Estudiante muy distinguido, a los 19 anos ingreso como profesor de estudios preuniversitariosen la Universidad de Aberdeen. En 1719 ingreso en la Real Sociedad de Londres y mas tardeobtuvo reconocimiento de la Academioa de Ciencias de Parıs. En 1725 ingreso como profesoren la Universidad de Edimburgo donde desarrollo el resto de su carrera, cn contribucionesnotables en el estudio del Calculo, la geometrıa y el algebra.

3Gabriel Cramer nacio en 1704 en Genova, Suiza y murio en 1752 en Bagnols-sur-Ceze,Francia. Obtuvo su doctorado a los 18 anos y, dos anos despues, ingreso como profesor en laAcademia de Clavin, en Genova. Como anecdota, Cramer fue de los profesores que impulsaronimpartir la ensenanza usando lenguas autoctonas (en su caso el frances) en vez de hacerlo enlatın, la tradicion. Recibio hoonores y premios de los mas grandes organismos cientıficos de suepoca, como la Academis de Ciencias de Parıs, por sus numerosas contribuciones en el calculo yla grometrıa. Existen algunos repoches historicos contra Cramer por atribuirse, entre otros, elmetodo de resolucion de ecuaciones que estudiaremos, cuando se dice que conocıa los trabajosde Maclaurin.

101

102 CAPITULO 6. DETERMINANTES Y SISTEMAS DE ECUACIONES

a A. Vandermonde4, en 1772, todavıa sin el nombre de determiantes, y masadelante Cauchy y Laplace contribuyeron de forma importante a su estudio sis-tematico y su calculo. Ya en el siglo xix se realizo su teorıa axiomatica. Ademasde las aplicaciones la resolucion de ecuaciones, los determinantes se aplican enalgebra simbolica, analisis matematico y la mecanica celeste.

Definicion 6.1. Un determinante es una aplicacion:

D : Mn (K) −→ K

(cuya imagen para A =

A1 . . . An

se denota D (A) o |A|) que tiene

tres propiedades basicas:

1. D

A1 . . . (αAi + βBi) . . . An

=

αD

A1 . . . Ai . . . An

+ βD

A1 . . . Bi . . . An

.

2. Si Ai = Aj con i 6= j entonces D

A1 . . . An

= 0

3. D (I) = 1.

Observacion 6.2. Como consecuencia inmediata de (1) se tiene que si A tieneuna columna cero entonces D (A) = 0.

6.1. Propiedades de los determinantes

Vamos a separar el estudio de las propiedades de los determinantes y sucalculo en tres partes. Primero calcularemos el determinante de todas las ma-trices elementales (relativas a operaciones por columna). A partir de esto dedu-ciremos sus propiedades aritmeticas basicas y finalmente veremos que cualquierdefinicion de determinante nos da siempre el mismo valor sobre las matriceselementales. De esta forma, habremos establecido que solo puede haber un de-terminante, y ası podremos hablar de “el determinante de una matriz”.

4Alexandre-Theophile Vandermonde nacio en 1735 en Paris y murio en 1796 en Parıs. Elera musico y hasta los 35 anos no trabajo en matematicas. Toda su contribucion se encuentraen cuatro formidables trabajos, con aplicaciones a la musica, que le valieronnumerosos reco-nocimientos de instituciones como la Academis de Ciencias de Parıs. Seguramente su nombrees conocido hoy en dıa por el determinante de Vandermonde, pero sus contribuciones a todala teorıa de determinantes es relevante.

6.1. PROPIEDADES DE LOS DETERMINANTES 103

Proposicion 6.3. Sean A y B matrices cuadradas de orden n, con entradas enun cuerpo K.

(a) Si A′ es la matriz que se obtiene de sumar un multiplo de una columna aotra entonces |A| = |A′|.

(b) Si A′ es la matriz que se obtiene de intercambiar dos columnas de A en-tonces − |A| = |A′|.

(c) Si A′ es la matriz que se obtiene de multiplicar una columna por un escalarα entonces α |A| = |A′|.

Demostracion. En todos los apartados, denotamos

A =

A1 . . . An

(a) Supongamos que sumamos la columna i a la j.

D

A1 . . . (αAi +Aj)(col. j) . . . An

=

D

A1 . . . (αAi)(col. j) . . . An

+D

A1 . . . (Aj)(col. j) . . . An

=

0 +D (A) = D (A).

(b) D (A′) = D

A1 . . . (Aj)(col. i) . . . (Ai)(col. j) . . . An

=

[el propio D(A′)] D

A1 . . . (Aj)(col. i) . . . (Ai)(col. j) . . . An

+

[vale 0] D

A1 . . . (Aj)(col. i) . . . (Aj)(col. j) . . . An

+

[el original D(A)] D

A1 . . . (Ai)(col. i) . . . (Aj)(col. j) . . . An

+

[vale 0] D

A1 . . . (Ai)(col. i) . . . (Ai)(col. j) . . . An

−[restamos D(A)] D

A1 . . . (Ai)(col. i) . . . (Aj)(col. j) . . . An

= 0−D (A) .

(c) Inmediata.

104 CAPITULO 6. DETERMINANTES Y SISTEMAS DE ECUACIONES

Con este resultado podemos saber el unico posible valor del determinante decada matriz elemental.

Corolario 6.4. Sea K un cuerpo y E una matriz elemental. Entonces

1. |E| = 1, si E es de sumar un multiplo de una fila o columna a otra.

2. |E| = −1 si E es de un intercambio de filas o columnas.

3. |E| = α 6= 0 si E es de multiplicar una fila o columna por un escalar nonulo α.

Demostracion. Inmediata.

Una vez que conocemos todos los posibles valores, pasamos a estudiar algu-nas propiedades aritmeticas de los determinantes.

Teorema 6.5. Sean K un cuerpo y A,E ∈ Mn(K) tales que E es una matrizelemental y A es una matriz arbitraria. Se tienen las siguientes propiedades:

1. |AE| = |A| |E|.

2. A tiene inversa si y solo si |A| 6= 0

3. |AB| = |A| |B|.

4. |A| = |At|.

5. Si A tiene inversa entonces∣∣A−1

∣∣ = |A|−1.

6. Si An×n y α ∈ K entonces |αA| = αn |A|.

Demostracion. (1) Por la Proposicion 6.3 se tiene que

|AE| =

|A| si E es de intercambio de columnas.

−|A| si E es de sumar un multiplo de una columna a otra.

α|A| si E es de multiplicar una columna por α 6= 0.

Ahora, por el Corolario 6.4 se tiene que

|A||E| =

|A| si E es de intercambio de columnas.

|A|(−1) si E es de sumar un multiplo de una columna a otra.

|A|(α) si E es de multiplicar una columna por α 6= 0.

De ahı se tiene la igualdad.(2) Primero vamos a probar que si las columnas de A forman un conjunto l.d.

entonces D (A) = 0. Para ver esto, observemos que en este caso, hay una matrizAE que se obtiene por operaciones elementales de A y que tiene una columnacero. Como |A| = |A| |E| = 0 entonces |A| = 0, porque |E| 6= 0 siempre. Porcontrapositiva, si |A| 6= 0 entonces A es invertible (pues sus columnas son l.i.).

6.2. EXISTENCIA Y CALCULO DEL DETERMINANTE 105

Recıprocamente, como A es invertible entonces es producto de elementa-les. Como los determinantes de elementales son distintos de cero, aplicando lasprimeras tres propiedades se tiene el resultado.

(3) Si |AB| = 0 entonces AB no tiene inversa ası que A o B no tieneninversa, por tanto |A| = 0 o |B| = 0, luego se tiene la igualdad en este caso.

Si |AB| 6= 0 entonces |A| 6= 0 y |B| 6= 0 ası que tanto A como B tieneninversa; luego son producto de elementales y por la observacion despues de lasprimeras tres propiedades se tiene el resultado.

(4) Si |A| = 0 entonces A no tiene inversa, luego At tampoco ası que |At| = 0tambien.

Para el caso |A| 6= 0, primero observemos que si E es una matriz elemental(fila o columna) de cualquier tipo entonces Et es tambien matriz elemental delmismo tipo (aunque en el caso de la operacion sumar una fila a otra, puedenvariar las filas), ası que |E| = |Et|.

Ahora, si |A| 6= 0 entonces A se factoriza en matrices elementales A =E1 · · ·Er, de donde At = Etr · · ·Et1, de donde |A| = |At|.

(5) Es inmediata de (3).(6) Inmediata de la Proposicion 6.3.

Corolario 6.6. Si D′ : Mn(K)→ K es una aplicacion que verifica los axiomasde la Defincion 6.1 entonces D′(A) = |A|, para todo A ∈ Mn(K); es decir, sonla misma aplicacion.

Demostracion. Se deja como ejercicio. Como sugerencia, notese que ni el Coro-lario 6.3 ni el Teorema 6.5 dependen de algun metodo de calculo.

6.2. Existencia y calculo del determinante

Vamos a probar la existencia del determinante de cualquier matriz cuadradausando la induccion sobre el orden de la matriz. Para ello, definiremos, paracada n ∈ N y cada i ∈ {1, . . . , n}, una aplicacion Detn,i(A) : Mn → K y luegoprobaremos que Detn,i(A) = |A|.

Comenzaremos con la definicion de matriz adjunta.

Definicion 6.7. Sea A = (aij)n×n una matriz con entradas en un cuerpo K.La matriz adjunta de la entrada aij, que denotamos con Aij es aquella que seobtiene eliminando la fila i y la columna j.

Ahora consideramos una matriz A = (aij)n×n.Para n = 1. Definimos

Det1,1(A) = a11

Es trivial probar que esta definicion cumple los axiomas de la Definicion 6.1y por tanto Det1,1(A) = |A|.

Definicion 6.8. Sea A = (aij)2×2 una matriz con entradas en un cuerpo K.El (determinante) adjunto de aij es

adj (aij) = (−1)i+j |Aij | .

106 CAPITULO 6. DETERMINANTES Y SISTEMAS DE ECUACIONES

Hipotesis de induccionSupongamos que hemos definido para todo 1 ≤ k < n, el adjunto

adj (aij) = (−1)i+j |Aij |

y el determinante a partir de cualquier fila i, como

|A| =k∑j=1

aij · adj (aij)

y que es verdadero que cumple los axiomas de los determinantes (6.1); por tanto,no depende de la fila elegida para el calculo (vease el Corolario 6.6).

Paso inductivo n. Elegimos cualquier fila i y definimos

|A| =n∑j=1

aijadj (aij) .

Tenemos que probar que cumple los axiomas de la Definicion 6.1.

Axioma 1. Sean A = (aij)n×n, A′ =(a′ij)n×n y A′′ =

(a′′ij)n×n tales que,

para todo i = 1, . . . , n, se tiene que aij0 = a′ij0 + a′′ij0 y aij = a′ij = a′′ij siempreque j 6= j0.

Separamos el sumando correspondiente a la columna j0, ası que

n∑j=1

aijadj (aij) = aij0adj (aij0) +

n∑j=1j 6=j0

aijadj (aij) .

Ahora, cada matriz adjunta Aij con j 6= j0 tiene la columna j0; ası que porhipotesis de induccion

adj (aij) = adj(a′ij)

+ adj(a′′ij)

y como ademas, aij0 = a′ij0 + a′′ij0 y adj (aij0) = adj(a′ij0)

= adj(a′′ij0)

se tiene

aij0adj (aij0) = a′ij0adj(a′ij0)

+ a′′ij0adj(a′′ij0)

Por lo tanto,

n∑j=1

aijadj (aij) =

n∑j=1

a′ijadj(a′ij)

+

n∑j=1

a′′ijadj(a′′ij).

Axioma 2. Supongamos que j1 y j2 son dos ındices distintos de columnastales que Aj1 = Aj2 . Asumimos SPG j1 < j2. Entonces, separando los sumandoscorrespondientes a esas columnas

n∑j=1

aijadj (aij) = aij1adj (aij1) + aij2adj (aij2) +∑

j 6=j1,j2

aijadj (aij) ,

6.2. EXISTENCIA Y CALCULO DEL DETERMINANTE 107

donde el ultimo sumando (la suma) puede ser cero de entrada si la matriz es deorden 2× 2.

Para cada j 6= j1, j2, la matriz Aij tiene tambien dos columnas iguales, asıque por hipotesis de induccion, todos los adjuntos del ultimo sumando son cero,luego ∑

j 6=j1,j2

aijadj (aij) = 0.

Falta conocer el valor de la primera suma aij1adj (aij1)+aij2adj (aij2). Vamosa determinarlo.

Para ello, notese que en Aij1 , la columna original j2 ocupa el lugar j2−1 y enAij2 , la columna original j1 ocupa el lugar j1. Para que sean iguales, entonces,hay que hacer j2 − j1 − 1 intercambios de filas en Aij1 , obteniendo la matrizAij2 , ası |Aij1 | = (−1)(j2−j1−1) |Aij2 |. Luego

aij1adj (aij1) + aij2adj (aij2) = (−1)(i+j1) |Aij1 |+ (−1)(i+j2) |Aij2 | =

=(

(−1)(i+j1)(−1)(j2−j1−1))|Aij2 |+ (−1)(i+j2) |Aij2 | =

= (−1)(i+j2−1) |Aij2 |+ (−1)(i+j2) |Aij2 | = 0

Porque (i+ j2 − 1) y (i+ j2) tienen, obviamente, paridad distinta.

Axioma 3. Es inmediato.

Observacion 6.9. Regla de Sarrus. Se puede comprobar de forma directa que elsiguiente metodo de calculo nos permite obtener el determinante de toda matrizde orden 3× 3.

(+)

QQQQQQQQs

QQQQQQQQs

QQQQQQQQs

(−)

���

���

��+

���

���

��+

���

���

��+

a11

a21

a31

a11

a21

a12

a22

a32

a12

a22

a13

a23

a33

a13

a23

La suma del producto de las diagonales de la izquierda menos la suma delproducto de las diagonales de la derecha.

108 CAPITULO 6. DETERMINANTES Y SISTEMAS DE ECUACIONES

6.3. Aplicaciones de los determinantes

6.3.1. Calculo del rango por determinantes

Una aplicacion importante de los determinantes es que se puede conocer elrango de una matriz a partir del calculo de los determianates de submatrices,como veremos a continuacion.

Definicion 6.10. Sea Am×n una matriz arbitraria con entradas en un cuerpoK. Un determinante menor (o subdetermiante) de A de orden r es el determi-nante de cualquier eleccion de submatriz A

(i1,...,irj1,...,jr

)Teorema 6.11. Sea Am×n una matriz arbitraria con entradas en un cuerpo K.Entonces

rg (A) = max {r ∈ {1, . . . , n} | |A ( IJ )| 6= 0 I, J ⊆ {1, . . . , n}, |I| = |J | = r} .

Es decir,orden del mayor determinante menor de A que no sea cero.

Demostracion. Primero vamos a ver que si A tiene un subdeterminante de ordenr × r no cero entonces A tiene al menos r -columnas l.i.

Supongamos que |A(i1,...,irj1,...,jr

)| 6= 0 y sea B = A

(1,...,mj1,...,jr

)la submatriz de

A que tiene las columnas (completas) involucradas en el subdeterminante an-terior. Vamos a probar que las columnas de B forman un conjunto l.i. Paraello, consideremos la ecuacion homogenea BX = 0. Ahora, por medio de inter-cambios adecuados de filas formamos la matriz E1B que tiene en sus primerasr-filas, aquellas involucradas en el determinante no cero. Como

∣∣B ( 1,...,rj1,...,jr

)∣∣ 6= 0entonces es invertible y por tanto se puede triangular, ası queda

E2E1B =

α11 . . . α1r

0. . .

......

. . .

0 . . . 0 αrrαr+1,1 . . . αr+1,r

......

αm1 . . . αmr

.

Con esta forma es claro que podemos hacer cero las filas r+ 1 hasta m. ası queBX = 0 es SCD y por lo tanto sus columnas son l.i.

Ahora vamos a probar que si A tiene r-columnas l.i. entonces tiene un de-terminante r × r que no es cero.

Sea B = A(

1,...,mj1,...,jr

)la submatriz de A tal que las columnas (completas) son

las columnas l.i. Entonces, BX = 0 es SCD y por lo tanto, la matriz B puedehacerse en forma escalonada (triangular). Sean i1, . . . , ir las filas originales deB que quedaron con pivote. Podemos asegurar que

∣∣A ( 1,...,mj1,...,jr

)∣∣ 6= 0.

6.3. APLICACIONES DE LOS DETERMINANTES 109

6.3.2. Metodo de Cramer

Considerese el sistema de ecuaciones

a11x1 + · · ·+ a1nxn = b1. . .

an1x1 + · · ·+ annxn = bn

cuadrado. Hacemos:

∆ =

∣∣∣∣∣∣a11 . . . a1n

. . .an1 . . . ann

∣∣∣∣∣∣ ; ∆x1 =

∣∣∣∣∣∣b1 . . . a1n

. . .bn . . . ann

∣∣∣∣∣∣ ; . . . ; ∆xn =

∣∣∣∣∣∣a11 . . . b1

. . .an1 . . . bn

∣∣∣∣∣∣ .Entonces si ∆ 6= 0 se tiene

x1 =∆x1

∆, . . . , xn =

∆xn∆

.

Demostracion. Sea

A =

a11 . . . a1n

. . .am1 . . . amn

=

A1 . . . An

y B =

b1...bn

.

Si ∆ 6= 0 entonces

A1

, . . . ,

An

es una base, ası que existe

una combinacion lineal

x1

A1

+ · · ·+ xn

An

= B.

Ahora bien,

∆xk =

∣∣∣∣∣∣ A1 . . . (B)col. k . . . An

∣∣∣∣∣∣ =

∣∣∣∣∣∣ A1 . . . (∑ni=1 xiAi)col. k . . . An

∣∣∣∣∣∣ =

=

n∑i=1

xi

∣∣∣∣∣∣ A1 . . . (Ai)col. k . . . An

∣∣∣∣∣∣ = xk

∣∣∣∣∣∣ A1 . . . Ak . . . An

∣∣∣∣∣∣ = xk∆.

Despejando se tiene xk = ∆xk∆ .

6.3.3. Inversa por adjuntos.

Considerese ahora una matriz cuadrada A tal que |A| 6= 0. Ya sabemos queentonces sera invertible.

110 CAPITULO 6. DETERMINANTES Y SISTEMAS DE ECUACIONES

Vamos a resolver los siguientes sistemas de ecuaciones usando el metodo deCramer. Recordemos que la base canonica de Rn la escribimos ε = {e1, . . . , en}.

A

x11

...xi1. . .xn1

=

10...

, . . . , A

x1j

...xij. . .xnj

=

0...0

1fila j

...

= etj , . . .

Recordando la definicion de adjunto y usando el metodo de Cramer se tiene

∆ · xij =

∣∣∣∣∣∣ A1 . . . (ej)col. i . . . An

∣∣∣∣∣∣ = adj (aji)

y se deduce que A−1 = 1|A| (adj (A))

t. Donde adj (A) es la matriz formada por

los adjuntos de cada elemento de A.

Capıtulo 7

Diagonalizacion y formascanonicas

El estudio de la diagonalizacion y las formas canonicas, incluidas las formasde Jordan se inicio en el marco del estudio de la representacion matricial de lasformas cuadraticas o bilineales reales. Mas adelante K. Weierstrass1, en 1868 yC. Jordan2 en 1870 formalizaron su estudio en el marco de la teorıa de matrices.

7.1. Introduccion y definiciones basicas

Sea V un K-espacio vectorial y f : V → V un endomorfismo. Sabemos que,a distintas bases de V corresponden distintas matrices asociadas a f . Es claroque algunas matrices tendras descripciones mas simples que otras. Vamos a veralgunos ejemplos.

1Karl Theodor Wilhelm Weierstrass nacio en 1815 en Ostenfelde, Westfalia (zona historicade la actual Alemania) y murio en 1897 en Berlin. Obligado a estudiar administracion enla Universidad de Bonn, Weierstrass sufrio mucho antes de inclinarse por la matematica, en1838. Fue autodidacta hasta que gracias a sus conocimientos ingreso como profesor en elPro-Gymnasium en Deutsch Krone (hoy en Polonia) y luego en el Collegium Hoseanum, enBraunsberg, en 1848 (ambos centros de eduacion media). Debido a sus contribuciones notablestanto de aportaciones originales a la matematica como la claridad de sus exposiciones, laUniversidad de Konigsberg le concedio un doctorado honorıfico. En 1856 ingreso en el Institutode la Industria de Berlın (educacion superior e investigacion) y mas tarde en la Universidad deBerlın. Sus cursos y conferencias le valieron fama mundial y una gran parte de los matematicosmas brillantes de la epoca expresaron siempre orgullosos haber sido alumnos suyos.

2Marie Ennemond Camille Jordan nacio en 1838 en, Lyon, Francia y murio en 1922 en Parıs.Realizo sus estudios superiores en la Escuela Politecnica de Parıa en matematicas e ingenierıa.En 1861 obtuvo su grado de doctor. Su profesion fue la ingenierıa; sin embargo ocupo caqrgosde profesor tanto en la Escuela Plitecnica como en otras instituciones importantes; ademas deser miembro de la Academia de Ciencias de Parıa. Las aportaciones de Jordan abarcan muchasareas de matematicas, como las ecuaciones diferenciales, la geometrıa y topologıa, la teorıuade cuerpos y grupos, donde se enmarca su trabajo Traite des substitutions et des equationsalgebraique donde se desarrolla el estudio de las formas de canonicas. Jordan se retiro en 1912pero no tuvo una vejez feliz pues vivio el horror de la Primera Guerra Mundial.

111

112 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

Ejemplo 62. Sea f : R3 → R3 tal que f (x, y, z) = (2x+ 2y + z, x+ 3y + z, x+ 2y + 2z).Entonces

M εε (f) =

2 2 11 3 11 2 2

.

Consideremos ahora la base β = {(2,−1, 0) , (1, 0,−1) , (1, 1, 1)}. Entonces

Mββ (f) =

1 0 00 1 00 0 5

una matriz diagonal,

Ahora bien, sabemos que M εε (f) = CεβM

ββ (f)Cβε , donde, como sabemos,

Cεβ =(Cβε)−1

.Haciendo las cuentas,

Cεβ =

2 1 1−1 0 10 −1 1

y Cβε =1

4

1 −1 11 1 −31 1 1

si hacemos C = M ε

β (Id) , se tiene A = CDC−1.

Notese que hay una diferencia inmensa entre, por ejemplo, calcular directa-mente A33 o usar la diagonalizacion, ya que A33 = CD33C−1.

Definicion 7.1. Decimos que dos matrices cuadradas A,B son semejantes siexiste una matriz C tal que A = CBC−1.

7.2. Matrices semejantes y cambio de base. Sea V un K-espacio vectorialy f : V → V un endomorfismo. Sea β una base de V y A = Mβ

β (f). Entonces,

la situacion A = CBC−1 siempre puede interpretarse como un cambio de base.

Efectivamente. Sean {C ′1, . . . , C ′n} las columnas de la matriz C−1. Hacemos

γ ={ϕ−1β (C ′1) , . . . , ϕ−1

β (C ′n)}

(vease el Teorema 5.7 para la definicion de ϕβ).

Entonces γ es una base para V tal que

Cβγ = C−1, Cγβ = C, y Mγγ (f) = D

7.3. Problema: Dada una matriz An×n determinar si existe y encontrar unamatriz diagonal D y una matriz invertible C tales que A = CDC−1.

El suguiente ejemplo nos muestra que necesitaremos primero determinar siexiste la diagonalizacion, para despues construir las matrices.

Ejemplo 63. Para la matriz

(1 01 1

)comprobar que jamas se podra encontrar

una matriz diagonal que sea semejante.

7.2. SUBESPACIOS INVARIANTES 113

Definicion 7.4.

1. Una matriz cuadrada A es diagonalizable si existe una matriz D, diagonal,que sea semejante a A.

2. Un endomorfismo f : V → V es diagonalizable si existe una base β de Vtal que la matriz asociada Mβ

β (f) es diagonal.

Observacion 7.5. Sea V un K-espacio vectorial de dimension finita con baseβ y sea A = Mβ

β (f). Entonces f es diagonalizable si y solo si la matriz A esdiagonalizable.

Ası que estudiar la diagonalizacion de endomorfismos es lo mismo que estu-diar la diagonalizacion de matrices.

7.2. Subespacios invariantes

Antes de entrar de lleno al proceso de la diagonalizacion, vamos a estableceralgunos hechos muy utiles para el desarrollo del metodo.

Definicion 7.6. Sea V un K-espacio vectorial y f : V → V un endomorfismo.Decimos que un subespacio W ≤ V es invariante bajo f , o f -invariante, sif (W ) ⊆W .

La importancia de los subespacios invariantes radica en la siguiente propie-dad. Para los siguientes resultados, las definiciones de familia independiente desubespacios y suma directa se tienen en los parrafos (3.67) y 3.68, respectiva-mente.

Lema 7.7. Sea V un K-espacio vectorial y supongamos que V = E1⊕· · ·⊕Enes suma directa de subespacios. Sean βi base de Ei. Entonces β = ∪ni=1βi es unabase para V .

Demostracion. Se deja como ejercicio. Como sugerencia, se puede usar la Pro-posicion 3.70.

Teorema 7.8. Sea V un K-espacio vectorial y f un endomorfismo de V . Su-pongamos que V = E1 ⊕ · · · ⊕En es suma directa de subespacios f -invariantes.Sean βi base de Ei. Hacemos Mβi

βi(f |Ei) = Mi y β = ∪ni=1βi (que ya sabemos

que es una base para V ). Entonces la matriz asociada en β es

Mββ (f) =

M1 00 M2 0

0. . . 00 Mn

Demostracion. Basta verlo para cada sumando Ei, con i = 1, . . . , n. Sea v ∈ Ei.

Entonces, si 0 < i < n se tiene [v]β = [(β1)

0 , . . . ,(βi−1)

0 ,(βi)

[v]βi ,(βi+1)

0 , . . . ,(βn)

0 ],

114 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

donde el parentesis superior indica los lugares que ocupan y los casos i = 1 ei = n se escriben siguiendo la pauta anterior de forma obvia.

Entonces se tiene que

Mββ (f)[v]tβ =

0 (β1)

...0 (βi−1)

[f(v)]βi (βi)

0 (βi+1)

...0 (βn)

,

donde el parentesis del lado derecho indica los lugares (vertical) que ocupan ylos casos i = 1 e i = n se escriben siguiendo la pauta anterior de forma obvia.

Como Mβiβi

(f |Ei) = Mi

Proposicion 7.9. Sea V un K-espacio vectorial de dimension finita y sea fun endomorfismo de V . Entonces existe una base β = {v1, . . . , vn} para la cualla matriz asociada es diagonal, es decir, es de la forma

λ1

λ2 0. . .

0 λn

si y solo si se verifica que f (vi) = λivi.

Demostracion. Inmediata.

Observacion 7.10. En terminos de matrices serıa: Si A = CDC−1, con D dia-gonal y las columnas de C son β = {C1, . . . , Cn} entonces ACi = CDC−1Ci =λiCi. O sea que para cada vi ∈ β, Avi = λvi para alguna λ ∈ K.

Ası entramos a la siguiente seccion

7.3. Diagonalizacion en espacios vectoriales so-bre C

Recordemos el planteamiento del problema en (7.3)

Dada una matriz An×n determinar si existe y encontrar una matrizdiagonal D y una matriz invertible C tales que A = CDC−1.

y la definicion de matriz y endomorfismo diagonalizables que aparece en laDefinicion 7.4

7.3. DIAGONALIZACION EN ESPACIOS VECTORIALES SOBRE C 115

1. Una matriz cuadrada A es diagonalizable si existe una matrizD, diagonal, que sea semejante a A.

2. Un endomorfismo f : V → V es diagonalizable si existe unabase β de V tal que la matriz asociada Mβ

β (f) es diagonal.

Sea V un C-espacio vectorial de dimension finita y f : V → V , un endo-morfismo. Por los resultados de la seccion anterior, buscamos aquellos escalaresλ ∈ C y vectores v ∈ V tales que f(v) = λv.

Definicion 7.11. Decimos que λ es un valor propio para f si existe un vectorv 6= 0 tal que f(v) = λv.

Definicion 7.12. Decimos que v 6= 0 es un vector propio de f si existe un valorpropio λ de f tal que f(v) = λv.

Notese que si A = Mββ (f), con β cualquier base de V y v ∈ V es cual-

quier vector propio de un valor propio λ entonces Aϕβ(v) = λϕβ(v). Ahorareplanteamos la diagonalizacion, con los nuevos terminos.

Proposicion 7.13. Sea V un C-espacio vectorial de dimension finita y f unendomorfismo. Entonces f es diagonalizable si y solo si existe una base de Vformada por vectores propios de f .

Demostracion. Inmediato de la Definicion 7.4 (vease el inicio de esta seccion),la Definicion 7.12 y la Proposicion 7.9

Ası que, para diagonalizar una matriz, tenemos primero que determinar to-dos los valores y vectores propios.

7.14. Calculo de los valores y vectores propios. Sea V un C-espacio vec-torial de dimension finita con base β y f un endomorfismo con matriz asociadaA = Mβ

β (f). Si un vector v ∈ V es tal que f(v) = λv entonces (f − Iλ) (v) = 0.Entonces, buscamos aquellos escalares λ que satisfagan cualquiera de las doscondiciones equivalentes:

1. Que el sistema (A− Iλ)X = 0 sea compatible indeterminado.

2. Que el determiante verifique |A− Iλ| = 0.

Entonces podemos replantear el problema en terminos de raıces de polino-mios.

Ejemplo 64. Sea

A =

2 2 11 3 11 2 2

ası que buscamos los valores λ tales que |A− Iλ| = 0. Hacemos

|A− Iλ| =

∣∣∣∣∣∣2− λ 2 1

1 3− λ 11 2 2− λ

∣∣∣∣∣∣ = λ3 − 7λ2 + 11λ− 5.

116 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

Igualando el polinomio a cero, vemos que los unicos valores propios son λ = 1(doble) y λ = 5 (simple).

Definicion 7.15. Sea A una matriz cuadrada. Al polinomio |A− Iλ| = pA (λ)se le conoce como el polinomio caracterıstico de A.

Se denota pA.

Queremos resolver el problema de la diagonalizacion a traves del calculo dedicho polinomio; ası que vamos a estuadiar algunas de sus propiedades basicas.

7.16. Propiedades del polinomio caracterıstico.

1. Dos matrices A y B semejantes tienen el mismo polinomio caracterıstico.

2. Por lo tanto, podemos hablar de “el” polinomio caracterıstico de un en-domorfismo f . Es decir, el polinomio caracterıstico de f sera el polinomiocaracterıstico de cualquier matriz asociada a f .

Lo denotaremos pf .

3. Si pA (λ) =∑ni=0 biλ

i entonces b0 = |A|.

4. Analizando ∣∣∣∣∣∣a11 − λ . . . a1n

. . .an1 . . . ann − λ

∣∣∣∣∣∣se puede comprobar que pA (λ) = (−1)

nλn +S (λ), donde S(λ) es el resto

del polinomio, con gr (S (λ)) < n. Luego gr (pA (λ)) = n, que es preci-samente dimC V y el coeficiente lıder o director es ±1; es decir, es unpolinomio monico.

Demostracion. 1. Si A = CBC−1 entonces

|A− λI| =∣∣CBC−1 − λI

∣∣ =∣∣C (B − λI)C−1

∣∣ = |C| |B − λI|∣∣C−1

∣∣ = |B − λI| .

2. Es trivial.3. Haciendo pA(0) = |A− I · 0| = |A| se tiene de inmediato.4. Inmediato, por ejemplo, del desarrollo del determinante por menores sobre

la primera fila.

Corolario 7.17. Si V tiene dimV = n entonces el grado del polinomio carac-terıstico de f es n. Por lo tanto, un endomorfismo de un C-espacio vectorial dedimension n tendra, a lo mas, n valores propios.

En terminos de matrices, una matriz cuadrada de tamano n tendra a lo mas,n valores propios.

Aun mas, pf (λ) = pA(λ).

Demostracion. Inmediata.

Definicion 7.18. Un valor propio λ se dice que tiene multiplicidad algebraican, si su multiplicidad como raız del polinomio caracterıstico es n.

7.3. DIAGONALIZACION EN ESPACIOS VECTORIALES SOBRE C 117

Por la Proposicion 7.13 sabemos que si hay diagonalizacion, la matriz diago-nal estara formada por los valores propios. Ahora buscamos una base de vectorespropios.

Definicion 7.19. Sea V un C-espacio vectorial de dimension finita y f unendomorfismo con valor propio λ ∈ C. El subespacio

Eλ = {v ∈ V f(v) = λv} = Nuc (f − Iλ)

se llama el espacio propio de λ.En terminos de matrices, el espacio propio es

Eλ = {v ∈ Cn Av = λv} = Nd (A− Iλ)

Observacion 7.20. Sea V un C-espacio vectorial de dimension finita, con baseβ, f un endomorfismo y A = Mβ

β (f). Es inmediato comprobar que

Eλ(f)

ϕβ−→←−ϕ−1β

Eλ(A).

Es decir, que los espacios son isomorfos, a traves de la restriccion ϕβ |Eλ(f).

Ejemplo 65. Sea A =

2 2 11 3 11 2 2

. Entonces

1. Los valores propios de A son λ1 = 1 doble y λ2 = 5 simple.

2. Resolvemos (A− I ·1)X = 0, obteniendo por reduccion el sistema indeter-minado x+2y+z = 0 con dos grados de libertad (veanse el Ejemplo 42 en3.59); ası que tenemos que encontrar dos soluciones l.i. que en este casopueden ser {(−2, 1, 0), (−1, 0, 1)}.La ecuacion implıcita de E1(f) es justo x+ 2y + z = 0.

3. Ahora resolvemos (A−I ·5)X = 0, obteniendo por reduccion el sistema in-

determinado

{x− 2y + z = 0

y − z = 0con un grado de libertad; ası que tenemos

que encontrar una solucion no nula que en este caso puede ser {(1, 1, 1)}.

Las ecuaciones implıcitas de E5(f) son

{x− 2y + z = 0

y − z = 0.

La relacion que tenemos es

pA (λ) = (λ1 − λ)m1 . . . (λn − λ)

mr sabemos que∑mj = n

? . . . ?Eλ1 . . . Eλn queremos cubrir a V

118 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

Proposicion 7.21. Sea V un C-espacio vectorial y sea f un endomorfismo.Entonces cada Eλi es invariante bajo f .

Demostracion. Inmediato de la Definicion 7.19 y el Teorema 3.6.

Lema 7.22. Sea f un endomorfismo y k, l escalares. Entonces

(f − Ik) (f − Il) = (f − Il) (f − Ik)

donde el producto lo identificamos con la composicion.En matrices.Sea An×n y k, l escalares. Entonces

(A− Ik) (A− Il) = (A− Il) (A− Ik)

Demostracion. Notese que, para v ∈ V y para todo k, l ∈ K, se tiene que(A− Ik) (A− Il) (v) = f2(v)− lv − kv + klv. De ahı es inmediato.

Teorema 7.23. Sea V un C-espacio vectorial de dimension finita y f un en-domorfismo. Sean λ1, . . . , λr distintos valores propios de f . Entonces {Eλi} esfamilia independiente (3.67) de subespacios de Cn.

Demostracion. Consideremos un vector v ∈ Eλj⋂∑

i 6=j Eλi . Entonces v =∑i6=j vi, con vi ∈ Eλi . Sea g =

∏i 6=j (f − Iλi). Se tiene entonces que g(v) =∏

i6=j (f − Iλi)(∑r

k=1k 6=j

vk

)=∑r

k=1k 6=j

∏i 6=j (f − Iλi) (vk). Por el Lema 7.22 se tie-

ne que∏i 6=j (f − Iλi) (vk) = 0, para cada k 6= j, de donde g(v) = 0. Ahora

bien, como v ∈ Eλj entonces f(v) = λjv, ası que 0 = g(v) =∏i 6=j (λjv − λiv) =∏

i6=j (λj − λi) v. Pero∏i 6=j (λj − λi) 6= 0, ası que v = 0.

Sabemos por la Proposicion 3.73 que en el caso de una familia independiente,{Eλi}, se tiene dim⊕Eλi =

∑dimEλi , y ademas, por el Lema 7.7 sabemos que

dadas las bases {βi} de cada Eλi se tiene que ∪βi es base de ⊕Eλi =∑Eλi .

Ahora le podemos encontrar sentido claro al siguiente teorema. Dada unamatriz ya sabemos obtener los valores propios (siempre los habra, pues estamosen C[λ]) y los vectores propios (bases de los Eλi). Solo falta determinar cuandola union de las βi es base para todo V . Y esto es claro por lo anterfior: cuan-do∑

dimEλi = n. Pero esto no ocurre siempre, lo cual sospechamos, porqueconocemos ejemplos de matrices que no son diagonalizables.

Ejemplo 66. Para la matriz

A =

1 0 01 1 00 0 2

,

la suma de sus subespacios propios no cubre a C3.

Efectivamente. El polinomio caracterıstico es pA (λ) = (1− λ)2

(2− λ). Sepuede comprobar que dimEλ1

(A) = 1 y dimEλ2(A) = 1. Luego Eλ1

⊕Eλ2� C3.

7.3. DIAGONALIZACION EN ESPACIOS VECTORIALES SOBRE C 119

Proposicion 7.24. Sea V un C-espacio vectorial y f un endomorfismo con va-lores propios λ1, . . . , λk cuyas multiplicidades son, respectivamente, m1, . . . ,mk

(sabemos que m1 + · · ·+mk = n [Corolario 7.17]). Entonces dimEλi ≤ mi.

Demostracion. Sabemos que λi es raız de pf (λ) con multiplicidad mi. Sea{v1, . . . , vt} una base para Eλi . Extendemos a una base para todo Cn, diga-mos {v1, . . . , vt, vt+1, . . . , vn} = β. Notese que

Mββ (f ·) =

λi

. . .

λi

B

0 C

.

Como p (f) = p(Mββ (f)

)y p(Mββ (f)

)= (λi − λ)

t |C − Iλ|, debera de ocurrir

que t ≤ mi.

Definicion 7.25. Sea V un C-espacio vectorial y f un endomorfismo con valo-res propios λ1, . . . , λk. Al valor dimCEλi se le llama la multiplicidad geometricade λi.

Teorema 7.26. Sea V un C-espacio vectorial de dimension finita y f un en-domorfismo con valores propios λ1, . . . , λk cuyas multiplicidades son, respecti-vamente, m1, . . . ,mk. Entonces, f es diagonalizable si y solo si dimCEλi = mi

para cada i ∈ {1, . . . , k}.

Demostracion. Recordemos que m1 + · · · + mk = n. Si f es diagonalizableentonces hay una base de vectores propios {v1, . . . , vn}. Los agrupamos porvalores propios (sean λ1, . . . , λk). Entonces n = dim (

⊕Eλi) ≤ m1 + · · ·+mk =

n. Como dimEλi ≤ mi, y las sumas coinciden, al ser numeros positivos se tienela igualdad.

Recıprocamente, si dimEλi = mi para todo i entonces dim (⊕Eλi) = m1 +

· · ·+mk = n, ası que la union de las bases de los Eλi forman una base de Cn,por el Lema 7.7.

Proceso de diagonalizacion

Sea A una matriz n × n sobre C (o se considera un endomorfismo de Cn).Para determinar si hay diagonalizacion y en caso de haberla llevarla a cabo, sepuede proceder como sigue:

1. Se extrae el polinomio caracterıstico pA (λ) y las raıces, {λ1, . . . , λr}, conmultiplicidades {m1, . . . ,mr}.

2. Para cada λi, calculamos dimEλi = rg (A− Iλi). Aquı decidimos.

a) Si ocurre dimEλi < mi para alguna i, no hay diagonalizacion.

b) Si dimEλi = mi entonces podemos asegurar que la matriz es diago-nalizable y continuamos.

120 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

3. Obtenemos una base βi para cada Eλi y hacemos β = ∪βi.

4. Respetando el orden (al menos cada vector propio debe de correspondera su valor propio), escribimos las matrices:

Cεnβ = C =

| |(β1) . . . (βn)| |

y

D =

λ1

. . .

λ1

m1 − veces 0

. . .

0

λr. . .

λr

mr − veces

y finalmente D = C−1AC

7.3.1. Diagonalizacion en los reales.

En muchos casos, por la naturaleza de los problemas que se aborden, nosinteresa conocer si la diagonalizacion de una matriz ocurre exclusivamente sobreel cuerpo de los numeros reales.

Sea V un R-espacio vectorial y f : V → V un endomorfismo. El lector puedecomprobar que todos los conceptos basicos y resultados de la Seccion 7.2 co-mo endomorfismo diagonalizable, subespacio invariante, las matrices asociadas,etcetera, se han definido para cualquier cuerpo K.

Asimismo, los conceptos y propiedades de los polinomios caracterısticos da-dos a lo largo de esta seccion se pueden restringir a espacios vectoriales sobre R.El problema radica en que el polinomio caracterıstico puede tener raıces com-plejas.

Entonces, para V un R-espacio vectorial y f : V → V un endomorfismo; alextraer los valores propios:

1. Si existe λi 6∈ R entonces no hay proceso pues nunca ocurrira que la sumade las dimensiones de los espacios propios asociados con valores propiosreales sea igual que n.

2. Si λi ∈ R para toda raız entonces continuamos el proceso y los λi seranlos valores propios.

Ası, la version real del Teorema 7.26 es la siguiente.

7.3. DIAGONALIZACION EN ESPACIOS VECTORIALES SOBRE C 121

Teorema 7.27. Sea V un R-espacio vectorial de dimension finita y f un en-domorfismo con valores propios todos reales λ1, . . . , λk cuyas multiplicidadesson, respectivamente, m1, . . . ,mk. Entonces, f es diagonalizable si y solo sidimREλi = mi para cada i ∈ {1, . . . , k}.

Demostracion. Se deja como ejercicio.

Corolario 7.28. Sea V un C-espacio vectorial de dimension finita y f un en-domorfismo con valores propios todos reales λ1, . . . , λk. Se tiene que f es dia-gonalizable como endomorfismo sobre C si y solo si lo es sobre R.

Demostracion. Esto depende del resultado muy facil de probar. Sea A una ma-triz con entradas en R. Entonces dimCNd(A) = dimRNd(A), y vale la base delespacio real. La igualdad anterior se deja como ejercicio.

Ejemplo 67. Diagonalizacion de

A =

2 2 11 3 11 2 2

Se tiene λ1 = 1 (doble) y λ2 = 5 (simple). Calculamos dimN (A− I · 1) = 2

y dimN (A− I · 5) = 1, luego la matriz es diagonalizable. Lo que resta es hallaruna base para E1 y una para E2.

Para eso, obtenemos sus ecuaciones implıcitas y extraemos una base.

Para E1. 1 2 11 2 11 2 1

000

∼ 1 2 1

0 0 00 0 0

000

.

Una base es {(2,−1, 0) , (1, 0,−1)}.Para E5. −3 2 1

1 −2 11 2 −3

000

∼ 1 −2 1

0 4 −40 0 0

000

.

Una base es {(1, 1, 1)}.Finalmente se tienen las matrices:

C =

2 1 1−1 0 10 −1 1

, C−1 =

14 − 1

214

14

12 − 3

414

12

14

y D =

1 0 00 1 00 0 5

.

122 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

7.4. Forma canonica de Jordan

Vamos ahora a abordar un proceso mas general, que podemos usar cuandodimEλi < mi.

Definicion 7.29. Una matriz elemental de Jordan es una matriz de la formaλ 0

1. . .

. . .. . .

0 1 λ

o de la forma

λ 1 0

. . .. . .

. . . 10 λ

.

Vamos a ver que todo endomorfismo complejo tiene forma canonica de Jor-dan; o, en matrices, que toda matriz compleja tiene forma canonica de Jordan.

Definicion 7.30. Una forma canonica de Jordan es una matriz en cajas C1

C20

0. . .

Notese que una matriz diagonal es una matriz de Jordan, donde las cajas

son de tamano 1.

Ası como en (7.3) se platea el problema de la diagonalizacion, hacemos aquıuna variante. El problema consiste en: dado un endomorfismo o una matriz,encontrar una base β de tal manera que la matriz asociada en esa base sea unaforma de Jordan.

Para este proceso igualmente que antes partimos del polinomio caracterısti-co. Sea f una endomorfismo con matriz asociada A en alguna base.

pf (λ) = (λ1 − λ)m1 · · · (λr − λ)

mr

Para cada λi se considera

N (A− Iλ) ⊆ N(

(A− Iλ)2)⊆ . . .

‖ ‖Eλi (1) ⊆ Eλi (2) ⊆ . . .

Notese que si Eλi (t) Eλi (t+ 1) entonces la dimension ha de crecer. Asıque como la dimension es finita, tiene que ocurrir que la cadena de subespaciosse estacione. Buscamos los distintos Eλi (t). Veremos a continuacion que son losprimeros

Lema 7.31. Si Eλi (t) = Eλi (t+ 1) entonces Eλi (t) = Eλi (t+ s) para todos ∈ N.

7.4. FORMA CANONICA DE JORDAN 123

Demostracion. Por induccion. El caso s = 1 es precisamente la hipotesis. Su-pongamos que Eλi (t) = · · · = Eλi (t+ s− 1).

Sea v ∈ Eλi (t+ s). Entonces v′ = (A− Iλ)s−1

v es tal que (A− Iλ)t+1

v′ =0, luego v′ ∈ Eλi (t+ 1). Por hipotesis de induccion v′ ∈ Eλi (t), ası que 0 =

(A− Iλ)tv′ = (A− Iλ)

t(A− Iλ)

s−1v. Luego v ∈ Eλi (t+ s− 1) = Eλi (t).

Ası que en realidad lo que estamos considerando es

Eλi = Eλi (1) · · · Eλi (si) = . . .

Denotaremos siempre con si al mayor.

Ejemplo 68. Hacer un ejemplo.

Proposicion 7.32. Cada Eλi (t) es invariante bajo A (o bajo f).

Demostracion. Sabemos que (A− Iλi)t (A− Iλj)m = (A− Iλj)m (A− Iλi)t.En particular, si λj = 0 se tiene (A− Iλi)tAm = Am (A− Iλi)t.

Ahora bien, consideramos v ∈ Eλi (t). Entonces (A− Iλi)tAv = A (A− Iλi)t v =A0 = 0.

Proposicion 7.33. La familia {Eλi (si)} es familia independiente.

Demostracion. Sea v ∈ Eλj (sj)⋂∑

i 6=j Eλi (si). Entonces v =∑i6=j vi, con

vi ∈ Eλi (si). Sea P =∏i 6=j (A− Iλi)si .

Ahora tenemos una diferencia importante respecto de la tecnica que usamosen la diagonalizacion (7.23). No podemos asegurar que

∏i 6=j (A− Iλi)si v =∏

i 6=j (λj − λi)si v porque v no necesariamente es un vector propio de λi. Solosabemos que vive en los generalizados. Ası que vamos a construir un vectorpropio w, a partir de v, que ademas de ser vector propio tambien viva en lainterseccion de los generalizados.

La construccion es ası: como v ∈ Eλi (si) entonces si v 6= 0, existe un primerelemento en la cadena donde v aparece; es decir existe t ≤ si tal que v ∈ Eλi (t)

pero v 6∈ Eλi (t− 1). Entonces 0 6= w = (A− Iλi)t−1 ·v es ya un vector propio de

λi. Ahora bien, como v =∑vj entonces, multiplicando todo por (A− Iλi)t−1

se

tiene que w =∑

(A− Iλi)t−1vj . Sean wj = (A− Iλi)t−1

vj . Se afirma que cadawj ∈ Eλj (sj). Calculamos usando la conmutatividad de los (A− Iλi). Se tiene

(A− Iλj)sj wj = (A− Iλj)sj (A− Iλi)t−1vj = (A− Iλi)t−1

(A− Iλj)sj vj =0, luego wj ∈ Eλj (sj).

Ası tenemos ahora que w es un valor propio de λi y ademas, ocurre quew ∈ Eλj (sj)

⋂∑i 6=j Eλi (si), con w =

∑i6=j wj .

De aquı ya trivialmente se tiene que Pv = P∑i 6=j wi = 0. Luego Pv = 0

implica que 0 =∏i 6=j (A− Iλi)si w =

∏i 6=j (λj − λi)si w ası que w = 0. Lo cual

es imposible.

124 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

Estamos entonces en la siguiente situacion

pA (λ) = (λ1 − λ)m1 . . . (λ1 − λ)

mr sabemos que∑mj = n

? . . . ?Eλ1

(s1) . . . Eλr (sr) quiero cubrir a V

Veremos que hay una base β formada por distintas bases βij tales que:

1. Cada βij verifica que Mβijβij

(f |〈βij〉

)es una caja de Jordan.

2. dimEλi (si) = mi.

7.4. FORMA CANONICA DE JORDAN 125

7.4.1. Construccion de la base

La construccion de una base para Eλi(si), con i = 1, . . . , r se muestra en latabla siguiente.

Eλi (1) Eλi (2) . . . Eλi (si − 1) Eλi (si)

v(si−1)1 ← v

(si−2)1 ← . . . v′1 ← v1 βi1

......

......

...

Extendemosuna base deEλi (si − 1)a base deEλi (si)

v(si−1)t1

← v(si−2)t1

← . . . v′t1 ← vt1 βi t1

v(si−2)t1+1 ← . . . v′t1+1 ← vt1+1 βi t1+1

......

......

Extendemosuna base deEλi (si − 2)y las v′j auna base deEλi (si − 1)

v(si−2)t2

← . . . v′t2 ← vt2 βi t2

......

......

v′ti−2+1 ← vti−2+1 βi ti−2+1

......

Extendemosuna basede Eλi (1)

y las v(k)j a

una base deEλi (2)

v′ti−1← vti−1 βi ti−1

vti−1+1 βi ti−1+1

...

Extendemoslas v

(k)j a

una base deEλi (1)

vti βi ti

126 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

Definicion 7.34. Sea

βi = βi1 ∪ · · · ∪ βi ti

en este orden.

Proposicion 7.35. En la situacion anterior, βi es generador para Eλi (si).

Demostracion. Trivial por construccion.

Para ver que es linealmente independiente, por la construccion, basta probarel siguiente resultado.

Lema 7.36. Sean {v1, . . . , vh} linealmente independiente en Eλi (k + 1) tal que〈v1, . . . , vh〉 ∩ Eλi (k) = 0. Entonces {v′1, . . . , v′h} es linealmente independiente(y vive en Eλi (k)) y ademas, 〈v′1, . . . , v′h〉 ∩ Eλi (k − 1) = 0

Demostracion. Supongamos∑h

αiv′i = 0. Entonces (A− Iλi) ·

∑hαivi = 0, ası

que∑h

αivi ∈ Eλi (1) ⊆ · · · ⊆ Eλi (k). Luego∑h

αivi ∈ Eλi (k).

Pero 〈v1, . . . , vh〉 ∩ Eλi (k) = 0 ası que∑h

αivi = 0. Como {v1, . . . , vh} eslinealmente independiente se tiene que α1 = . . . αn = 0.

Ahora vamos con la interseccion. Supongamos que∑h

aiv′i ∈ Eλi (k − 1).

Entonces (A− λi)k−1∑haiv′i = 0; ası que, como (A− λi) vi = v′i, se tiene que∑h

(A− λi)k−1ai (A− λi) vi = 0. Luego (A− λi)k ·

∑haivi = 0, por tanto∑h

aivi ∈ Eλi (k) y ası∑h

aivi = 0. Como {v1, . . . , vh} es linealmente indepen-

diente se tiene que a1 = . . . an = 0. De aquı se concluye que∑h

aiv′i = 0 y por

lo tanto 〈v′1, . . . , v′h〉 ∩ Eλi (k − 1) = 0.

Ejemplo 69. Se considera la matriz

A =

1 0 1 1−3 3 2 22 0 0 1−1 −1 2 1

El polinomio caracterıstico es pA(λ) = λ4− 5λ3 + 6λ2 + 4λ− 8 cuyas raıces sonλ1 = −1, simple y λ2 = 2, triple.

Para λ1 = −1 se tiene

A− (−1)I =

2 0 1 1−3 4 2 22 0 1 1−1 −1 2 2

∼ · · · ∼

2 0 1 10 8 7 70 0 1 10 0 0 0

El seguimiento de la tabla es trivial. Una base puede ser β11 = {(0, 0, 1,−1)}.

7.4. FORMA CANONICA DE JORDAN 127

Para λ2 = 2 se tiene

A− 2I =

−1 0 1 1−3 3 2 22 0 0 1−1 −1 2 1

∼ · · · ∼

1 0 −1 −10 1 −1 −10 0 0 10 0 0 0

Ası dimEλ2

(1) = 1 y tenemos que considerar

(A− 2I)2 =

2 −1 −1 −12 −1 −1 −1−7 −1 8 −19 0 −9 0

∼ · · · ∼

1 0 −1 00 1 −1 10 0 0 00 0 0 0

Ası dimEλ2

(2) = 2 y tenemos que considerar

(A− 2I)3 =

0 0 0 00 0 0 027 0 −27 0−27 0 27 0

∼ · · · ∼

1 0 −1 00 0 0 00 0 0 00 0 0 0

Ası dimEλ2(3) = 3, como debe de ser.

Ahora, segun la tabla, debo extender una base de Eλ2(2) a una de Eλ2

(3).En este caso, basta encontrar una solucion de (A − 2I)3X = 0 que no losea de (A − 2I)2X = 0, como por ejemplo, v = (1, 0, 1, 0). Calculamosv′ = (0,−1, 0, 1) y v′′ = (1, 1, 1, 0).

Con esto hemos construido β21 = {(1, 0, 1, 0), (0,−1, 0, 1), (1, 1, 1, 0)}.

Segun la tabla debo extender una base de (A− 2I), que es {v′′}, junto conv′ a una base de (A − 2I)2, pero {v′, v′′}, en este caso ya es una base deEλ2(2), ası que hemos terminado.

Los resultados anteriores demuestran el siguiente teorema.

Teorema 7.37. En la situacion de la construccion de los conjuntos βi ={v1, . . . , v

(si−1)1 , . . . vti−1+1, . . . , vti

}se tiene que βi es base para Eλi (si).

Ejemplo 70. Seguimos el Ejemplo 69. En este caso se puede comprobar quetanto β11 = {(0, 0, 1,−1)}, como β21 = {(1, 0, 1, 0), (0,−1, 0, 1), (1, 1, 1, 0)} sonlas bases buscadas.

Ahora vamos con la matriz asociada. Ya sabemos que Eλi (si) es invariantepara f o para A, segun se este trabajando. En nuestro caso usamos la matriz.Queremos calcular la matriz de la restriccion a Eλi (si). De hecho vamos aver que esta compuesta de cajas elementales (de entrada no tiene que ser cajaelemental) de los βij .

Consideramos un βij ={vj , . . . , v

(k)j

}donde k puede ser 1, . . . , si − 1.

Vamos a hacer un resultado todavıa mas general y bonito, usando las pro-piedades de βij .

128 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

Proposicion 7.38. Sea v ∈ Eλi (k) tal que v 6∈ Eλi (k − 1) y sea γ ={v, v′, . . . , v(k−1)

},

donde v(j) = (A− Iλi)j v. Entonces:

1. 〈γ〉 es invariante bajo A.

2. γ es linealmente independiente.

3. Mγγ

(A · |〈γ〉

)es una matriz elemental de Jordan.

Demostracion. 1. Av(j) = (A− Iλi) v(j) − λiv(j) = v(j+1) + λiv(j) ∈ 〈γ〉.

2. Consideramos∑k−1i=0 aiv

(i) = 0. Tenemos que ver que los coeficientes soncero. Procederemos por induccion. Comenzamos probando que a0 = 0.

donde i+ k − 1 ≥ k

0 = (A− Iλi)k−1∑k−1i=0 aiv

(i) = a0 (A− Iλi)k−1v +

k−1∑i=1

aiv(i+k−1)

︸ ︷︷ ︸q0

luego a0v(k−1) = 0, pero v 6∈ Eλi (k − 1), ası que v(k−1) 6= 0 y por tanto a0 = 0.

Supongamos que a0 = . . . at = 0, con t < k− 1. Entonces∑k−1i=t+1 aiv

(i) = 0.Como k − 1− (t+ 1) = k − t− 2, analogamente al razonamiento anterior,

0 = (A− Iλ)k−t−2

k−1∑t+1

aiv(i) = at+1v

(t+1+k−t−2) + 0

entonces 0 = at+1v(k−1) de donde at+1 = 0.

7.4. FORMA CANONICA DE JORDAN 129

3 Ahora vamos a calcular la matriz asociada.

Av = v′ + λivϕγ−→

(λi)1

10...0

...

Av(t) = v(t+1) + λiv(t) ϕγ−→

0...

(λi)t+1

10...0

...

Av(k−1) = v(k)(= 0) + λiv(k−1) ϕγ−→

0...0

(λi)k

Ası que la matriz es de la formaλi 0

1. . .

. . .. . .

0 1 λi

Que es una forma elemental.

Ejemplo 71. Seguimos con los ejemplos 69 y 70. En este caso se tendra que

P =

0 1 0 10 0 −1 11 1 0 1−1 0 1 0

de donde P−1 =

−1 0 1 02 −1 −1 −1−1 0 1 1−1 1 1 1

y la forma de Jordan es

J =

−1 0 0 00 2 0 00 1 2 00 0 1 2

y se puede comprobar que PJP−1 = A.

130 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

Finalmente, queda por abordar las dimensiones de los espacios propios ge-neralizados.

Proposicion 7.39. En la situacion de la construccion. dimEλi (si) = mi.

Demostracion. Primero notese que, en general,∣∣∣∣∣∣∣∣∣∣∣∣

a 0 01 a

1. . .

. . .. . .

0 1 a

∣∣∣∣∣∣∣∣∣∣∣∣= an

porque es triangular.Considero la base β = ∪βij como antes y la extiendo a una base para V ,

{vt+1, . . . , vn}. Hacemos γ = β ∪ {vt+1, . . . , vn} en este orden.Entonces,

Mγγ (f) =

λi 0u1 λi

u2. . .

. . .. . .

0 un λi

B

0 C

donde ui = 1 o 0

Calculamos el polinomio caracterıstico,

pf (λ) =

∣∣∣∣∣∣∣∣∣∣∣∣

λi − λ 0u1 λi − λ

u2. . .

. . .. . .

0 un λi − λ

∣∣∣∣∣∣∣∣∣∣∣∣· pC (λ) = (λi − λ) · pC (λ)

luego t ≤ mi. Con esto tenemos la desigualdad dimEλi (si) ≤ mi. Vamos a verla igualdad.

Supongamos que λi tambien es raız de pC (λ). Consideramos la aplicacion

f :V

Eλi (si)−→ V

Eλi (si)tal que f [v] = [Av]

Se afirma que f es aplicacion lineal (se deja como ejercicio).

7.4. FORMA CANONICA DE JORDAN 131

Considero β = {vt+1, . . . , vn}. Se puede comprobar trivialmente queMβ

β

(f)

=

C.Esto implica que pC (λ) es el polinomio caracterıstico de f , y por tanto, λi

es valor propio de f . Entonces, existe [v] 6= [0] tal que(f − Iλi

)[v] = [0], y

entonces f(v) − λiv ∈ Eλi (si). Ası que (A− Iλi) v ∈ Eλi (si) entonces v ∈Eλi (si + 1) = Eλi (si), ası que v ∈ Eλi (si) y por tanto [v] = [0]. Imposible.

Por lo tanto dimEλi (si) = mi.

Proceso para obtener la forma canonica de Jordan

Partimos de una matriz A, o de un endomorfismo.

1. Se calcula el polinomio caracterıstico, pA (λ).

2. Se extraen las raıces λ1, . . . , λr con multiplicidades m1, . . . ,mr.

3. Para cada λi se construye la base βi, con las bases βij . Sabemos que

Mβijβij

(A|) = Mij

es una forma elemental.

Con las formas elementales hacemos las cajas

Mβiβi

(A|) = Ji =

Mi1

. . .

Mit

4. Con las cajas hacemos la forma canonica de Jordan de A

J =

J1

. . .

Jr

Con la base β = β1 ∪ · · · ∪ βr.

5. Hacemos P = β como columna. Sabemos que A = PJP−1.

Reunimos los ejemplos anteriores en uno

Ejemplo 72. Se considera la matriz

A =

1 0 1 1−3 3 2 22 0 0 1−1 −1 2 1

El polinomio caracterıstico es pA(λ) = λ4− 5λ3 + 6λ2 + 4λ− 8 cuyas raıces sonλ1 = −1, simple y λ2 = 2, triple.

132 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

Para λ1 = −1 se tiene

A− (−1)I =

2 0 1 1−3 4 2 22 0 1 1−1 −1 2 2

∼ · · · ∼

2 0 1 10 8 7 70 0 1 10 0 0 0

El seguimiento de la tabla es trivial. Una base puede ser β11 = {(0, 0, 1,−1)}.

Para λ2 = 2 se tiene

A− 2I =

−1 0 1 1−3 3 2 22 0 0 1−1 −1 2 1

∼ · · · ∼

1 0 −1 −10 1 −1 −10 0 0 10 0 0 0

Ası dimEλ2

(1) = 1 y tenemos que considerar

(A− 2I)2 =

2 −1 −1 −12 −1 −1 −1−7 −1 8 −19 0 −9 0

∼ · · · ∼

1 0 −1 00 1 −1 10 0 0 00 0 0 0

Ası dimEλ2

(2) = 2 y tenemos que considerar

(A− 2I)3 =

0 0 0 00 0 0 027 0 −27 0−27 0 27 0

∼ · · · ∼

1 0 −1 00 0 0 00 0 0 00 0 0 0

Ası dimEλ2(3) = 3, como debe de ser.

Ahora, segun la tabla, debo extender una base de Eλ2(2) a una de Eλ2

(3).En este caso, basta encontrar una solucion de (A − 2I)3X = 0 que no losea de (A − 2I)2X = 0, como por ejemplo, v = (1, 0, 1, 0). Calculamosv′ = (0,−1, 0, 1) y v′′ = (1, 1, 1, 0).

Con esto hemos construido β21 = {(1, 0, 1, 0), (0,−1, 0, 1), (1, 1, 1, 0)}.

Segun la tabla debo extender una base de (A− 2I), que es {v′′}, junto conv′ a una base de (A − 2I)2, pero {v′, v′′}, en este caso ya es una base deEλ2

(2), ası que hemos terminado.

Finalmente formamos

P =

0 1 0 10 0 −1 11 1 0 1−1 0 1 0

de donde P−1 =

−1 0 1 02 −1 −1 −1−1 0 1 1−1 1 1 1

7.5. TEOREMA DE CAYLEY-HAMILTON 133

y la forma de Jordan es

J =

−1 0 0 00 2 0 00 1 2 00 0 1 2

7.5. Teorema de Cayley-Hamilton

Lema 7.40. Sea Jn una forma elemental de Jordan. Entonces pJ (J) = 0.

Demostracion. Sabemos que J es de la formaa 0

1. . .

. . .. . .

0 1 a

= N +D

Entonces pJ (λ) = (a− λ)n. Luego

pJ (J) = (Ia− J)n

=

0 0

−1. . .

. . .. . .

0 −1 0

n

= (0)

Lema 7.41. Si J es una matriz de Jordan entonces pJ (J) = (0).

Demostracion. Tenemos una matriz de la forma

J1

J20

. . .

Jk

Jk+1

0. . .

entonces pJ (λ) =

∏ri=1 (λ− Iλi) y pJ (J) =

∏ri=1 (J − Iλi)

Vamos a ver un factor

(J − Iλi) =

J1 − IλiJ2 − Iλi

0

. . .

Ji − IλiJi+1 − Iλi

0. . .

134 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

donde

(Ji − Iλi) =

0 0

−1. . .

. . .. . .

0 −1 0

ası que (Ji − Iλi)mi = 0.

Luego

(J − Iλi)mi =

(J1 − Iλi)mi

(J2 − Iλi)mi0

. . .

(Ji − Iλi)mi = 0

(Ji+1 − Iλi)mi

0. . .

Ası que tenemos un producto de matrices de la forma

pJ (J) =

0∗

. . .

0. . .

∗∗

. . .

0

= (0)

Donde (*) son las cajas. Notese que ademas los factores conmutan.

Teorema 7.42 (Hamilton-Cayley). Sea An×n una matriz con entradas en C.Entonces pA (A) = 0.

Demostracion. Sabemos que A = PJP−1 y que pA (λ) = pJ (λ). Entonces

pA (A) =∑ni=0 aiA

i =∑ni=0 ai

(PJP−1

)i=∑ni=0 ai

(PJ iP−1

)= P

(∑ni=0 aiJ

i)P−1 =

PpJ (J)P−1 = 0.

7.6. Calculo de potencias

Sabemos que si A = PBP−1 entonces An = PBnP−1. Sea J una matriz deJordan que escribimos como cajas elementales (ası que puede haber repeticiones)sobre la diagonal

J =

J1 0

J2

. . .

0 Jr

7.6. CALCULO DE POTENCIAS 135

Entonces

Jn =

Jn1 0

Jn2. . .

0 Jnr

Ası que para calcular una potencia de una matriz, basta conocer las potencias

de las matrices elementales de Jordan.El siguiente resultado ya lo sabemos, pero lo recordamos

Lema 7.43. Sea J una matriz elemental de Jordan de orden r. Entonces

1. J = D+N , donde D es diagonal constante y N es nilpotente, con Nr = 0.

2. ND = DN .

Proposicion 7.44. Sea J un matriz elemental de Jordan con D diagonal cons-tante a. Entonces

Jn =

n∑i=0

(ni

)Dn−iN i =

an 0 0(n1

)an−1 an(

n2

)an−2

(n1

)an−1

......

. . .

Demostracion. Calculamos cada sumando

Dn−iN i =

an−i 0

. . .

an−i

0 0...

. . .

1(i+1 1)

. . .

. . .. . .

0 1(nn−i) 0 . . . 0

=

(ni

)

0 0...

. . .

an−i(i+1 1)

. . .

. . .. . .

0 an−i(nn−i) 0 . . . 0

136 CAPITULO 7. DIAGONALIZACION Y FORMAS CANONICAS

Bibliografıa

[1] H. Anton, C. Rorres, Elementary Linear Algebra, 21a ed., Wiley, Singapur,2015.

[2] A. del Rıo, J. J. Simon, A. del Valle, Algebra Basica, U. Murcia-DiegoMarın, Murcia, 2000.

[3] J. B. Fraleigh, R. A. Beauregard, Algebra Lineal, Addison-Wesley Ibero-americana, Mexico, 1989.

[4] B. R. Gelbaum, Linear Algebra, North-Holland, Nueva York, 1989.

[5] M. A. Goberna, V. Jornat, R. Puen, Algebra y fundamentos, Ariel, Bar-celona, 2000.

[6] Algebra Lineal y Algunas de sus Aplicaciones, 2a ed., MIR, Moscu,1983.

[7] I. N. Herstein, Topics in Algebra, 2nd, ed., Wiley, Nueva York, 1975.

[8] R. S. Irving, Integers, Polynomials, and Rings, Springer, Nueva York,2004.

[9] N. Jacobson, Lectures in Abstract Algebra. II. Linear Algebra, Springer,Nueva York, 1964.

[10] I. Kleiner, A History of Abstract Algebra, Birkhauser Boston, 2007.

[11] S. Lang, Algebra Lineal, Fondo Educativo Interamericano, Mexico, 1976.

[12] D. C. Lay, Algebra Lineal y sus aplicaciones, Pearson Educacion - AddisonWesley, 2007, Mexico.

[13] L. Merino y E. Santos, Algebra Lineal con metodos elementales, Thomson,Madrid, 2006.

[14] J. M. Moreno, Una Introduccion al Algebra Lineal Elemental, Ed. delautor, Barcelona, 1990.

[15] J. J. O’Connor, E. F. Robertson, The MacTutor History of Mathe-matics archive. Sitio WEB de historia de las matematicas. Universi-dad de St Andrews, Escocia. Direccion: http://www-history.mcs.st- an-drews.ac.uk/history/index.html

137