mlp 200 - algebra lineal (1).pdf
TRANSCRIPT
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
1/153
Algebra Lineal
(APUNTE EN
CONSTRUCCION)
por Jesus Juyumaya
Agosto, 2006
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
2/153
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
3/153
Indice general
Introduccion 5
Captulo 1. PRELIMINARES 7
1.1. Grupos 7
1.2. Anillos y Cuerpos 11
1.3. Ejercicios 13
Captulo 2. MATRICES 17
2.1. Estructura algebraica de las Matrices 17
2.2. Determinante y Adjunta 21
2.3. Sistemas de Ecuaciones y Forma Normal de Hermite 28
2.4. Nociones Complementarias 40
2.5. Ejercicios 41
Captulo 3. ESPACIOS VECTORIALES 47
3.1. Espacios y subespacios vectoriales 47
3.2. Combinacion lineal y espacio generado 51
3.3. Dependencia e Independencia lineal 54
3.4. Base y dimension 56
3.5. Coordenadas y matriz cambio de base 61
3.6. Suma de subespacios y espacios vectoriales 64
3.7. Espacio cociente 693.8. Ejercicios 71
Captulo 4. TRANSFORMACIONES LINEALES 77
4.1. Transformaciones lineales 77
4.2. El espacio Hom(V, W) 85
4.3. El espacio dual 92
3
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
4/153
4 INDICE GENERAL
4.4. Ejercicios 95
Captulo 5. DIAGONALIZACION Y FORMA DE JORDAN 1035.1. Diagonalizacion 103
5.2. Forma de Jordan 126
5.3. Ejercicios 138
Apendice A: Lema de Zorn 143
Apendice B: Polinomios 145
Indice alfabetico 151
Bibliografa 153
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
5/153
Introduccion
Los temas tratados en el presente apunte corresponden al curso de
Algebra Lineal I, de la Carrera de Matematicas de la Universidad de
Valparaso.
La Carrera de Matematicas tiene cuatro semestres de formacion
basica, una vez terminada esta primera etapa, el alumno puede optar
al Plan de Pedagoga o de Licenciatura en Matematicas. El curso de
Algebra Lineal I esta en el tercer semestre. As, las materias tratadas
en este apunte, intentan cubrir por una parte los requerimientos que
debe tanto un Pedagogo, como un Licenciado en Matematicas en un
primer curso de Algebra Lineal.
A lo largo del apunte utilizaremos, como es usual, las notaciones
N, Z, Q, R y C
para los numeros naturales (incluyendo el 0), enteros, reales y complejos
respectivamente.
La escritura a := b quiere decir que el termino a es definido como
la expresion b. Analogamente con la escritura b =: a.
Cualquier tipo de observacion del presente apunte, por fa-
vor enviarlas a: [email protected]
5
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
6/153
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
7/153
CAPTULO 1
PRELIMINARES
1.1. Grupos
Definicion 1.1. Un grupo es un conjunto no vaco G, provisto de
una funcion de G G en G, (a, b) ab, tal que para todo a, b y cen G se cumplen los siguientes axiomas:1. a(bc) = (ab)c (asociatividad).
2. Existe un elemento e G que satisface ea = ae = a.
3. Todo elemento a G tiene asociado un elemento a1 G tal
que aa1 = a1a = e.
La funcion que define el grupo es llamada operacion binaria, ley de
composicion interna, o simplemente, producto.
El elemento e del axioma 2 es unico, y se llama el neutro del grupo.
El elemento a1 en el axioma 3 esta unicamente determinado por a.
El grupo es conmutativo (abeliano) si ademas satisface la propiedad
de conmutatividad, es decir: ab = ba, para todo a, b G.
Definicion 1.2. El orden de un elemento g en G es el menor na-
tural n tal que gn
= e. El orden del grupo es la cantidad de elementosdel grupo.
Ejemplo 1.1. Los conjuntos Z, R, Q y C con la suma usual de
numeros, son grupos conmutativos. Con la multiplicacion usual los con-
juntos R, Q y C, son tambien grupos conmutativos.
7
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
8/153
8 1. PRELIMINARES
Ejemplo 1.2. El conjunto Zn = {0 , 1 , 2 , . . . , n 1} es un grupo con
la suma de enteros modulo n. Tabla de operaciones de Z4:
0 1 2 3
0 0 1 2 3
1 1 2 3 0
2 2 3 0 1
3 3 0 1 2
Ejemplo 1.3. Zn := Zn {0} es un grupo con la multiplicacion
de enteros modulo n si, y solo si, n es un numero primo. Tabla de
operaciones de Z5 :
1 2 3 4
1 1 2 3 4
2 2 4 1 3
3 3 1 4 2
4 4 3 2 1
Ejemplo 1.4. Sea Sn el conjunto formado por las funciones biyec-
tivas del conjunto {1 , 2 , . . . , n}. El conjunto Sn con la operacion com-
puesta de funciones es un grupo. Este grupo no es conmutativo para
n 3.
Ejemplo 1.5. Sean G un grupo y X un conjunto no vaco. Sea
F(X, G) el conjunto de todas las funciones de X en G. En F(X, G)
definimos el producto , de las funciones y , como
: X
G
x ( )(x) := (x)(x).F(X, G) con la operacion tiene estructura de grupo.
Ejemplo 1.6. A partir de un grupo G se puede definir el grupo
G G, donde la operacion es definida por coordenadas a partir de la
operacion de G, esto es,
(a, b)(c, d) := (ac, bd).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
9/153
1.1. GRUPOS 9
Mas generalmente, sean G1, . . . , Gn grupos arbitrarios, uno puede
definir como antes el grupo producto G1 G2 Gn con operacion
dada por:
(a1, . . . , an)(b1, . . . , bn) := (a1b1, . . . , anbn).
Proposicion 1.3. Para todo a, b G se tiene:
1. (a1)1 = a.
2. (ab)1 = b1a1.
Definicion 1.4. Un subconjunto no vaco H de un grupo G se dice
que es un subgrupo de G, si se cumple:
1. Para todo x, y H se tiene que xy H.
2. Si x H, entonces x1 H.
Notese que todo grupo G tiene como subgrupos a G y {e}.
Ejemplo 1.7. Las siguientes inclusiones de conjuntos son inclusio-
nes de subgrupos.
Z Q R C,
{1, 1} Q R C.
Ejemplo 1.8. El subconjunto del grupo G = F(X, G) constituido
de las funciones constantes es un subgrupo de G.
Ejemplo 1.9. El subconjunto H del grupo Sn formado por las
funciones que fijan a n, es un subgrupo de Sn.
Proposicion 1.5. Sea H un conjunto no vaco de un grupo G,
entonces H es un subgrupo de G si, y solo si, xy1 H, para todo
x, y H.
A partir de un subgrupo H de un grupo G se define una relacion
H sobre G por:
x H y si, y solo si, xy1 H.
Esta relacion recien definida es una relacion de equivalencia, esto
es, para todo x, y y z en G se cumple:
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
10/153
10 1. PRELIMINARES
1. Refleja: x H x.
2. Simetrica: Si x H y, entonces y H x.
3. Transitiva: Si x H y y y H z, entonces x H z.
Denotemos por cl(g) la clase de equivalencia del elemento g, y por
H\G el conjunto de las clases de equivalencia segun H. Notese que:
cl(g) = {x G ; x H g}
= {x G ; xg1 H}
= Hg.
Luego,H\G = {Hg ; g G} .
Analogamente, uno puede definir la relacion (de equivalencia) H por:
x H y si y solo si x1y H.
Es facil ver que la clase de equivalencia de g es el conjunto gH. De-
notaremos por G/H el conjunto de clases de equivalencia segun H.
Luego,
G/H = {gH ; g G} .
El producto de G induce un producto en G/H (respectivamente en
H\G) mediante:
(1.1) (xH)(yH) = xyH (respectivamente (Hx)(Hy) = Hxy).
El siguiente teorema nos dice cuando el producto de (1.1) define
una estructura de grupo en el conjunto cociente G/H.
Teorema 1.6. El conjunto G/H con el producto definido en (1.1)tiene una estructura de grupo (grupo cociente) si, y solo si, gH = Hg,
para todo g G. Notese que el elemento neutro del grupo G/H es H y
el inverso de gH es g1H.
Corolario 1.7. Para todo subgrupo H de un grupo conmutativo G,
el conjunto G/H tiene estructura de grupo.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
11/153
1.2. ANILLOS Y CUERPOS 11
Ejemplo 1.10. Sea nZ el subgrupo de Z constituido por los enteros
multiplos de n. Tenemos que el grupo cociente Z/nZ esta constituido
por los elementos:
nZ, 1 + nZ, 2 + nZ, . . . , (n 1) + nZ.
Ejemplo 1.11. R/Z = {cl(x) ; 0 x < 1}.
Ejemplo 1.12. Tomemos el subgrupo H de Sn definido en el Ejem-
plo 1.9 y denotemos (i, j) la funcion de Sn que enva k en k, para todo
k= i, j y i j, j i. Tenemos,Sn/H = {H, (1, n)H, (2, n)H , . . . , (n 1, n)H}.
En general, Sn/H no es un grupo.
1.2. Anillos y Cuerpos
Definicion 1.8. Un anillo (con unidad) es un conjunto no vaco
A provisto de dos operaciones, + (suma) y (producto), tales que:
1. A con la operacion + es un grupo conmutativo.2. A con la operacion es un monoide, es decir:
a) Para todo a, b y c se tiene (a b) c = a (b c).
b) EnA existe un elemento unidad1, tal que1a = a1 = a,
para todo a A.
3. Para todo a, b y c se tiene las distributividades:
a (b + c) = a b + a c, (b + c) a = b a + c a.
El anillo se dice conmutativo si la operacion es conmutativa.
Ejemplo 1.13. Los conjuntos de numeros Z, Q, R y C con las
operaciones usuales de suma y producto son anillos conmutativos.
Ejemplo 1.14. Zn es un anillo conmutativo con la suma y producto
modulo n.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
12/153
12 1. PRELIMINARES
Ejemplo 1.15. (Polinomios sobre un anillo conmutativo) Sea A
un anillo conmutativo. Denotaremos por A[x] al conjunto de las expre-
siones (polinomios) de la forma:
a0 + a1x + + anxn,
donde ai A, y n N.
Dos polinomios en A[x] son iguales si, y solo si, sus respectivos
coeficientes lo son. En A[x] introducimos la suma y producto como
sigue. Sean
p(x) = a0 + a1x + a2x2 + a3x
3 +
y
q(x) = b0 + b1x + b2x2 + b3x
3 +
definimos:
p(x) + q(x) := (a0 + b0) + (a1 + b1)x + (a2 + b2)x2 +
y
p(x)q(x) := c0 + c1x + c2x2 + c3x
3 + ,
donde ci = r+s=i arbs.Con estas operaciones A[x] tiene una estructura de anillo conmu-
tativo con unidad. Ver Apendice B para detalles.
Ejemplo 1.16. Sea A un anillo, y X un conjunto no vaco. El
conjunto F(X, A) hereda la estructura de anilllo de A:
[ +](a) := (a) + (a), [ ](a) := (a) (a),
donde , F(X, A), y a A.
Ejemplo 1.17. Sea A un grupo conmutativo, con operacion deno-
tada por +. El conjunto End(A) formado por todas las funciones de A
en A tiene una estructura de anillo con las siguientes operaciones:
[ +](a) := (a) + (a), [ ](a) := [ ](a),
donde , End(A), y a A.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
13/153
1.3. EJERCICIOS 13
Proposicion 1.9. El elemento unidad 1 A es unico. Ademas
para todo a, b A tenemos:
1. a 0 = 0.
2. (1) a = a.
3. (a) = a.
4. (a) (b) = a b.
Definicion 1.10. La caracterstica del anil lo A, denotada car(A),
es el menor entero positivo n tal que n 1 = 0. Si tal entero no existe
se dice que la caracterstica del anillo es 0.
Ejemplo 1.18. car(Z) = 0 y car(Zn) = n.
Definicion 1.11. Un anillo K se dice que es un cuerpo si 0 = 1
y el conjunto K, de los elementos diferentes de 0, forman un grupo
conmutativo respecto al producto.
Ejemplo 1.19. Los anillos Q, R y C son cuerpos.
Ejemplo 1.20. El anillo Zn es un cuerpo si, y solo si, n = p es un
numero primo. En este caso denotamos el cuerpo finito con p elementos
por Fp.
Observacion 1.12. La caracterstica de un cuerpo es 0, o bien un
numero primo. Notese que:
car(Q) = car(R) = car(C) = 0 y car(Fp) = p.
1.3. Ejercicios
Ejercicio 1.1. Demuestre que en un grupo G el neutro es unico, y
que el inverso de un elemento g G esta unicamente determinado por
g.
Ejercicio 1.2. Hacer la tabla de operaciones del grupo S3 Z3.
Ejercicio 1.3. Demuestre la Proposicion 1.3.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
14/153
14 1. PRELIMINARES
Ejercicio 1.4. Demuestre que el conjunto nZ de los multiplos de
n es un subgrupo de Z.
Ejercicio 1.5. Demuestre que si H es un subgrupo de G, entonces
el neutro de G pertenece a H.
Ejercicio 1.6. Demuestre la Proposicion 1.5.
Ejercicio 1.7. Sean a, a1, , an numeros reales. Encuentre las
condiciones necesarias y suficientes sobre a, para que H sea un subgrupo
de Rn, donde:
H =
(x1, . . . , xn) Rn ;
ni=1
aixi = a
.
Ejercicio 1.8. Sea X un conjunto finito. Demuestre que el subcon-
junto de F(X,R) constituido por las funciones de suma nula constitu-
yen un subgrupo del grupo F(X,R). Una funcion f se dice de suma
nula si
xXf(x) = 0.
Ejercicio 1.9. Explicite la tabla de operacion de los elementos del
grupo cociente Z8/H, donde
H = {0, 4}.
Ejercicio 1.10. Describir un sistema de representantes de: R/Z,
Q/Z y R/Q.
Ejercicio 1.11. Determine un sistema de representantes del grupo
cociente G/H, donde G = Q
y H es el subgrupo {1, 1}.
Ejercicio 1.12. Determine un sistema de representantes del grupo
cociente G/H, donde G es el grupo (R2, +) y
H = {(x, y) R2 ; y = x}.
Ejercicio 1.13. Describir el conjunto G\H en el Ejemplo 1.9.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
15/153
1.3. EJERCICIOS 15
Ejercicio 1.14. Demuestre la Proposicion 1.9.
Ejercicio 1.15. Un elemento a en un anillo A se dice invertiblesi existe un elemento b A, tal que ab = ba = 1. Demuestre que b
esta unicamente determinado por a. As, uno denota a1 al elemento
b.
Sea U(A) el conjunto constituido por los elementos invertibles de
A. Demuestre que U(A) es un grupo con la operacion producto.
Ejercicio 1.16. Determine U(A), para A = Z, Zn y A = K un
cuerpo cualquiera.
Ejercicio 1.17. Determine U(A[x]).
Ejercicio 1.18. Denotemos por An[x] el subconjunto de A[x] cons-
tituido por el polinomio nulo y los polinomios de grado a lo mas n. Es
decir,
An[x] = {a0 + a1x + + anxn ; a0, a1 . . . , an A}.
Demuestre que con la suma inducida de A[x] el conjunto An[x] es un
grupo conmutativo.
Ejercicio 1.19. Demuestre que el conjunto de los polinomios con
termino constante nulo son un subgrupo de An[x].
Ejercicio 1.20. Demuestre que si a, b son elementos en un cuerpo
K tales que ab = 0, entonces se debe tener a = 0 o b = 0.
Ejercicio 1.21. Explicite las tablas de suma y producto del cuerpo
F5.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
16/153
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
17/153
CAPTULO 2
MATRICES
2.1. Estructura algebraica de las Matrices
En todo el presente captulo, A denota un anillo conmutativo.
Definicion 2.1. Una matriz de tamano n m con entradas en A,
es un arreglo rectangular M de n filas y m columnas de elementos de
A,
M =
a11 a12 a1n
a21 a22 a2n...
......
...
an1 an2 anm
, (aij A).
En el caso n = m diremos que la matriz es cuadrada de tamano n.
Para simplificar denotaremos por (aij) la matriz M. As, el elemento
aij esta en la posicion (i, j), es decir, en la iesima fila y j-esima columna
del arreglo M.
Dos matrices (aij) y (bij) son iguales si, y solo si, para todo i, j se
tiene aij = bij.
Denotaremos por Mnm(A) al conjunto formado por todas las ma-
trices de n m con entradas en A, y por Mm(A) al conjunto de las
matrices cuadradas de tamano n.
Definicion 2.2. Sean M = (aij) y N = (bij) dos matrices en
Mnm(A), definimos la suma M + N de las matrices M y N como la
matriz que tiene en la posicion (i, j) el elemento aij + bij. As,
M + N = (aij + bij) .
La suma de matrices es claramente asociativa.
17
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
18/153
18 2. MATRICES
La matriz nula es aquella que tiene todas sus entradas igual a 0 A.
Denotaremos otra vez por 0 a la matriz nula. Notese que para toda
matriz M = (aij), se tiene:
1. M + 0 = 0 + M = M.
2. M M = M + M = 0,
donde M denota la matriz (aij); y como es usual, M N denota la
suma M + (N).
Proposicion 2.3. El conjunto Mnm(A) con la suma de matrices
es un grupo conmutativo.
Definicion 2.4. Sean M = (aij) Mnk(A) y N = (bij)
Mkm(A). El producto MN de las matrices M con N, en ese orden,
es la matriz P = (cij) Mnm(A), cuyas entradas son:
cij :=
kr=1
airbrj.
Notese que el producto MN esta definido solamente cuando el
numero de columnas de M es igual al numero de filas de N. Luego,dos matrices de Mnm(A) se pueden multiplicar si, y solo si, n = m.
Proposicion 2.5. El producto de matrices enMn(A) es asociativo.
Demostracion. Sean M = (aij), N = (bij), R = (cij) Mn(A).
El elemento en la (i, j)posicion del producto M (NS) es
n
r=1 airn
s=1 brscsj =n
r=1n
s=1 air(brscsj)=
nr=1
ns=1
(airbrs) csj
=
nr=1
n
s=1
airbrs
csj
De donde se sigue que M (NS) = (MN) S.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
19/153
2.1. ESTRUCTURA ALGEBRAICA DE LAS MATRICES 19
El neutro multiplicativo de Mn(A) es la matriz In (matriz identi-
dad),
In :=
1 0 0
0 1 0...
.... . .
...
0 0 1
.
Ademas, tenemos distributividad del producto de matrices respecto a
la suma de matrices, es decir, para todo M, R y S Mn(A) tenemos:
M(R + S) = MR + MS, (R + S)M = RM + MS.
Resumiendo tenemos el siguiente teorema.
Teorema 2.6. Mn(A) es un anillo. Ademas, es un anillo conmu-
tativo si, y solo si n = 1.
Ahora, dado un elemento a A, y una matriz M = (aij)
Mnm(A), definimos el producto aM como la matriz aM := (aaij)
Mnm(A). Dado que A es un anillo conmutativo, la definicion del pro-
ducto Ma corresponde a aM.
Proposicion 2.7. Para todo M, N Mnm(A) y a, b A, se
tiene:
1. (a + b)M = aM + bM.
2. a(M + N) = aM + aN.
3. a(MN) = (aM)N = M(aN).
De acuerdo al Ejercicio 1.15, el conjunto de elementos invertibles
de Mn(A) constituyen un grupo. Este grupo se denota por GLn(A), y
se llama Grupo General Lineal sobre A. Es decir,
GLn(A) := {P Mn(A) ; P es invertible} .
Interesante es poder caracterizar los elementos de GLn(A), o mas
aun, dada una matriz invertible P, poder calcular P1. Para esto es
necesario introducir el concepto de determinante de una matriz. Con
este objetivo, estudiemos brevemente el grupo GL2(A).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
20/153
20 2. MATRICES
Sea M = a b
c d GL2(A). Pongamos M1 =
x y
z w,
luego la relacion M1M = I2 implica el siguiente sistema de ecuaciones:
ax + bz= 1
cx + dz= 0
ay + bw = 0
cy + dw = 1
De las ecuaciones primera y segunda obtenemos (ad bc)x = d, y de
las ecuaciones tercera y cuarta (ad bc)y = b. Luego, si ad bc es
un elemento invertible de A, obtenemos:
x = (ad bc)1d y y = (ad bc)1b.
Luego,
w = (ad bc)1a y z= (ad bc)1c.
Por lo tanto, el elemento M GL2(A) queda caracterizado por el
elemento ad bc A, este elemento se llama el determinante de la
matriz M, y lo denotaremos por det(M),
(2.1) det(M) := ad bc.
Resumiendo tenemos:
Proposicion 2.8. El grupo GL2(A) puede ser descrito como,
GL2(A) = {M M2(A) ; det(M) es invertible en A} .
Ademas, para M =
a b
c d
GL2(A), tenemos
(2.2) M1 = det(M)1 d b
c a
.
Ejemplo 2.1. Los elementos invertibles en el anillo Z son 1 y 1.
Luego
GL2(Z) =
a b
c d
M2(Z) ; ad bc es igual a 1 o 1
.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
21/153
2.2. DETERMINANTE Y ADJUNTA 21
Ejemplo 2.2. En R todo elemento diferente de 0 es invertible,
luego
GL2(R) =
a b
c d
M2(R) ; ad bc = 0
.
En orden a generalizar la Proposicion 2.8 y la f ormula (2.2), in-
troduciremos en la siguiente seccion los conceptos de determinante y
adjunta de una matriz.
2.2. Determinante y Adjunta
Para M = (aij) Mn(A), denotaremos por Mij la matriz enMn1(A) que se obtiene al omitir la i-esima fila y j-esima columna
de la matriz M.
Definicion 2.9. El determinantedet(M) de una matriz de tamano
n se define del siguiente modo: Para M = (a) de tamano 1, ponemos
det(M) := a. Para M = (aij) de tamano mayor que 1 definimos,
inductivamente, el determinante de M por:
det(M) :=
nj=1
a1j(1)1+jdet(M1,j).
Ejemplo 2.3. Sea M =
a b
c d
.
Tenemos M11 = (d) y M12 = (c). Luego
det(M) = a det(M11) b det(M12) = ad bc.
Cf. 2.1.
Ejemplo 2.4. Sea M = (aij) tal que aij = 0, si i < j (una tal
matriz se llama triangular inferior, ver Seccion 4). Tenemos
det(M) = a11a22 ann.
El siguiente teorema dice que el desarrollo del determinante puede
ser realizado desde cualquier fila o columna.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
22/153
22 2. MATRICES
Teorema 2.10. Para toda matriz M = (aij) y todo i, j tenemos
det(M) =n
r=1
air(1)i+rdet(Mi,r) =
ns=1
asj(1)j+sdet(Ms,j).
Demostracion. PENDIENTE
Proposicion 2.11. Si la matriz M es obtenida a partir de mul-
tiplicar una fila (o columna) de la matriz M por a A, entonces
det(M) = adet(M).
Demostracion.
Sea M
la matriz obtenida a partir de multiplicar,por a A, la i-esima fila de la matriz M = (aij). Entonces, desarro-
llando el determinante a partir de la i-esima fila de M, se obtiene:
det(M) =
nr=1
aair(1)i+rdet(Mi,r)
= a
nr=1
air(1)i+rdet(Mi,r)
= a det(M).
La ultima igualdad resulta del hecho que Mi,r = Mi,r.
Proposicion 2.12. Si la matriz M es obtenida a partir de permu-
tar un par de filas (o columnas) de la matriz M, entonces det(M) =
det(M).
Demostracion. La demostracion resulta por induccion sobre el
tamano de la matriz. Sea M M2(A) y M es la matriz que resulta
de permutar la fila 1 con la fila 2, entonces es claro que det (M
) =det(M). Sea M = (aij) una matriz de tamano n, con n > 2 y sea M
la matriz que resulta de permutar las filas i con j en M. Desarrollemos
el determinante de M por una fila k, con k= i, j. Luego,
det(M) =n
r=1
akr(1)k+rdet(Mk,r).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
23/153
2.2. DETERMINANTE Y ADJUNTA 23
Notese ahora que Mk,r es la matriz de tamano n 1 que se obtiene
permutando las filas i con j en la matriz Mk,r. Luego, de la hipotesis
de induccion det(Mk,r) = det(Mk,r). Por lo tanto
det(M) = n
r=1
akr(1)k+rdet(Mk,r) = det(M).
Proposicion 2.13. Si la matriz M tiene dos filas (o columnas)
proporcionales, entoncesdet(M) = 0.
Demostracion. Usamos otra vez induccion sobre el tamano de la
matriz. Si M M2(A) tiene dos filas proporcionales, entonces un calcu-
lo directo muestra que det(M) = 0. Sea n > 2 y M = (aij) Mm(A)
cuya fila i es proporcional con la fila j. Desarrollando el determi-nante de M por la fila k, con k = i, j, tenemos que en la suman
r=1 akr(1)k+rdet(Mk,r) las matrices Mk,r son de tamano n 1 y
tienen la fila i proporcional con la fila j. Luego, usando la hipotesis
de induccion, se sigue que det(Mk,r) = 0, para todo r. Por lo tanto
det(M) = 0.
Proposicion 2.14. Si M es una matriz obtenida de sumar los
elementos de una fila (o columna) con los respectivos elementos de unafila (o columna) de M ponderados por un elemento de A, entonces
det(M) = det(M).
Demostracion. Sea M la matriz que se obtiene de sumar a las
entradas de la fila i, las respectivas entradas de la fila j de M = (aij)
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
24/153
24 2. MATRICES
ponderadas por a A. Desarrollando det(M) por la i-esima fila, te-
nemos:
det(M) =n
r=1
(air + aajr)(1)i+rdet(Mi,r)
=
nr=1
(air + aajr)(1)i+rdet(Mi,r), (M
i,r = Mi,r)
=
nr=1
air(1)i+rdet(Mi,r) +
nr=1
aajr(1)i+rdet(Mi,r).
La primera sumatoria, corresponde al determinante de M, y la se-
gunda corresponde al determinante de una matriz que tiene la fila i
proporcional con la fila j. Luego, de la proposicion anterior se sigue
que det(M) = det(M).
Ejemplo 2.5. Calculemos el determinante de la siguiente matriz
M,
M =
2 0 1 4
1 1 2 2
1 1 2 11 1 2 0
Desarrollando det(M) por la primera fila, tenemos:
det(M) = 2 det
1 2 2
1 2 1
1 2 0
+ det
1 1 2
1 1 1
1 1 0
4 det1 1 2
1 1
21 1 2
Usando la Proposicion 2.13, se sigue que:
det(M) = 2 0 + det
1 1 2
1 1 1
1 1 0
4 0 = det
1 1 2
1 1 1
1 1 0
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
25/153
2.2. DETERMINANTE Y ADJUNTA 25
Ahora, usando la Proposicion 2.14, se tiene:
det(M) = det
1 1 21 1 11 1 0
= det 1 0 21 0 1
1 2 0
.Luego, desarrollando este ultimo determinate por la segunda columna,
obtenemos:
det(M) = 2
1 2
1 1
= 2(1 2) = 2.
Teorema 2.15. Para todo M, N Mm(A), se tiene:
det(MN) = det(M)det(N).
Demostracion. PENDIENTE
Corolario 2.16. Si M GLn(A), entonces det(M) es un elemen-
to invertible de A. Ademas, det(M1) = (det(M))1.
Demostracion. Sea M una matriz invertible, entonces existe la
matriz inversa M1 de M; ademas MM1 = In, Luego, usando el
teorema anterior, se obtiene:
1 = det(In) = det(MM1) = det(M)det(M1).
As, det(M) es invertible en A y det(M1) = (det(M))1
Notemos ahora que en cada uno de los n terminos del desarrollo
del determinante aparece solamente una vez el factor aij. Es decir:
det(M)) = aij
(1)i+jdet(Mij)
+ (factores que no contienen aij).
Definicion 2.17. El elemento Mij
:= (1)i+j
det(Mij) de A sellama el cofactor de aij.
Ahora, podemos escribir el determinante de M en termino de los
cofactores como:
det(M) =n
s=1
asjMsj =
nr=1
airMir.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
26/153
26 2. MATRICES
En orden a definir la adjunta de una matriz usaremos el concepto
de traspuesta de una matriz.
Definicion 2.18. La traspuesta Mt de una matriz M = (aij)
Mnm(A) es la matriz de Mmn(A), que posee en la posicion (i, j), el
elemento aji.
Es facil ver que:
1. (M + N)t = Mt + Nt.
2. (aM)t = aMt, para todo a A.
Proposicion 2.19. Para todo M y N tales que el producto MNesta definido, se tiene
(MN)t = NtMt.
En particular se deduce que (M1)t = (Mt)1, para toda matriz inver-
tible M.
Demostracion. PENDIENTE
Teorema 2.20. Para toda matriz M de tamano n, se tiene:
det(M) = det(Mt).
Definicion 2.21. La adjunta adj(M) de la matriz M es la matriz
traspuesta de la matriz
Mij
. Es decir,
adj (M) :=
Mijt
.
Usando los lemas ?? y ?? (PENDIENTES) se obtiene el siguiente
teorema.
Teorema 2.22. Para toda matriz M Mm(A), se tiene
M adj(M) = adj(M) M = det(M)In.
Corolario 2.23. Sidet(M) es un elemento invertible en A, enton-
ces M es invertible. Ademas,
M1 = det(M)1 adj(M).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
27/153
2.2. DETERMINANTE Y ADJUNTA 27
Demostracion. Multiplicando por det(M)1 la segunda igualdad
del teorema anterior, obtenemos:
det(M)1adj(M) M = det(M)1det(M)In.
Luego det(M)1adj(M) M = In. Por lo tanto M es invertible y su
inversa esta dada por la expresion del corolario.
Ejemplo 2.6. Calculemos la inversa de la siguiente matriz M de
M3(Q),
M = 1 1 1
2
1 00 1 2
.Tenemos que det(M) = 8, y
adj(M) =
det
1 0
1 2
det
2 0
0 2
det
2 1
0 1
det
1 1
1 2
det
1 1
0 2
det
1 1
0 1
det
1 1
1 0
det
1 1
0 2
det
1 1
2 1
t
=
2 3 1
4 2 2
2 1 3
.
Luego,
M1 = det(M)1adj(M) =
1/4 3/8 1/8
1/2 1/4 1/4
1/4 1/8 3/8
.Los Corolarios 2.23 y 2.16 demuestran el siguiente teorema.
Teorema 2.24. Para todo n 1, se tiene
GLn(A) = {M Mn(A) ; det(M) es invertible en A} .
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
28/153
28 2. MATRICES
Ejemplo 2.7. Las matrices invertibles de M2(Z) son aquellas de
determinate igual a 1 o 1. As por ejemplo, la matriz M = 1 0
0 3
no es invertible en M2(Z); sin embargo, M es una matriz invertible en
M2(Q).
2.3. Sistemas de Ecuaciones y Forma Normal de Hermite
Todo sistema de ecuaciones lineales puede ser escrito mediante ma-
trices. De modo preciso, si M = (aij) Mnm(K), X = (xi)
Mm1(K) y B = (bi) Mn1(K), la ecuacion matricial MX = B
corresponde al sistema con m incognitas x1, . . . , xm y las siguientes n
ecuaciones:
a11x1 + + a1mxm = b1
a21x1 + + a2mxm = b2...
......
an1x1 + + anmxm = bn
En consecuencia, nos referiremos a la ecuacion matricial MX = B,como un sistema de ecuaciones lineales. Cuando B = 0, diremos que
el sistema de ecuaciones es homogeneo. Notese que todo sistema de
ecuaciones homogeneo tiene al menos como solucion X = 0.
Proposicion 2.25. Si X0 es una solucion del sistema MX = B,
entonces toda solucion del sistema MX = B es de la forma X0 + Y,
donde Y es una solucion del sistema homogeneo MX = 0.
Demostracion. Sea X0 una solucion del sistema MX = B. Si Y
es una solucion del sistema homogeneo MX = 0, entonces M(X + Y) =
MX + MY = B + 0 = B, es decir, X0 + Y es una solucion del sistema
MX = B. Sea Z cualquier solucion del sistema MX = B. Escribamos
Z = X0 + (Z X0), dado que Z X0 es solucion del sistema homogeneo
MX = 0, la demostracion de la proposicion concluye.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
29/153
2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 29
En el caso que la matriz M es invertible podemos despejar X de
MX = B, luego X = M1B. En otros terminos:
X = det(M)1adj(M)B,
de donde obtenemos:
xi = det(M)1
b1M1i + b2M
2i + bnMni
.
Esta ultima expresion puede ser reescrita como:
xi = det(M)1det(i),
donde i es la matriz obtenida de reemplazar la iesima columna de la
matriz M por la columna de la matriz B. Es decir, en el caso que la ma-
triz M es invertible, las incognitas xi pueden ser determinadas usando
el determinante de la matriz M y el determinante de las matrices i.
Este metodo de resolucion del sistema MX = B, se llama metodo de
Cramer.
Ejemplo 2.8. Resolvamos, por el metodo de Cramer, el siguiente
sistema de ecuaciones lineales:
x1 + x2 + x3 = 1 x2 + x3 = 0
x1 + 2x2 x3 = 1
El sistema corresponde a la ecuacion matricial MX = B, con:
M =
1 1 1
0 1 1
1 2 1
, X =
x1
x2
x3
y B =
1
0
1
.
Tenemos:
det(M) = 3, 1 =
1 1 10 1 11 2 1
,
2 =
1 1 1
0 0 1
1 1 1
y 3 =
1 1 1
0 1 0
1 2 1
.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
30/153
30 2. MATRICES
Luego como det(1) = 3 y det(2) = det(3) = 0, obtenemos:
x1 = det(M)1det(1) = 1,x2 = det(M)
1det(2) = 0,
x3 = det(M)1det(3) = 0.
Estamos intresados ahora en resolver el sistema MX = B, donde la
matriz M no es invertible, o mas aun, es una matriz que no es cuadrada.
En orden a estudiar la resolubilidad de este sistema de ecuaciones,
notese primero que:
(2.3) MX = B es equivalente al sistema PMX = PB,
para toda matriz invertible P. Luego, multiplicando por matrices P
convenientes (matrices elementales) el sistema MX = B, este sistema
se reduce equivalentemente al estudio del sistema MX = B, donde
ahora la matriz de coeficientes M es cercana a la matriz identidad.
Esto es, M tiene la forma normal de Hermite:
(2.4)
0 0 1 0 0
0 0 0 0 0 1 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0
Definicion 2.26. La matriz elemental fila Fi(b) es la matriz que
resulta de multiplicar la iesima fila de la matriz identidad In por un
elemento invertible b A.
La matriz elemental fila Fij es la matriz que resulta de intercambiar
la iesima fila con la j-esima fila en la matriz In.
La matriz elemental fila Fij(a) es la matriz que resulta de multi-
plicar los elementos de la fila j de In por a A y sumarlos con los
correspondientes elementos de la fila i de In.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
31/153
2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 31
Tenemos los conceptos analogos de matrices elementales columnas:
Ci(a), Cij y Cij(a). Es claro que Ci(b) = Fi(b), Cij = Fij y Cij(a) =
Fji(a).
Ejemplo 2.9.
F13 = C13 =
0 0 1
0 1 0
1 0 0
, F2(1) = C2(1) =
1 0 0
0 1 0
0 0 1
,
F13(2) =
1 0 2
0 1 0
0 0 1
, C13(2) = 1 0 0
0 0 0
2 0 1
.Las matrices elementales son invertibles, y sus inversas son tambien
matrices elementales.
Proposicion 2.27. Para todo a, b A con b invertible, se tiene:
1. F1ij = Fij.
2. Fi(b)1 = Fi(b
1).
3. Fij(a)1 = Fij(a).
Demostracion. Queda de ejercicio.
El efecto de multiplicar una matriz M por la izquierda, por una
matriz elemental fila, se llama operacion fila sobre la matriz M. Mas
precisamente, los tres tipos de operaciones filas se comportan del si-
guiente modo:
1. La matriz FijM es la matriz que resulta de intercambiar las
filas i y j en la matriz M.
2. La matriz Fi(b)M es la matriz que resulta de multiplicar la
fila i de la matriz M por b.
3. La matriz Fij(a)M es la matriz que resulta de sumar a los
elementos de la fila i, los elementos de la fila j multiplicados
por a.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
32/153
32 2. MATRICES
Analogamente, el efecto de multiplicar una matriz M por la derecha,
por una matriz elemental columna, se llama operacion columna sobre
la matriz M.
La notacion ME
N significa que la matriz N fue obtenida desdela matriz M, despues de haber realizado la operacion elemental (fila o
columna) correspondiente a la matriz elemental E.
Ejemplo 2.10.
M =
1 1 1
2 2 3
1 2 1
F21(1)
1 1 2
3 3 4
1 2 1
C23
1 2 1
3 4 3
1 1 2
.
Teorema 2.28. Sea K es un cuerpo. Tenemos que M GLn(K)
si, y solo siM es un producto de matrices elementales fila (o columna).
Demostracion. Si M es un producto de matrices elementales,
entonces M es invertible dado que las matrices elementales son inverti-
bles. Recprocamente, si M = (aij) es invertible, se debe tener que una
entrada de la primera columna de M es invertible. Luego, podemos
intercambiar las filas de modo que en la posicion (1, 1) aparezca un
elemento invertible b. Enseguida podemos multiplicar la primera fila
por b1, y dejamos as en la posicion (1, 1) el elemento 1. Sobre esta
matriz realizamos las operaciones filas determinadas por las matrices
elementales Fi1(ai1), para todo i 2. Obtenemos luego una matriz
invertible cuya primera columna es la primera columna de la matriz
identidad. En la segunda columna de esta matriz (invertible) se tiene
que alguna entrada en la posicion (i, 2) con i 2 es diferente de 0.
Repitiendo el proceso anterior, vemos que podemos obtener, median-te operaciones elementales filas, una matriz invertible cuya segunda
columna es la segunda columna de la matriz identidad. Procediendo
sucesivamente de este modo, obtemos despues de una sucesion finita
de operaciones elementales filas la matriz identidad In:
ME1
E1M E2 Em In.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
33/153
2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 33
Es decir,
(2.5) EmEm1 E1M = In.
Luego M = E11 E12 E
1m . Es decir, M es un producto de matrices
elementales.
Notese que la demostracion del teorema anterior provee un meto-
do para calcular la inversa de una matriz. En efecto, conservando las
notaciones del teorema la relacion (2.5) nos dice:
M1 = EmEm1 E1.
Ejemplo 2.11. Sea M GLn(Q) la matriz del Ejemplo 2.10,
tenemos:
MF21(2)
1 1 1
0 0 1
1 2 1
F31(1)
1 1 1
0 0 1
0 1 0
F23
1 1 1
0 1 0
0 0 1
F12(1)
1 0 1
0 1 0
0 0 1
F13(1)
1 0 0
0 1 0
0 0 1
.
Por lo tanto:
M1 = F13(1)F12(1)F23F31(1)F21(2) =
4 1 1
1 0 1
2 1 0
.
A veces, por razones practicas, es conveniente ir realizando inme-
diatamente el producto de las matrices elementales de (2.5). Para esto
procedemos como sigue: primero formamos la matriz (M|In) y realiza-
mos operaciones filas sobre esta matriz, de modo de alcanzar la matriz
identidad en el primer bloque. Luego, la matriz obtenida en el segundo
bloque es justamente la inversa de M. As, para la matriz del ejemplo
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
34/153
34 2. MATRICES
anterior tenemos:
(M|I3)F21(2)
1 1 10 0 11 2 1
1 0 0
2 1 0
0 0 1
F31(1)
1 1 1
0 0 1
0 1 0
1 0 0
2 1 0
1 0 1
F23
1 1 1
0 1 0
0 0 1
1 0 0
1 0 1
2 1 0
F12(1)
1 0 1
0 1 00 0 1
2 0 1
1 0 12 1 0
F13(1) 1 0 0
0 1 00 0 1
4 1 1
1 0 12 1 0
Por lo tanto:
M1 =
4 1 1
1 0 1
2 1 0
.
La siguiente definicion formaliza la nocion anunciada en (2.4), de
forma normal de Hermite de una matriz.
Definicion 2.29. Sean M Mnm(K) y r un entero tal que 0
r n. Diremos que M tiene la rforma normal de Hermite (o tiene la
forma escalonada reducida por fila) si se cumple:
1. Existe un elemento no nulo en cada una de las primeras r filas
de M. Los elementos en las filas restantes son todos 0.
2. El primer elemento no nulo que aparece en la fila i (i r) y
columna ci es igual a 1. Ademas, debe tenerse c1 < < cr.
3. Las columnas ci son columnas de la matriz identidad Im.
Teorema 2.30. Para toda matriz M Mnm(K), existe una ma-
triz invertible P de tamano n, tal que PM tiene la rforma normal de
Hermite. Ademas, la forma de Hermite esta unicamente determinada
por la matriz M, es decir, si existe otra matriz invertible P tal que
tambien PM tiene la forma normal de Hermite, entonces PM = PM.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
35/153
2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 35
Demostracion. Si la matriz M es nula, ella tiene la 0forma nor-
mal de Hermite. Supongamos que M no es nula, y que la primera
columna no nula de M es la jesima columna. Sea (i, j) la posicion de
la pimera entrada de M que no es nula. Entonces, procediendo como
en la demostracion del Teorema 2.28 sobre la posicion (i, j), podemos
obtener una matriz EM que tiene como jesima columna la primera
columna de la matriz identidad In (en efecto, E es el producto de las
matrices elementales usadas para obtener EM). Procedemos de este
modo con la siguiente columna no nula de EM, y as sucesivamente,
hasta obtener una matriz PM que tiene la forma normal de Hermi-
te.
La unicidad de la forma normal de Hermite permite definir el con-
cepto de rango de una matriz.
Definicion 2.31. Sea M una matriz tal que PM tiene la r-forma
de Hermite. El numero r se llama el rango de M, y sera denotado por
rg(M).
Ejemplo 2.12. Para M :=
0 1 1 1
0 2 0 0
0 0 3 3
determinemossu forma de normal de Hermite, y la matriz P anunciada en el teorema
anterior. Tenemos:
0 1 1 1
0 2 0 0
0 0 3 3
1 0 0
0 1 0
0 0 1
F2(1/2)
0 1 1 10 1 0 00 0 3 3
1 0 00 1/2 0
0 0 1
F12
0 1 0 0
0 1 1 1
0 0 3 3
0 1/2 0
1 0 0
0 0 1
F21(1)
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
36/153
36 2. MATRICES
0 1 0 0
0 0 1 10 0 3 3
0 1/2 0
1 1/2 00 0 1
F32(3)
0 1 0 0
0 0 1 10 0 0 0
0 1/2 0
1 1/2 03 3/2 1
F2(1)
0 1 0 0
0 0 1 1
0 0 0 0
0 1/2 0
1 1/2 0
3 3/2 1
.
Tenemos entonces que P =
0 1/2 0
1 1/2 0
3 3/2 1
, y
(2.6) PM =
0 1 0 0
0 0 1 1
0 0 0 0
.
Notese que rg(M) = 2.
Corolario 2.32. Para toda matrizM Mnm(K) de rango r, exis-
ten matrices invertibles P y Q de tamano es n y m, respectivamente,
tales que PMQ tiene la forma:Ir 0
0 0
.
Demostracion. Queda de ejercicio.
Ejemplo 2.13. Ejemplifiquemos el Corolario 2.32 para la matriz
M del ejemplo anterior. De acuerdo a (2.6) solo resta determinar la
matriz Q. Tenemos:
0 1 0 0
0 0 1 1
0 0 0 0
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
C43(1)
0 1 0 0
0 0 1 0
0 0 0 0
1 0 0 0
0 1 0 0
0 0 1 1
0 0 0 1
C12
1 0 0 0
0 0 1 0
0 0 0 0
0 1 0 0
1 0 0 0
0 0 1 1
0 0 0 1
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
37/153
2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 37
C23
1 0 0 0
0 1 0 00 0 0 0
0 0 1 0
1 0 0 0
0 1 0 1
0 0 0 1
.
Luego tomando Q =
0 0 1 0
1 0 0 0
0 1 0 1
0 0 0 1
, tenemos:
PMQ =
I2 0
0 0
.
Volvamos a la resolucion del sistema MX = B. Usando el Teorema
2.30 existe una matriz invertible P tal que M := PM tiene la for-
ma normal de Hermite. De acuerdo a lo senalado en (2.3) el sistema
MX = B es equivalente al sistema MX = PB. Ahora, el estudio de este
ultimo sistema es sencillo, y toda la informacion de resoluvilidad viene
dada por los rangos de las matrices M y (M|PB). Mas precisamente,
tenemos el siguiente teorema.
Teorema 2.33. Sean M una matriz de n m, y B una matriz
de tamano m 1. Para el sistema de ecuaciones lineales MX = B
tenemos:
1. El sistema no tiene solucion si, y solo si, rg(M|B) > rg(M).
2. El sistema tiene solucion unica si, y solo si, rg(M|B) = rg(M) =
m.
3. El sistema tiene infinitas soluciones si, y solo si, rg(M|B) =
rg(M) < m. En este caso el sistema tiene mrg(M) variables
independientes.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
38/153
38 2. MATRICES
Ejemplo 2.14. Analicemos el sistema MX = B, donde:
M =
1 1 0
2 3
1 1
1 1 0
, B =
0
(1 )
.
Formemos la matriz ampliada (M|B), y luego llevemosla a la forma
normal de Hermite. Tenemos:
(M|B)F31(1)
1 1 0
2 3
0 0
1 1 0
0
(1 )
F41(1)
1 1 0
2 3
0 0
0 0 0
0
(1 )
F21(2)
1 1 0
0 1
0 0
0 0 0
0
(1 )
F12(1)
1 0
0 1
0 0
0 0 0
(1 )
F13(1)
1 0 0
0 1
0 0
0 0 0
0
(1 )
F23(1)
1 0 0
0 1 0
0 0
0 0 0
0
0
(1 )
:= (M|B).
Luego, la forma normal de Hermite de la matriz M es la matriz M.
Por lo tanto, el rango de M depende del valor que tome . Tenemos
dos casos: (i) Si = 0, entonces rg(M) = 2, (ii) Si = 0, entonces
rg(M) = 3. Mas precisamente,
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
39/153
2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 39
(i) En el caso que = 0, es decir rg(M) = 2, tenemos:
(M|B) =
1 0 00 1 0
0 0 0
0 0 0
00
0
.
En el caso de = 0 tenemos rg(M|B) = 3. Por lo tanto, de acuerdo
al teorema, se sigue que el sistema MX = B no tiene solucion.
En el caso = 0 se tiene rg(M|B) = rg(M) = 2 < 3. Por lo
tanto, el sistema tiene infinitas soluciones. Ahora, el sistema MX = B
es equivalente al sistema:
1 0 0
0 1 0
0 0 0
0 0 0
x
y
z
=
0
0
0
0
.
Luego, las soluciones del sistema son los elementos del siguiente con-
junto.
{(x,y,z) ; x = 0, y = 0, z R}.
(ii) Supongamos que = 0. Luego rg(M) = 3. Tenemos,
(M|B)F3(
1)
1 0 0
0 1 0
0 0 1
0 0 0
0
0
1
(1 )
.
En el caso = 1 tenemos rg(M|B) = 4 > rg(M) = 3. Luego, en
este caso, el sistema no tiene solucion.En el caso = 1, tenemos:
(M|B)F3(
1)
1 0 0
0 1 0
0 0 1
0 0 0
0
0
1
0
.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
40/153
40 2. MATRICES
De donde rg(M|B) = rg(M) = 3; luego, el sistema tiene solucion unica:
(0,0,1).
2.4. Nociones Complementarias
Los conceptos de traza de una matriz y similaridad de matrices,
tomaran importancia en los captulos posteriores.
Definicion 2.34. Definimos la traza, tr(M), de la matriz M =
(aij) Mn(A), como
tr(M) := a11 + a22 + + ann A.
Definicion 2.35. Sean M y N Mn(A), se dice que M es similar
conN si existe una matriz invertible P Mn(A) tal que
N = P1MP.
Proposicion 2.36. Para matrices M, N Mn(K) y A, se
tiene:
1. tr(M + N) = tr(M) + tr(N)
2. tr(M) = tr(M)
3. tr(MN) = tr(NM).
Demostracion. La demostracion de las primeras dos afirmaciones
quedan de ejercicio.
Para demostrar la tercera afirmacion, pongamos M = (aij) y N =
(bij), entonces:
tr(MN) =
n
i=1
n
j=1
aij
bji =
n
j=1
n
i=1
bji
aij =
tr(NM).
Proposicion 2.37. Si M y N son matrices similares, entonces:
1. tr(N) = tr(M)
2. det(N) = det(M).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
41/153
2.5. EJERCICIOS 41
Demostracion. Como M y N son matrices similares, existe una
matriz invertible P tal que N = P1MP. Luego, usando la afirma-
cion 3 de la Proposicion 2.36, se sigue que tr(N) = tr(P1MP) =
tr(PP1M) = tr(M).
La demostracion de segunda afirmacion sigue de modo analogo,
pero considerando ahora el Teorema 2.15.
Para finalizar el captulo, definiremos algunas matrices especiales.
Sea M = (aij) Mn(A), entonces:
M se dice que es una matriz triangular superior (respectiva-
mente inferior) si
aij = 0, para todo i > j (respectivamente i < j)
M se dice matriz diagonal si aij = 0, si i = j
M se dice matriz simetrica si M = Mt
M se dice matriz antisimetrica si M = Mt. Notese que si
car(A) = 2, entonces el concepto de matriz antisimetrica coin-
cide con el concepto de matriz simetrica.
M se dice matriz ortogonal si MMt
= Mt
M = InM se dice matriz idempotente si Mk = M, para algun k > 1
M se dice matriz nilpotente si Mk = 0, para algun k > 1
M Mn(C) se dice matriz hermitiana si M = Mt, donde M
denota la matriz conjugada de M, es decir,
M = (aij),
donde aij denota el conjugado del complejo aij.
2.5. Ejercicios
Ejercicio 2.1. Sea A el anillo Z4 = {0,1,2,3}, y considere las si-
guientes matrices M y N en M2(A):
M =
1 1
0 3
, y N =
1 1
1 2
.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
42/153
42 2. MATRICES
Resuelva, en M2(A), la siguiente ecuacion:
MtXN + M = 0.
Ejercicio 2.2. Resuelva, en M2(Z), la siguiente ecuacion:
MX + Xdet(M)M + MNX = NMX + I2,
donde N = Mt, y M =
0 1
1 0
.
Ejercicio 2.3. Sea A un anillo tal que car(A) = 2. Demuestre:
1. La unica matriz que es simetrica y antisimetrica a la vez, es lamatriz nula.
2. Toda matriz se puede escribir como una suma de una matriz
simetrica con una matriz antisimetrica.
Ejercicio 2.4. Escriba la inversa de M como un producto de ma-
trices elementales,
M =
0 1 0 0
1 0 0 0
1 0 1 0
1 0 1 1
.
Ejercicio 2.5. Para M, N matrices cuadradas se define el conmu-
tador [M, N] de M con N, por:
[M, N] := MN NM.
1. Demuestre que si M es simetrica y N es antisimetrica, entonces
[M, N] es simetrica.
2. Resuelva en M2(C) la ecuacion:
[M, N] X + X [M, N]t = [M, N],
donde M =
0 1
1 0
, N =
1 1
0 1
.
Ejercicio 2.6. Determine todos los elementos de M2(F2) y GL2(F2).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
43/153
2.5. EJERCICIOS 43
Ejercicio 2.7. Demuestre que SLn(A) es un subgrupo de GLn(A),
SLn(A) := {M GLn(A) ; det(M) = 1} .
Ejercicio 2.8. Demuestre que la matriz M M3(R[x]) es inverti-
ble. Calcular M1.
M =
1 x 1
0 x2 + 1 x2
1 x + 1 2
.
Ejercicio 2.9. Demuestre por induccion que det(M) = 2n1, donde
M es la siguiente matriz de Mm(K),
1 1 1 . . . 1 1
1 1 1 . . . 1 1
0 1 1 . . . 1 1...
......
......
0 0 0 . . . 1 1
.
Ejercicio 2.10. Calcular el determinante de la siguinete matriz:
M =
1 a1 a21 a
n11
1 a2 a22 a
n12
1 an a2n a
n1n
.
El determinante det(M), se llama determinante de Vandermonde.
Ejercicio 2.11. Demuestre que det(adj(M)) = det(M)n1, para
toda matriz M de tamano n.
Ejercicio 2.12. Demuestre que rg(M) = rg(Mt), para toda matriz
M.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
44/153
44 2. MATRICES
Ejercicio 2.13. Sea M=
1 1 1 1
0 1 0 12 3 2 3
. Hallar matrices in-
vertibles P y Q tales que PMQ tenga la forma:Ir 0
0 0
,
donde r = rg(M).
Ejercicio 2.14. Determine matrices invertibles P y Q de modo
que:
P
0 1 0 11 1 1 11 2 1 3
Q = 1 0 0 00 1 0 0
0 0 1 0
.Ejercicio 2.15. Determine todas las soluciones del sistema MX =
B si se sabe que (1, 0, 1) es una solucion, y
M =
1 0 1
0 1 1
1 1 2
.
Ejercicio 2.16. Hallar las condiciones sobre a, b y c para que el
sistema:
1 a a2
1 b b2
1 c c2
x
y
z
=
1
0
0
,
tenga una unica solucion. Determine en este caso la solucion. Cf. Ejer-
cicio 2.10.
Ejercicio 2.17. Estudie la solubilidad del sistema MX = B, donde
M =
0 0
0 1 0
1 1
1 0 0
, X =
x
y
z
y B =
+
0
0
.
Cuando corresponda determine la(s) solucion (es).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
45/153
2.5. EJERCICIOS 45
Ejercicio 2.18. Analizar la resolucion del sistema:
x +y + z+ (+ )w = 2y + z+ w =
x + z+ w = 2
Ejercicio 2.19. Decida si son verdaderas o falsas las siguientes
afirmaciones:
1. M2 N2 = (M N)(M + N), para todo M, N Mm(A)
2. Si M y N matrices cuadradas de igual tamano, entonces
(M + N)2 = M2 + 2MN + N2.
3. SI M y N son matrices en GLn(K), entonces:
det(M + N) = det(M) + det(N).
4. Si M y N son matrices invertibles de igual tamano, entonces
(MN)1 = M1N1.
5. Si M y N son matrices invertibles, entonces M + N es inver-
tible.
6. Si M y N son matrices equivalentes por fila, entonces los sis-
temas MX = R, NX = S tienen el mismo conjunto solucion.
7. Si M y N son matrices equivalentes por columna, entonces los
sistemas MX = R, NX = S tienen el mismo conjunto solucion.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
46/153
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
47/153
CAPTULO 3
ESPACIOS VECTORIALES
En todo lo que sigue K denota un cuerpo. Tpicamente tomaremos
como K el cuerpo de numero complejos C, el cuerpo de numeros reales
R, el cuerpo de numeros racionales Q, o el cuerpo finito con p elementos
Fp
.
3.1. Espacios y subespacios vectoriales
Definicion 3.1. Sea (V, +) un grupo conmutativo y K un cuerpo.
Diremos queV es unKespacio vectorial si existe una funcion deKV
en V, (, v) v, tal que para todo u, v V y para todo , K secumplen los siguientes axiomas:
1. (u+v) = u+ v.
2. (+ )u= u+ u.
3. ()u= (u).
4. 1v = v.
Los elementos de V son llamados vectores, y los de K escalares.
Ejemplo 3.1. Con las operaciones usuales, Kn := K K (n
veces) es un Kespacio vectorial:
(x1, . . . , xn) + (y1, . . . , yn) := (x1 +y1, . . . , xn +yn)
(x1, . . . , xn) := (x1, . . . , xn), ( K).
En particular K es un Kespacio vectorial.
Ejemplo 3.2. Sean K y K dos cuerpos tales que K este contenido
en K. Con las operaciones usuales, K es un Kespacio vectorial. Sin
embargo, si K esta contenido propiamente en K, entonces K no es un
Kespacio vectorial.
47
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
48/153
48 3. ESPACIOS VECTORIALES
Ejemplo 3.3. Con las operaciones usuales el anillo de matrices
Mnm(K) es un Kespacio vectorial.
(aij) + (bij) := (aij + bij)
(aij) := (aij), ( K).
Ejemplo 3.4. Kn[x] es un Kespacio vectorial, donde la suma es
la suma usual de polinomios (ver Ejercicio 1.18) y la ponderacion por
escalares esta por:
(anxn + + a1x + a0) := anx
n + + a1x + a0a,
donde ai, K.
Ejemplo 3.5. El grupo conmutativo F(X, K) es un Kespacio vec-
torial. Recordemos que para f, g F(X, K), la funcion f + g esta defi-
nida por:
(f + g)(x) := f(x) + g(x),
y para K, la funcion f esta definida por:
(f)(x) := f(x).
En adelante V denota un Kespacio vectorial.
Proposicion 3.2. Para todo v V y K, se tiene:
v = 0 si, y solo si = 0 o v = 0.
Demostracion. Si = 0, entonces v = 0v = (0 + 0)v = 0v + 0v.
Es decir, 0v = 0v + 0v. Sumando el inverso aditivo del vector 0v, se
concluye que 0v = 0. De igual modo, en el caso v = 0 V, tenemos
v = 0 = (0 + 0), luego se obtiene 0 = 0 + 0. Sumando ahora
el inverso aditivo del escalar 0, se concluye que 0 = 0.
Recprocamente, supongamos que K; debemos demostrar que
v = 0. En efeceto, tenemos, v = 1v = (1)v = 1(v) = 10 = 0.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
49/153
3.1. ESPACIOS Y SUBESPACIOS VECTORIALES 49
Definicion 3.3. SeaU un subconjunto no vaco de V, diremos que
U es un Ksubespacio (o simplemente subespacio) vectorial de V si se
cumple:
1. u+v U, para todo u, v U.
2. u U, para todo u V y K.
Ejemplo 3.6. Evidentemente V y {0} son subespacios vectoriales
de V.
Ejemplo 3.7. En V = K2 consideremos la recta L que pasa por el
origen,L := {(x, y) V; ax + by = 0} , (a, b K).
La recta L es un Ksubespacio vectorial de V. Notese que el subespacio
L se puede escribir tambien como,
L =
(x, y) V;
a b
xy
=
0
0
.
Mas generalmente, sea M una matriz de Mmn(K). El subconjunto U,
definido a continuacion, es un Kespacio vectorial.
U :=
(x1, . . . , xn) Kn ; M
x1...
xn
=
0...
0
.
Es decir, el conjunto solucion de un sistema de ecuaciones lineales
homogeneo es un subespacio vectorial.
Ejemplo 3.8. Sea V = Mn(K). Tenemos:
1. El subconjunto de V constituido por las matrices simetricas esun subespacio vectorial.
2. El subconjunto de V constituido por las matrices antisimetri-
cas de V es un subespacio vectorial.
Ejemplo 3.9. Sea V := F(X, K), donde X es un conjunto finito no
vaco. El subconjunto U de V formado por las funciones de suma nula,
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
50/153
50 3. ESPACIOS VECTORIALES
es un subespacio de V.
U = f V; xX
f(x) = 0 .La siguiente proposicion otorga una condicion necesaria que debe
cumplir un subespacio vectorial. Esta condicion es util para demos-
trar que un subconjunto de un espacio vectorial no es un subespacio
vectorial.
Proposicion 3.4. Si U es un subespacio vectorial, entonces el vec-
tor 0 pertenece a U.
Demostracion. Como U es un subconjunto no vaco, existe u
U. Luego, tambien 1 u U. Por lo tanto, 1 u+ u U, es decir
0 U.
Ejemplo 3.10. Sea U =
(x1, . . . , xn) Kn ;n
i=1 x2i = 1
. El sub-
conjunto U no es un subespacio de Kn, pues (0 , . . . , 0) U.
Proposicion 3.5. SeaU un subconjunto no vaco de V. Entonces,
U es un subespacio de V si, y solo si u+w U, para todo u, w U
y K.
Demostracion. Queda de ejercicio.
Ejemplo 3.11. Sean U y W dos subespacios vectoriales de V. En-
tonces el conjunto U + W es un subespacio vectorial de V, donde
U + W := {u+w ; u U, w W} .
En efecto, sean x = u+w, y = u +w U + W, K. Tenemos:
x +y = (u+w) + (u
+w
) = (u+u
) + (w+w
).
Por lo tanto x +y U + W, para todo x, y U + W, K. Luego,
segun Proposicion 3.5, U + W es un subespacio de V.
Proposicion 3.6. Sea {Ui} una coleccion de subespacios de un es-
pacio vectorial V. Entonces la interseccion
Ui es un subespacio de
V.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
51/153
3.2. COMBINACION LINEAL Y ESPACIO GENERADO 51
Demostracion. Como cada Ui es un subespacio, entonces el vec-
tor 0 pertenece a todos los Ui. Luego, Ui es no vaco. Sean K,y u, w
Ui. Tenemos que u, w Ui, para todo i; luego, como Ui
es un subespacio se sigue de la Proposicion 3.5 que u+w Ui, para
todo i. Por lo tanto u+ w
Ui. As,
Ui es un subespacio de
V.
0
U1
U2
U1 U2
Contrariamente a la interseccion, la union de subespacios no es (en
general) un subespacio. As, uno se interesa en estudiar el siguiente
problema: dada una familia de subespacios {Ui}, determinar (definir,
caracterizar) el menor Ksubespacio vect(
Ui) que contiene a la unionUi.
{0}
Ui Ui
Ui vect(Ui) V.
Mas generalmente, dado un subconjunto S de V, definiremos el mas
pequeno subespacio de V que contiene al subconjunto S. Para esto,
necesitamos introducir los conceptos de combinacion lineal y de espacio
generado.
3.2. Combinacion lineal y espacio generado
Definicion 3.7. Sean v, v1, . . . , vm vectores de un Kespacio vec-
torial V. Diremos que v es una Kcombinacion lineal de los vectores
v1, . . . , vn si existen escalares 1, . . . , m en K, tales que:
v = v1 + + mvm.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
52/153
52 3. ESPACIOS VECTORIALES
Si es claro el cuerpo de escalares K considerado, diremos simple-
mente combinacion lineal, en vez de Kcombinacion lineal.
Ejemplo 3.12. Tomemos V = K3, y sea v = (1,2,3), entonces v
es combinacion lineal de e1 = (1,0,0), e2 = (0,1,0) y e3 = (0,0,1):
v = 1e1 + 2e2 + 3e3.
Sea S un subconjunto, no vaco, de V. Definimos vect(S) como el
subconjunto de V formado por todas las combinaciones lineales de ele-
mentos de S. Es decir,
(3.1) vect(S) := n
i=1
isi ; si S, i K, n N
.
En el caso que S es el conjunto vaco, se define vect(S) como {0}.
Proposicion 3.8. vect(S) es un subespacio vectorial de V.
Demostracion. Si S es vaco, la afirmacion es obvia. Supongamos
que S es distinto del conjunto vaco. Sean u, w vect(S), K. Ahora
escribamos u=mi=1 isi, y w = mi=1 isi. Luego,u+w =
mi=1
isi +
mi=1
isi =
mi=1
(i + i)si.
Por lo tanto u+ w vect(S). De la Proposicion 3.5 se sigue que
vect(S) es un subespacio de V.
Definicion 3.9. El subespacio vectorial vect(S) de V se llama el
espacio vectorial generado por S. Si W es un subespacio de V tal que
vect(S) = W, diremos que S genera a W.
Veremos, en la siguiente proposicion, que el subespacio vect(S) es
el mas pequeno subespacio vectorial de V que contiene a S.
Proposicion 3.10. Si S es la interseccion de todos los subespacios
de V que contienen a S, entonces S = vect(S). En particular, vect(S)
es el menor subespacio vectorial de V que contiene a S.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
53/153
3.2. COMBINACION LINEAL Y ESPACIO GENERADO 53
Demostracion. Como vect(S) es uno de los subespacios de V
que contiene a S, se sigue que vect(S) contiene a S. Recprocamente,
si v vect(S), entonces v se escribe:
v =
ni=1
isi (i K),
donde si S. Luego, v es una combinacion lineal de vectores en cual-
quier subespacio U que contiene a S, es decir v U. Luego, v S.
Por ultimo veamos que vect(S) es el menor subespacio de V que
contiene a S. Si W es un subespacio de V tal que S W vect(S),
entonces, S = vect(S) W. Es decir, W = vect(S).
Ejemplo 3.13. Sea S = {v} V, entonces vect(S) = {v ; K}.
v
vect({v})
Ejemplo 3.14. El subespacio de las matrices simetricas en M2(K)
esta generado por las matrices:1 0
0 0
,
0 0
0 1
,
0 1
1 0
.
En efecto, toda matriz M simetrica de tamano 2 se escribe,
M = a b
b d = a
1 0
0 0+ b
0 1
1 0+ d
0 0
0 1 .
Proposicion 3.11. U + W = vect(U W).
Demostracion. Como U+ W es un subespacio de V que contiene
a U y W, sigue de la proposicion anterior que vect(U W) U +
W. Ahora, por definicion de espacio generado se sigue que U + W
vect(U W).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
54/153
54 3. ESPACIOS VECTORIALES
3.3. Dependencia e Independencia lineal
Definicion 3.12. Un subconjunto S de V se dice Klinealmentedependiente si existen vectores v1, . . . , vm en S y escalares 1, . . . , m
en K, no todos nulos, tales que:
1v1 + + mvm = 0.
Un conjunto que no es Klinealmente dependiente, se dice Kli-
nealmente independiente. Es decir, S es Klinealmente independiente
si para todo subconjunto {v1, v2, . . . , vm} de S se tiene:
Si 1v1 + + mvm = 0 y i K, entonces 1 = 2 = m = 0.
Cuando es evidente el cuerpo de escalares que se esta conside-
rando, diremos simplemente, linealmente dependiente, en vez de, K
linealmente dependiente. Idem con linealmente independiente.
Observacion 3.13. En el caso que S = {v1, . . . , vm} es finito, la
definicion de independencia lineal se traduce como sigue: S es lineal-mente independiente si la combinacion lineal 1v1 + + mvm = 0
ocurre solo cuando 1 = 2 = m = 0.
Notese que si el vector nulo pertenece a S, entonces S es linealmente
dependiente, pues podemos tomar la combinacion lineal: 0 = 1 0.
En el caso que S conste de un solo vector v diferente de cero, en-
tonces S es linealmente independiente, pues 0 = v, implica = 0.
Ver Proposicion 3.2.
Ejemplo 3.15. Analicemos la dependencia lineal del subconjunto
S = {(1,1,1), (1 , 1 , , a), (1,a,a)} del R-espacio vectorial R3. Estudie-
mos la ecuacion:
(1,1,1) + (1 , 1 , , a) +(1,a,a) = (0,0,0) (,, R).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
55/153
3.3. DEPENDENCIA E INDEPENDENCIA LINEAL 55
En orden a determinar los valores de , y . Formamos el sistema de
ecuaciones homogeno:
+ + = 0
+ + a = 0
+ a + a = 0
Este sistema tendra solucion = = = 0 si, y solo si = 0, donde:
:= det
1 1 1
1 1 a
1 a a
= det
1 0 1
1 0 a
1 a 1 a
= (a 1)2.
Por lo tanto, S es linealmente independiente si, y solo si a = 1.
Ejemplo 3.16. El subconjunto {sen x, cos x} del Respacio vecto-
rial F(R,R), es linealmente independiente. En efecto, una combinacion
lineal de las funciones seno y coseno, (sen x) + (cos x) = 0, impli-
ca las ecuaciones: (sen 0) + (cos 0) = 0 y (sen 2
) + (cos 2
) = 0.
Luego, = = 0.
Ejemplo 3.17. Sea S =
(n, n+1) ; n N
. En V = R2, mirado
como Respacio vectorial, el conjunto S es linealmente dependiente. Enefecto, tenemos:
(, 2) + (1)(2, 3) = (0, 0).
Esta ultima ecuacion no es valida en V, mirado como Qespacio vec-
torial, pues Q. Veamos que S es Qlinealmente independiente:
Cualquier subconjunto finito S de S es de la forma:
S =
n1 , n1+1
,
n2 , n2+1
, . . . ,
nr , nr+1
,
donde n1 < n2 < < nr. Ahora, la combinacion lineal:
1
n1 , n1+1
+ 2
n2 , n2+1
+ + r
nr , nr+1
= (0, 0) ,
donde i Q, implica la ecuacion:
1 + 2(n2n1) + + r
(nrn1) = 0 (i Q).
De donde se deduce que i = 0, para todo i.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
56/153
56 3. ESPACIOS VECTORIALES
Proposicion 3.14. S es linealmente dependiente si, y solo si, existe
un vector v S que es combinacion lineal de elementos de S \ {v}.
Demostracion. Si S es linealmente dependiente, entonces tene-
mos una combinacion lineal de elementos de S igual a 0:
1v1 + + mvm = 0 (vi S),
donde los escalares i no son todos 0. Sin perdida de generalidad po-
demos suponer que 1 = 0. Ahora, despejando v1, tenemos:
v1 =
1
1 2v2
1
1 3v3
1
1 mvm.
Es decir, existe un vector v := v1 S que es combinacion lineal de
elementos de S \ {v}.
El recproco es inmediato.
Ejemplo 3.18. Sea S := {(0,0,1), (1,1,2), (1,1,3), (1,2,3)}. El
subconjunto S del Kespacio vectorial K3, es linealmente dependien-
te. En efecto, tenemos:
(0,0,1) = 1(1,1,2) + 1(1,1,3) + 0(1,2,3).
La Proposicion 3.14 puede tambien ser enunciada como la que sigue.
Proposicion 3.15. S es linealmente independiente si, y solo si,
para todo elemento v S, se tiene que v vect(S \ {v}).
3.4. Base y dimension
Definicion 3.16. Un subconjunto ordenado B de V se dice unabase de V si B es un conjunto linealmente independiente, y ademas B
genera a V.
En los ejemplos que daremos a continuacion mostramos, respecti-
vamente, la base canonica de los espacios Kvectoriales: Kn, Mnm(K),
Kn[x] y F(X, K).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
57/153
3.4. BASE Y DIMENSION 57
Ejemplo 3.19. La base canonica del Kespacio vectorial Kn es:
{e1, . . . , en},
donde ei es el vector que tiene a 1 en la posicion i, y el resto de las
coordenadas son 0.
Ejemplo 3.20. La base canonica de Mnm(K) es:
{Eij ; 1 i n, 1 j m} ,
donde Eij es la matriz que tiene en la posicion (i, j) a 1, y en el resto
de las posiciones a 0.
Ejemplo 3.21. La base canonica de Kn[x] es:
{1,x,x2, . . . , xn}.
Ejemplo 3.22. La base canonica de F(X, K) es {x ; x X}, donde
x esta definida por:
x(y) =
1, si y = x
0, si y = x.
Ejemplo 3.23. Sea W el subespacio formado por las matrices
simetricas de M2(R). La dimension de W es 3. En efecto, una base
para W es el conjunto B = {v1, v2, v3}, donde:
v1 =
1 0
0 0
, v2 =
0 0
0 1
, v3 =
0 1
1 0
El Ejercicio 3.14, muestra que vect(B) = W, y es facil ver que B lineal-
mente independiente.
El siguiente teorema asegura la existencia de bases.
Teorema 3.17. SeaV un Kespacio vectorial no nulo. Sean S
subconjuntos de V tales que es linealmente independiente y S genera
a V. Entonces existe una base B de V, tal que:
B S.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
58/153
58 3. ESPACIOS VECTORIALES
Demostracion. La demostracion usa el lema de Zorn, ver Apendi-
ce A. Sea
A := {A V; A es linealmente independiente, y A S}.
Notese que A. La relacion A B induce un orden parcial en
A. Toda cadena totalmente ordenada A1 A2 An tiene
como elemento maximal a Ai. Luego, por el lema de Zorn, existe un
elemento maximal B en A. Como B es linealmente independiente, solo
resta ver que genera a V para tener que B es una base de V, y por
consiguiente, la demostracion del teorema.
Supongamos que B no genera a V. Luego, existe un vector v en V
que no pertenece a vect(B). Consideremos el conjunto B = B {v}. De-
mostraremos que B es linealmente independiente, y luego, un elemento
de A que contiene propiamente a B. Esto contradice la maximilidad de
B, por lo tanto B genera a V, y el teorema queda demostrado.
Veamos que B es linealmente independiente. Sea v + 1v1 + +
nvn = 0. Si = 0, podemos luego, escribir v en combinacion lineal
de elementos de B, lo cual no puede ser pues v vect(B). As, = 0
y luego, se sigue que 1 = = n = 0. Es decir, B
es linealmenteindependiente.
Corolario 3.18. Todo conjunto linealmente independiente esta con-
tenido en una base.
Demostracion. Sea un subconjunto linealmente independiente
de V. El corolario sigue al aplicar el teorema al caso S = V.
Corolario 3.19. Todo conjunto de generadores contiene una base.
Demostracion. Si S es un subconjunto de generadores de V, en-
tonces existe un vector no nulo v en S. El corolario sigue al aplicar el
teorema al caso = {v}.
Teorema 3.20. Si B = {v1, v2, . . . , vn} y B = {w1, w2, . . . , wm}
son dos bases de V, entonces n = m.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
59/153
3.4. BASE Y DIMENSION 59
Demostracion. El vector w1 se puede escribir como w1 = 1v1+
+ nvn, donde podemos suponer 1 = 0. Ahora veamos que el con-
junto B1 = {w1, v2, . . . , vn} es una base de V. Como v1 = 1w1
12v2 1nvn, se sigue que B1 genera a V. Por otra parte
la igualdad 1w1 + 2v2 + + nvn = 0, es equivalente a 11v1 +
(12 + 2)v2 + + (1n + n)vn = 0; como B es linealmente inde-
pendiente se deduce que 1 = = n = 0, es decir, B1 es linealmente
independiente. Por lo tanto B1 es una base de V.
Repitiendo este procedimiento para las bases B1 y B, es decir, reem-
plazamos el vector v2 de B2 por el vector w2 de B; obtenemos as una
base B2 = {w1, w2, v3, . . . , vn}. Repetimos este argumento para las ba-
ses B2 y B de V, y as sucesivamente. Luego, obtenemos finalmente
una base de V de la forma {w1, w2, . . . , wm, vm+1, . . . , vn}. Por lo tanto
n m.
Con igual argumento uno demuestra que m n. Por lo tanto n =
m.
El Teorema 3.20 permite definir el concepto de dimension de un
espacio vectorial.
Definicion 3.21. Sea V un Kespacio vectorial. Si V tiene una
base finita B, entonces se define la dimension dimK(V) de B como el
cardinal deB. Si no hay peligro de confusion, escribiremos simplemente
dim(V) en vez de dimK(V).
En el caso queV no admite una base finita, se dice que la dimension
dimK(V) es infinita.
Ejemplo 3.24. De los Ejemplos 3.193.22 obtenemos:
dimK(Kn) = n
dimK(Mnm(K)) = nm
dimK(Kn[x]) = n + 1
dimK(F(X, K)) = |X|.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
60/153
60 3. ESPACIOS VECTORIALES
Proposicion 3.22. En un espacio vectorial de dimension n, todo
conjunto con mas de n elementos es linealmente dependiente.
Demostracion. Supongamos que existe un subconjunto de V que
es linealmente independiente y de cardinal m, con m > n. Ocupando el
Corolario 3.18, se sigue que V tiene una base con mas de n elementos,
lo cual es una contradiccion.
Corolario 3.23. Un subconjunto B de n vectores, en un espacio
vectorial de dimension n, es una base si, y solo si, B es linealmente
independiente.
Demostracion. Sea B un conjunto de n vectores que es lineal-
mente independiente. Segun el Corolario 3.18 el conjunto B esta con-
tenido en una base B, pero de acuerdo a la Proposicion 3.22 todo
conjunto con mas de n elementos es linealmente independiente. Luego
B = B, es decir B es una base.
El recproco es inmediato, pues toda base es, en particular, lineal-
mente independiente.
Proposicion 3.24. En un espacio vectorial de dimension n, todo
conjunto de generadores tiene a lo menos n elementos.
Demostracion. Supongamos que existe un subconjunto de gene-
radores de V con melementos, y donde m < n. De acuerdo al Corolario
3.19 se deduce que V tiene una base con menos de n elementos, lo cual
es una contradiccion.
Corolario 3.25. Un subconjunto B de n vectores, en un espaciovectorial de dimension n, es una base si, y solo si, B genera a V.
Demostracion. Queda de ejercicio. Cf. con la demostracion del
Corolario 3.23.
Sea W un subespacio vectorial de V. Una base BW de W es, en
particular, un conjunto linealmente independiente contenido en V. Por
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
61/153
3.5. COORDENADAS Y MATRIZ CAMBIO DE BASE 61
lo tanto BW esta contenido en una base B de V. Luego, obtenemos el
siguiente teorema:
Teorema 3.26. Sea V un Kespacio vectorial de dimension n. Si
W es un subespacio vectorial de V, entonces dimK(W) n.
Proposicion 3.27. SeaV un espacio vectorial de dimension n. Si
W es un subespacio de V tal que dimK(W) = n, entonces V = W.
Demostracion. Si BW es una base de W, entonces BW es lineal-
mente independiente. Ahora, segun Corolario 3.23, BW es tambien una
base de V. Luego V = W.
3.5. Coordenadas y matriz cambio de base
Sea V un Kespacio vectorial de dimension finita n. Un punto clave
en el algebra lineal es poder representar los vectores de V (de modo
unico) mediante matrices, respecto a una base de V. Esto es posible
gracias al siguiente lema:
Lema 3.28. Sea B = {v1, . . . , vn} una base de V, entonces existenunicos escalares 1, . . . , n en K tales que:
v = 1v1 + + nvn.
Demostracion. Si tenemos dos escrituras de v,
v = 1v1 + + nvn = 1v1 + + nvn,
entonces se tiene:
(1 1)v1 + + (n n)vn = 0.
Ahora como los vis son linealmente independiente se debe tener que
1 = 1, . . . , n = n.
Definicion 3.29. Conservemos las notaciones del lema anterior.
Las coordenadas de v V, respecto a la base B, es la matriz [v]B de
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
62/153
62 3. ESPACIOS VECTORIALES
Mn1(K), definida por:
[v]B =
1...
n
.
Ejemplo 3.25. Consideremos la base B = {1,x,x2 + x} del espacio
vectorial K2[x], y sea v = x2 + x 1 V. Entonces,
[v]B =
1
0
1
,
ya que v = 1(1) + 0(x) + 1(x2 + x).
Ejemplo 3.26. Sea B = {v1, . . . , vn} una base de V. Las coordena-
das de vi B, en la base B, es la matriz con todas sus entradas iguales
a 0, salvo en la posicion i, en donde va 1. Es decir,
[vi]B =
0..
.0
1
0...
0
.
Lema 3.30. Sean u, v dos vectores en un espacio vectorial V de
dimension finita, y sea B una base de V. Entonces,
1. [u+v]B = [u]B + [v]B
2. [u]B = [u]B ( K) .
Demostracion. Pongamos B = {v1, . . . , vn}. Segun el lema ante-
rior tenemos que u y v se escriben de modo unico como:
u= 1v1 + + nvn, v = 1v1 + + nvn (i, i K).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
63/153
3.5. COORDENADAS Y MATRIZ CAMBIO DE BASE 63
Luego, el vector u+v se ecribe de modo unico como
u+v = (1 + 1)v1 + + (n + n)vn.
Por lo tanto se deduce la primera afirmacion del lema.
La otra afirmacion se demuestra de modo analogo.
Definicion 3.31. Sean B = {v1, . . . , vn} y D dos bases de un K
espacio vectorial V de dimension n. La matriz cambio de base CDB es
la matriz de Mn(K) cuya iesima columna es [vi]D.
El nombre de matriz cambio de base de la matriz CD
B queda plena-mente justificado por el siguiente teorema.
Teorema 3.32. Sean B y D dos bases deV, y seav V. Entonces:
1. CDB [v]B = [v]D
2. CDB es una matriz invertible, y su inversa es CBD.
Demostracion. Pongamos B = {v1, v2, . . . , vn} y sea v V. Te-
nemos v = 1v1 + + nvn. Luego,
CDB [v]B = CDB [1v1 + + nvn]B
= CDB([1v1]B + + [nvn]B)
= CDB(1[v1]B + + n[vn]B)
= 1CDB [v1]B + + nC
DB [vn]B.
Ahora, el producto CDB [vi]B es la iesima columna de la matriz CDB , es
decir, CDB [vi]B = [vi]D. Luego,
CDB [v]B = 1[v1]D + + n[vn]D
= [1v1]D + + [nvn]D
= [1v1 + + nvn]D = [v]D.
Demostremos la segunda afirmacion. Pongamos D = {w1, . . . , wn}. De
la primera parte tenemos CDB [wi]B = [wi]D, para todo i. Pero [wi]D
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
64/153
64 3. ESPACIOS VECTORIALES
es la iesima columna de la matriz identidad In de orden n. Luego, se
deduce que:
CDBCBD = In.
Es decir, obtenemos la segunda afirmacion del teorema.
Ejemplo 3.27. Sea V el Cespacio vectorial C2[x]. Sea B la base
de V definida en el Ejemplo 3.25, y D la base {x2 + x 1,1,x + 1}.
Segun Ejercicio 3.25,
[x2 + x 1]B =
1
0
1
.Ademas, 1 = 1(1) + 0(x) + 0(x2 + x), y x + 1 = 1(1) + 1(x) + 0(x2 + x).
Luego,
[1]B =
1
0
0
y [x + 1]B =
1
1
0
.
Por lo tanto,
CDB =
1 1 1
0 0 1
1 0 0
.
3.6. Suma de subespacios y espacios vectoriales
3.6.1. Suma de subespacios vectoriales. Sean U y W dos K
subespacios de V. Recordemos (ver Ejemplo 3.11) que la suma U + W
de los subespacios U y W es el subespacio vectorial de V definido por:
U + W = {u+w ; u U, v W}.
Definicion 3.33. Sean U y W dos subespacios de V, tales que
V = U + W y U W = {0}. En esta situacion diremos que V es la
suma directa (interna) de U conW. Escribiremos V = U W.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
65/153
3.6. SUMA DE SUBESPACIOS Y ESPACIOS VECTORIALES 65
Ejemplo 3.28. Sea V = Mn(K), con car(K) = 2, y consideremos
los subespacios U y W de V constituidos por las matrices simetricas y
antisimetricas, respectivamente.
Toda matriz M Mn(K) se escribe como sigue,
M =1
2(M + Mt) +
1
2(M Mt).
Como 12
(M + Mt) es una matriz simetrica y 12
(M Mt) es una matriz
antisimetrica, se concluye que V = U + W. Ahora, la unica matriz
que es simetrica y antisimetrica a la vez es la matriz nula, es decir,
U W = {0}. Por lo tanto V = U W.
Lema 3.34. Si BU y BW son bases de los subespacios U y W,
respectivamente, entonces U + W = vect(BU BW).
Demostracion. Es claro que vect(BU BW) U + W, ver Pro-
posicion 3.11. Veamos la otra contencion: Sea v U + W, entonces
v = u+w, donde u U y w W. Ahora u es combinacion lineal de
elementos de la base BU de U. Analogamente, w es combinacion lineal
de elementos de la base BW de W. Luego,v es una combinacion lineal de
elementos del conjunto BUBW, de donde U+W vect(BUBW).
Teorema 3.35 (H. Grassmann). Sean U y W subespacios de un
espacio vectorial. Si la dimension de U + W es finita, entonces:
dim(U + W) = dim(U) + dim(W) dim(U W).
En particular, dim(U W) = dim(U) + dim(W).
Demostracion. Sea BUW = {v1, . . . , vr} una base de U W.
Ocupando el Corolario 3.18 podemos construir bases BU y BW de Uy W, respectivamente, tales que contienen a BUW. Pongamos BU =
{v1, . . . , vr, u1, . . . , u n} y BW = {v1, . . . , vr, w1, . . . , wm}. Veremos que:
B = {v1, . . . , vr, u1, . . . , u n, w1, . . . , wm}
es una base de U + W. De donde se obtiene dim(U + W) = r + n + m=
(r+n)+(r+m)r, o sea dim(U+W) = dim(U)+dim(W)dim(UW).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
66/153
66 3. ESPACIOS VECTORIALES
Del Lema 3.34 se obtiene que B genera a U+W, pues B = BUBW.
Veamos que B es un conjunto linealmente independiente. Conside-
remos la siguiente combinacion lineal:i
ivi +
i
iui +
i
iwi = 0.
Esta ecuacion es equivalente a:
()
iivi +
iiui =
iiwi.
Claramente, el lado izquierdo de () es un vector de U, y el lado
derecho un vector de W. Por lo tanto, el lado izquierdo () es un vector
de U W. Luego el lado izquierdo de () es una combinacion lineal de
los vectores de BUW, de donde se deduce que i = 0, para todo i. El
mismo razonamiento nos dice que i = 0, para todo i. Luego, la ecua-
cion () se reduce a
i ivi = 0. Pero dado que BUW es linealmente
independiente, se sigue que i = 0, para todo i. Por lo tanto B, es
linealmente independiente. As B es una base de U + W.
Mas generalmente, podemos definir la suma U1 + + Um de los
subespacios U1, . . . , Um de V, como:
U1 + + Um := {u1 + +um ; ui Ui}.
Un argumento inductivo muestra que U1 + + Um es tambien un
subespacio de V.
Definicion 3.36. Sean U1, U2, . . . , Um subespacios vectoriales deV. Diremos que V es la suma directa de U1, U2, . . . , Um, si se tiene:
1. V = U1 + U2 + + Um.
2. Ui
(U1 + + Ui + + Um) = {0}, para todo i.
(el sobre un factor dice que ese factor es omitido).
Esta situacion sera denotada por V = U1 U2 Um.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
67/153
3.6. SUMA DE SUBESPACIOS Y ESPACIOS VECTORIALES 67
Ejemplo 3.29. Para el Kespacio vectorial V = K4 tenemos,
V = U1 U2 U3,
donde U1 := vect(e1, e2), U2 := vect(e2 + e3) y U3 := vect(e4). En
efecto, tenemos:
U1 = {(x,y,0,0) ; x, y K},
U2 = {(0,z,z,0) ; z K},
U3 = {(0,0,0,w) ; w K}.
Ahora, todo vector v = (a,b,c,d) V, se escribe:
v = (a, b c,0,0) + (0,c,c,0) + (0,0,0,d).
Es decir, V = U1 + U2 + U3.
Por otra parte, tenemos:
U1 (U2 + U3) = U2 (U1 + U3) = U3 (U1 + U2) = {0}.
Notese que:
U2 + U3 = {(0,x,x,y) ; x, y K},
U1 + U3 = {(x,y,0,z) ; x,y,z K},
U1 + U2 = {(x,y,z,0) ; x,y,z K}.
Proposicion 3.37. V = U1 Un si, y solo si, todo v V se
puede escribir de manera unica en la forma v = u1 + + un, donde
ui Ui.
3.6.2. Suma de espacios vectoriales. Sea V1, . . . , V m una colec-
cion de Kespacios vectoriales. Consideremos el conjunto producto V1
Vm. En este conjunto introduzcamos las operaciones suma y pon-
deracion por escalar, cf. Ejemplo 3.1, del siguiente modo:
(v1, . . . , vm) + (v
1, . . . , v
m) := (v1 +v
1, . . . , vm +v
m),
(v1, . . . , vm) := (v1, . . . , vm), ( K).
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
68/153
68 3. ESPACIOS VECTORIALES
Teorema 3.38. Con las operaciones recien descritas el conjunto
V1 Vm tiene una estructura de Kespacio vectorial.
Demostracion. Queda de ejercicio.
Definicion 3.39. El espacio vectorial del Teorema se llama la suma
directa externa de los espacios vectoriales V1, . . . , V m. Y se denota por
V1 Vm.
Sean V1 y V2 dos Kespacios vectoriales con bases {u1, . . . , u n} y
{w1, . . . , wm}, respectivamente. Consideremos el subconjunto B :=
{(ui, 0), (0, wj) ; 1 i n, 1 j m} de V1 V2. Veremos que B
es una base de V1 V2.
Sea (u, w) V1 V2. Podemos escribir u =n
i=1 iui, y w =mj=1 jwj, donde i, j K. Luego, el vector (u, w) es una combina-
cion lineal de los elementos de la base B:
(u, w) =
ni=1
i(ui, 0) +
mj=i
j(0, wj).
Es decir, el conjunto B genera a V1 V2.
Por otra parte, la igualdad:
ni=1
i(ui, 0) +
mj=i
j(0, wj) = (0, 0)
implican
i=1 iui = 0, ym
j=i jwj = 0. Por lo tanto, i = 0, para
todo i, y j = 0, para todo j. Es decir, B es linealmente independiente.
Por lo tanto, B es una base de V1 V2, luego,
dimK(V1 V2) = dimK(V1) + dimK(V2).
Generalizando el procedimiento recien realizado, obtenemos:
Teorema 3.40. Sea V1, . . . , V m una coleccion de Kespacios vec-
toriales, tales que dimK(Vi) = ni, entonces
dimK(V1 Vm) = n1 + + nm.
-
7/28/2019 MLP 200 - Algebra Lineal (1).pdf
69/153
3.7. ESPACIO COCIENTE 69
Para finalizar notemos que Vi no es un subespacio de V1 Vm.
Mas adelante veremos que el espacio vectorial Vi puede ser identificado
con el siguiente subespacio vectorial Ui de V1 Vm,
Ui = {(v1, . . . , vm) ; vj = 0, si j = i}.
Tenemos, la siguiente proposicion.
Proposicion 3.41. El espacio vectorial V1 Vm es la suma
directa (interna) de los subespacios U1, . . . , Um.
Demostracion. Queda de ejercicio.
3.7. Espacio cociente
Sea W un subespacio de V. Mirando la estructura de grupo con-
mutativo de V, y como en particular W es un subgrupo de V, se sigue
(ver Corolario 1.7) que el cociente V/W tiene una estructura de grupo
conmutativo con la operacion:
(u+ W) + (v + W) := (u+v) + W.
Teorema 3.42. El cociente V/W tiene una estructura natural de
Kespacio vectorial, donde la ponderacion por escalares se define como: