mlp 200 - algebra lineal (1).pdf

Upload: charles-robert-wedgwood

Post on 03-Apr-2018

250 views

Category:

Documents


5 download

TRANSCRIPT

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    1/153

    Algebra Lineal

    (APUNTE EN

    CONSTRUCCION)

    por Jesus Juyumaya

    Agosto, 2006

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    2/153

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    3/153

    Indice general

    Introduccion 5

    Captulo 1. PRELIMINARES 7

    1.1. Grupos 7

    1.2. Anillos y Cuerpos 11

    1.3. Ejercicios 13

    Captulo 2. MATRICES 17

    2.1. Estructura algebraica de las Matrices 17

    2.2. Determinante y Adjunta 21

    2.3. Sistemas de Ecuaciones y Forma Normal de Hermite 28

    2.4. Nociones Complementarias 40

    2.5. Ejercicios 41

    Captulo 3. ESPACIOS VECTORIALES 47

    3.1. Espacios y subespacios vectoriales 47

    3.2. Combinacion lineal y espacio generado 51

    3.3. Dependencia e Independencia lineal 54

    3.4. Base y dimension 56

    3.5. Coordenadas y matriz cambio de base 61

    3.6. Suma de subespacios y espacios vectoriales 64

    3.7. Espacio cociente 693.8. Ejercicios 71

    Captulo 4. TRANSFORMACIONES LINEALES 77

    4.1. Transformaciones lineales 77

    4.2. El espacio Hom(V, W) 85

    4.3. El espacio dual 92

    3

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    4/153

    4 INDICE GENERAL

    4.4. Ejercicios 95

    Captulo 5. DIAGONALIZACION Y FORMA DE JORDAN 1035.1. Diagonalizacion 103

    5.2. Forma de Jordan 126

    5.3. Ejercicios 138

    Apendice A: Lema de Zorn 143

    Apendice B: Polinomios 145

    Indice alfabetico 151

    Bibliografa 153

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    5/153

    Introduccion

    Los temas tratados en el presente apunte corresponden al curso de

    Algebra Lineal I, de la Carrera de Matematicas de la Universidad de

    Valparaso.

    La Carrera de Matematicas tiene cuatro semestres de formacion

    basica, una vez terminada esta primera etapa, el alumno puede optar

    al Plan de Pedagoga o de Licenciatura en Matematicas. El curso de

    Algebra Lineal I esta en el tercer semestre. As, las materias tratadas

    en este apunte, intentan cubrir por una parte los requerimientos que

    debe tanto un Pedagogo, como un Licenciado en Matematicas en un

    primer curso de Algebra Lineal.

    A lo largo del apunte utilizaremos, como es usual, las notaciones

    N, Z, Q, R y C

    para los numeros naturales (incluyendo el 0), enteros, reales y complejos

    respectivamente.

    La escritura a := b quiere decir que el termino a es definido como

    la expresion b. Analogamente con la escritura b =: a.

    Cualquier tipo de observacion del presente apunte, por fa-

    vor enviarlas a: [email protected]

    5

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    6/153

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    7/153

    CAPTULO 1

    PRELIMINARES

    1.1. Grupos

    Definicion 1.1. Un grupo es un conjunto no vaco G, provisto de

    una funcion de G G en G, (a, b) ab, tal que para todo a, b y cen G se cumplen los siguientes axiomas:1. a(bc) = (ab)c (asociatividad).

    2. Existe un elemento e G que satisface ea = ae = a.

    3. Todo elemento a G tiene asociado un elemento a1 G tal

    que aa1 = a1a = e.

    La funcion que define el grupo es llamada operacion binaria, ley de

    composicion interna, o simplemente, producto.

    El elemento e del axioma 2 es unico, y se llama el neutro del grupo.

    El elemento a1 en el axioma 3 esta unicamente determinado por a.

    El grupo es conmutativo (abeliano) si ademas satisface la propiedad

    de conmutatividad, es decir: ab = ba, para todo a, b G.

    Definicion 1.2. El orden de un elemento g en G es el menor na-

    tural n tal que gn

    = e. El orden del grupo es la cantidad de elementosdel grupo.

    Ejemplo 1.1. Los conjuntos Z, R, Q y C con la suma usual de

    numeros, son grupos conmutativos. Con la multiplicacion usual los con-

    juntos R, Q y C, son tambien grupos conmutativos.

    7

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    8/153

    8 1. PRELIMINARES

    Ejemplo 1.2. El conjunto Zn = {0 , 1 , 2 , . . . , n 1} es un grupo con

    la suma de enteros modulo n. Tabla de operaciones de Z4:

    0 1 2 3

    0 0 1 2 3

    1 1 2 3 0

    2 2 3 0 1

    3 3 0 1 2

    Ejemplo 1.3. Zn := Zn {0} es un grupo con la multiplicacion

    de enteros modulo n si, y solo si, n es un numero primo. Tabla de

    operaciones de Z5 :

    1 2 3 4

    1 1 2 3 4

    2 2 4 1 3

    3 3 1 4 2

    4 4 3 2 1

    Ejemplo 1.4. Sea Sn el conjunto formado por las funciones biyec-

    tivas del conjunto {1 , 2 , . . . , n}. El conjunto Sn con la operacion com-

    puesta de funciones es un grupo. Este grupo no es conmutativo para

    n 3.

    Ejemplo 1.5. Sean G un grupo y X un conjunto no vaco. Sea

    F(X, G) el conjunto de todas las funciones de X en G. En F(X, G)

    definimos el producto , de las funciones y , como

    : X

    G

    x ( )(x) := (x)(x).F(X, G) con la operacion tiene estructura de grupo.

    Ejemplo 1.6. A partir de un grupo G se puede definir el grupo

    G G, donde la operacion es definida por coordenadas a partir de la

    operacion de G, esto es,

    (a, b)(c, d) := (ac, bd).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    9/153

    1.1. GRUPOS 9

    Mas generalmente, sean G1, . . . , Gn grupos arbitrarios, uno puede

    definir como antes el grupo producto G1 G2 Gn con operacion

    dada por:

    (a1, . . . , an)(b1, . . . , bn) := (a1b1, . . . , anbn).

    Proposicion 1.3. Para todo a, b G se tiene:

    1. (a1)1 = a.

    2. (ab)1 = b1a1.

    Definicion 1.4. Un subconjunto no vaco H de un grupo G se dice

    que es un subgrupo de G, si se cumple:

    1. Para todo x, y H se tiene que xy H.

    2. Si x H, entonces x1 H.

    Notese que todo grupo G tiene como subgrupos a G y {e}.

    Ejemplo 1.7. Las siguientes inclusiones de conjuntos son inclusio-

    nes de subgrupos.

    Z Q R C,

    {1, 1} Q R C.

    Ejemplo 1.8. El subconjunto del grupo G = F(X, G) constituido

    de las funciones constantes es un subgrupo de G.

    Ejemplo 1.9. El subconjunto H del grupo Sn formado por las

    funciones que fijan a n, es un subgrupo de Sn.

    Proposicion 1.5. Sea H un conjunto no vaco de un grupo G,

    entonces H es un subgrupo de G si, y solo si, xy1 H, para todo

    x, y H.

    A partir de un subgrupo H de un grupo G se define una relacion

    H sobre G por:

    x H y si, y solo si, xy1 H.

    Esta relacion recien definida es una relacion de equivalencia, esto

    es, para todo x, y y z en G se cumple:

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    10/153

    10 1. PRELIMINARES

    1. Refleja: x H x.

    2. Simetrica: Si x H y, entonces y H x.

    3. Transitiva: Si x H y y y H z, entonces x H z.

    Denotemos por cl(g) la clase de equivalencia del elemento g, y por

    H\G el conjunto de las clases de equivalencia segun H. Notese que:

    cl(g) = {x G ; x H g}

    = {x G ; xg1 H}

    = Hg.

    Luego,H\G = {Hg ; g G} .

    Analogamente, uno puede definir la relacion (de equivalencia) H por:

    x H y si y solo si x1y H.

    Es facil ver que la clase de equivalencia de g es el conjunto gH. De-

    notaremos por G/H el conjunto de clases de equivalencia segun H.

    Luego,

    G/H = {gH ; g G} .

    El producto de G induce un producto en G/H (respectivamente en

    H\G) mediante:

    (1.1) (xH)(yH) = xyH (respectivamente (Hx)(Hy) = Hxy).

    El siguiente teorema nos dice cuando el producto de (1.1) define

    una estructura de grupo en el conjunto cociente G/H.

    Teorema 1.6. El conjunto G/H con el producto definido en (1.1)tiene una estructura de grupo (grupo cociente) si, y solo si, gH = Hg,

    para todo g G. Notese que el elemento neutro del grupo G/H es H y

    el inverso de gH es g1H.

    Corolario 1.7. Para todo subgrupo H de un grupo conmutativo G,

    el conjunto G/H tiene estructura de grupo.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    11/153

    1.2. ANILLOS Y CUERPOS 11

    Ejemplo 1.10. Sea nZ el subgrupo de Z constituido por los enteros

    multiplos de n. Tenemos que el grupo cociente Z/nZ esta constituido

    por los elementos:

    nZ, 1 + nZ, 2 + nZ, . . . , (n 1) + nZ.

    Ejemplo 1.11. R/Z = {cl(x) ; 0 x < 1}.

    Ejemplo 1.12. Tomemos el subgrupo H de Sn definido en el Ejem-

    plo 1.9 y denotemos (i, j) la funcion de Sn que enva k en k, para todo

    k= i, j y i j, j i. Tenemos,Sn/H = {H, (1, n)H, (2, n)H , . . . , (n 1, n)H}.

    En general, Sn/H no es un grupo.

    1.2. Anillos y Cuerpos

    Definicion 1.8. Un anillo (con unidad) es un conjunto no vaco

    A provisto de dos operaciones, + (suma) y (producto), tales que:

    1. A con la operacion + es un grupo conmutativo.2. A con la operacion es un monoide, es decir:

    a) Para todo a, b y c se tiene (a b) c = a (b c).

    b) EnA existe un elemento unidad1, tal que1a = a1 = a,

    para todo a A.

    3. Para todo a, b y c se tiene las distributividades:

    a (b + c) = a b + a c, (b + c) a = b a + c a.

    El anillo se dice conmutativo si la operacion es conmutativa.

    Ejemplo 1.13. Los conjuntos de numeros Z, Q, R y C con las

    operaciones usuales de suma y producto son anillos conmutativos.

    Ejemplo 1.14. Zn es un anillo conmutativo con la suma y producto

    modulo n.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    12/153

    12 1. PRELIMINARES

    Ejemplo 1.15. (Polinomios sobre un anillo conmutativo) Sea A

    un anillo conmutativo. Denotaremos por A[x] al conjunto de las expre-

    siones (polinomios) de la forma:

    a0 + a1x + + anxn,

    donde ai A, y n N.

    Dos polinomios en A[x] son iguales si, y solo si, sus respectivos

    coeficientes lo son. En A[x] introducimos la suma y producto como

    sigue. Sean

    p(x) = a0 + a1x + a2x2 + a3x

    3 +

    y

    q(x) = b0 + b1x + b2x2 + b3x

    3 +

    definimos:

    p(x) + q(x) := (a0 + b0) + (a1 + b1)x + (a2 + b2)x2 +

    y

    p(x)q(x) := c0 + c1x + c2x2 + c3x

    3 + ,

    donde ci = r+s=i arbs.Con estas operaciones A[x] tiene una estructura de anillo conmu-

    tativo con unidad. Ver Apendice B para detalles.

    Ejemplo 1.16. Sea A un anillo, y X un conjunto no vaco. El

    conjunto F(X, A) hereda la estructura de anilllo de A:

    [ +](a) := (a) + (a), [ ](a) := (a) (a),

    donde , F(X, A), y a A.

    Ejemplo 1.17. Sea A un grupo conmutativo, con operacion deno-

    tada por +. El conjunto End(A) formado por todas las funciones de A

    en A tiene una estructura de anillo con las siguientes operaciones:

    [ +](a) := (a) + (a), [ ](a) := [ ](a),

    donde , End(A), y a A.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    13/153

    1.3. EJERCICIOS 13

    Proposicion 1.9. El elemento unidad 1 A es unico. Ademas

    para todo a, b A tenemos:

    1. a 0 = 0.

    2. (1) a = a.

    3. (a) = a.

    4. (a) (b) = a b.

    Definicion 1.10. La caracterstica del anil lo A, denotada car(A),

    es el menor entero positivo n tal que n 1 = 0. Si tal entero no existe

    se dice que la caracterstica del anillo es 0.

    Ejemplo 1.18. car(Z) = 0 y car(Zn) = n.

    Definicion 1.11. Un anillo K se dice que es un cuerpo si 0 = 1

    y el conjunto K, de los elementos diferentes de 0, forman un grupo

    conmutativo respecto al producto.

    Ejemplo 1.19. Los anillos Q, R y C son cuerpos.

    Ejemplo 1.20. El anillo Zn es un cuerpo si, y solo si, n = p es un

    numero primo. En este caso denotamos el cuerpo finito con p elementos

    por Fp.

    Observacion 1.12. La caracterstica de un cuerpo es 0, o bien un

    numero primo. Notese que:

    car(Q) = car(R) = car(C) = 0 y car(Fp) = p.

    1.3. Ejercicios

    Ejercicio 1.1. Demuestre que en un grupo G el neutro es unico, y

    que el inverso de un elemento g G esta unicamente determinado por

    g.

    Ejercicio 1.2. Hacer la tabla de operaciones del grupo S3 Z3.

    Ejercicio 1.3. Demuestre la Proposicion 1.3.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    14/153

    14 1. PRELIMINARES

    Ejercicio 1.4. Demuestre que el conjunto nZ de los multiplos de

    n es un subgrupo de Z.

    Ejercicio 1.5. Demuestre que si H es un subgrupo de G, entonces

    el neutro de G pertenece a H.

    Ejercicio 1.6. Demuestre la Proposicion 1.5.

    Ejercicio 1.7. Sean a, a1, , an numeros reales. Encuentre las

    condiciones necesarias y suficientes sobre a, para que H sea un subgrupo

    de Rn, donde:

    H =

    (x1, . . . , xn) Rn ;

    ni=1

    aixi = a

    .

    Ejercicio 1.8. Sea X un conjunto finito. Demuestre que el subcon-

    junto de F(X,R) constituido por las funciones de suma nula constitu-

    yen un subgrupo del grupo F(X,R). Una funcion f se dice de suma

    nula si

    xXf(x) = 0.

    Ejercicio 1.9. Explicite la tabla de operacion de los elementos del

    grupo cociente Z8/H, donde

    H = {0, 4}.

    Ejercicio 1.10. Describir un sistema de representantes de: R/Z,

    Q/Z y R/Q.

    Ejercicio 1.11. Determine un sistema de representantes del grupo

    cociente G/H, donde G = Q

    y H es el subgrupo {1, 1}.

    Ejercicio 1.12. Determine un sistema de representantes del grupo

    cociente G/H, donde G es el grupo (R2, +) y

    H = {(x, y) R2 ; y = x}.

    Ejercicio 1.13. Describir el conjunto G\H en el Ejemplo 1.9.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    15/153

    1.3. EJERCICIOS 15

    Ejercicio 1.14. Demuestre la Proposicion 1.9.

    Ejercicio 1.15. Un elemento a en un anillo A se dice invertiblesi existe un elemento b A, tal que ab = ba = 1. Demuestre que b

    esta unicamente determinado por a. As, uno denota a1 al elemento

    b.

    Sea U(A) el conjunto constituido por los elementos invertibles de

    A. Demuestre que U(A) es un grupo con la operacion producto.

    Ejercicio 1.16. Determine U(A), para A = Z, Zn y A = K un

    cuerpo cualquiera.

    Ejercicio 1.17. Determine U(A[x]).

    Ejercicio 1.18. Denotemos por An[x] el subconjunto de A[x] cons-

    tituido por el polinomio nulo y los polinomios de grado a lo mas n. Es

    decir,

    An[x] = {a0 + a1x + + anxn ; a0, a1 . . . , an A}.

    Demuestre que con la suma inducida de A[x] el conjunto An[x] es un

    grupo conmutativo.

    Ejercicio 1.19. Demuestre que el conjunto de los polinomios con

    termino constante nulo son un subgrupo de An[x].

    Ejercicio 1.20. Demuestre que si a, b son elementos en un cuerpo

    K tales que ab = 0, entonces se debe tener a = 0 o b = 0.

    Ejercicio 1.21. Explicite las tablas de suma y producto del cuerpo

    F5.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    16/153

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    17/153

    CAPTULO 2

    MATRICES

    2.1. Estructura algebraica de las Matrices

    En todo el presente captulo, A denota un anillo conmutativo.

    Definicion 2.1. Una matriz de tamano n m con entradas en A,

    es un arreglo rectangular M de n filas y m columnas de elementos de

    A,

    M =

    a11 a12 a1n

    a21 a22 a2n...

    ......

    ...

    an1 an2 anm

    , (aij A).

    En el caso n = m diremos que la matriz es cuadrada de tamano n.

    Para simplificar denotaremos por (aij) la matriz M. As, el elemento

    aij esta en la posicion (i, j), es decir, en la iesima fila y j-esima columna

    del arreglo M.

    Dos matrices (aij) y (bij) son iguales si, y solo si, para todo i, j se

    tiene aij = bij.

    Denotaremos por Mnm(A) al conjunto formado por todas las ma-

    trices de n m con entradas en A, y por Mm(A) al conjunto de las

    matrices cuadradas de tamano n.

    Definicion 2.2. Sean M = (aij) y N = (bij) dos matrices en

    Mnm(A), definimos la suma M + N de las matrices M y N como la

    matriz que tiene en la posicion (i, j) el elemento aij + bij. As,

    M + N = (aij + bij) .

    La suma de matrices es claramente asociativa.

    17

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    18/153

    18 2. MATRICES

    La matriz nula es aquella que tiene todas sus entradas igual a 0 A.

    Denotaremos otra vez por 0 a la matriz nula. Notese que para toda

    matriz M = (aij), se tiene:

    1. M + 0 = 0 + M = M.

    2. M M = M + M = 0,

    donde M denota la matriz (aij); y como es usual, M N denota la

    suma M + (N).

    Proposicion 2.3. El conjunto Mnm(A) con la suma de matrices

    es un grupo conmutativo.

    Definicion 2.4. Sean M = (aij) Mnk(A) y N = (bij)

    Mkm(A). El producto MN de las matrices M con N, en ese orden,

    es la matriz P = (cij) Mnm(A), cuyas entradas son:

    cij :=

    kr=1

    airbrj.

    Notese que el producto MN esta definido solamente cuando el

    numero de columnas de M es igual al numero de filas de N. Luego,dos matrices de Mnm(A) se pueden multiplicar si, y solo si, n = m.

    Proposicion 2.5. El producto de matrices enMn(A) es asociativo.

    Demostracion. Sean M = (aij), N = (bij), R = (cij) Mn(A).

    El elemento en la (i, j)posicion del producto M (NS) es

    n

    r=1 airn

    s=1 brscsj =n

    r=1n

    s=1 air(brscsj)=

    nr=1

    ns=1

    (airbrs) csj

    =

    nr=1

    n

    s=1

    airbrs

    csj

    De donde se sigue que M (NS) = (MN) S.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    19/153

    2.1. ESTRUCTURA ALGEBRAICA DE LAS MATRICES 19

    El neutro multiplicativo de Mn(A) es la matriz In (matriz identi-

    dad),

    In :=

    1 0 0

    0 1 0...

    .... . .

    ...

    0 0 1

    .

    Ademas, tenemos distributividad del producto de matrices respecto a

    la suma de matrices, es decir, para todo M, R y S Mn(A) tenemos:

    M(R + S) = MR + MS, (R + S)M = RM + MS.

    Resumiendo tenemos el siguiente teorema.

    Teorema 2.6. Mn(A) es un anillo. Ademas, es un anillo conmu-

    tativo si, y solo si n = 1.

    Ahora, dado un elemento a A, y una matriz M = (aij)

    Mnm(A), definimos el producto aM como la matriz aM := (aaij)

    Mnm(A). Dado que A es un anillo conmutativo, la definicion del pro-

    ducto Ma corresponde a aM.

    Proposicion 2.7. Para todo M, N Mnm(A) y a, b A, se

    tiene:

    1. (a + b)M = aM + bM.

    2. a(M + N) = aM + aN.

    3. a(MN) = (aM)N = M(aN).

    De acuerdo al Ejercicio 1.15, el conjunto de elementos invertibles

    de Mn(A) constituyen un grupo. Este grupo se denota por GLn(A), y

    se llama Grupo General Lineal sobre A. Es decir,

    GLn(A) := {P Mn(A) ; P es invertible} .

    Interesante es poder caracterizar los elementos de GLn(A), o mas

    aun, dada una matriz invertible P, poder calcular P1. Para esto es

    necesario introducir el concepto de determinante de una matriz. Con

    este objetivo, estudiemos brevemente el grupo GL2(A).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    20/153

    20 2. MATRICES

    Sea M = a b

    c d GL2(A). Pongamos M1 =

    x y

    z w,

    luego la relacion M1M = I2 implica el siguiente sistema de ecuaciones:

    ax + bz= 1

    cx + dz= 0

    ay + bw = 0

    cy + dw = 1

    De las ecuaciones primera y segunda obtenemos (ad bc)x = d, y de

    las ecuaciones tercera y cuarta (ad bc)y = b. Luego, si ad bc es

    un elemento invertible de A, obtenemos:

    x = (ad bc)1d y y = (ad bc)1b.

    Luego,

    w = (ad bc)1a y z= (ad bc)1c.

    Por lo tanto, el elemento M GL2(A) queda caracterizado por el

    elemento ad bc A, este elemento se llama el determinante de la

    matriz M, y lo denotaremos por det(M),

    (2.1) det(M) := ad bc.

    Resumiendo tenemos:

    Proposicion 2.8. El grupo GL2(A) puede ser descrito como,

    GL2(A) = {M M2(A) ; det(M) es invertible en A} .

    Ademas, para M =

    a b

    c d

    GL2(A), tenemos

    (2.2) M1 = det(M)1 d b

    c a

    .

    Ejemplo 2.1. Los elementos invertibles en el anillo Z son 1 y 1.

    Luego

    GL2(Z) =

    a b

    c d

    M2(Z) ; ad bc es igual a 1 o 1

    .

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    21/153

    2.2. DETERMINANTE Y ADJUNTA 21

    Ejemplo 2.2. En R todo elemento diferente de 0 es invertible,

    luego

    GL2(R) =

    a b

    c d

    M2(R) ; ad bc = 0

    .

    En orden a generalizar la Proposicion 2.8 y la f ormula (2.2), in-

    troduciremos en la siguiente seccion los conceptos de determinante y

    adjunta de una matriz.

    2.2. Determinante y Adjunta

    Para M = (aij) Mn(A), denotaremos por Mij la matriz enMn1(A) que se obtiene al omitir la i-esima fila y j-esima columna

    de la matriz M.

    Definicion 2.9. El determinantedet(M) de una matriz de tamano

    n se define del siguiente modo: Para M = (a) de tamano 1, ponemos

    det(M) := a. Para M = (aij) de tamano mayor que 1 definimos,

    inductivamente, el determinante de M por:

    det(M) :=

    nj=1

    a1j(1)1+jdet(M1,j).

    Ejemplo 2.3. Sea M =

    a b

    c d

    .

    Tenemos M11 = (d) y M12 = (c). Luego

    det(M) = a det(M11) b det(M12) = ad bc.

    Cf. 2.1.

    Ejemplo 2.4. Sea M = (aij) tal que aij = 0, si i < j (una tal

    matriz se llama triangular inferior, ver Seccion 4). Tenemos

    det(M) = a11a22 ann.

    El siguiente teorema dice que el desarrollo del determinante puede

    ser realizado desde cualquier fila o columna.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    22/153

    22 2. MATRICES

    Teorema 2.10. Para toda matriz M = (aij) y todo i, j tenemos

    det(M) =n

    r=1

    air(1)i+rdet(Mi,r) =

    ns=1

    asj(1)j+sdet(Ms,j).

    Demostracion. PENDIENTE

    Proposicion 2.11. Si la matriz M es obtenida a partir de mul-

    tiplicar una fila (o columna) de la matriz M por a A, entonces

    det(M) = adet(M).

    Demostracion.

    Sea M

    la matriz obtenida a partir de multiplicar,por a A, la i-esima fila de la matriz M = (aij). Entonces, desarro-

    llando el determinante a partir de la i-esima fila de M, se obtiene:

    det(M) =

    nr=1

    aair(1)i+rdet(Mi,r)

    = a

    nr=1

    air(1)i+rdet(Mi,r)

    = a det(M).

    La ultima igualdad resulta del hecho que Mi,r = Mi,r.

    Proposicion 2.12. Si la matriz M es obtenida a partir de permu-

    tar un par de filas (o columnas) de la matriz M, entonces det(M) =

    det(M).

    Demostracion. La demostracion resulta por induccion sobre el

    tamano de la matriz. Sea M M2(A) y M es la matriz que resulta

    de permutar la fila 1 con la fila 2, entonces es claro que det (M

    ) =det(M). Sea M = (aij) una matriz de tamano n, con n > 2 y sea M

    la matriz que resulta de permutar las filas i con j en M. Desarrollemos

    el determinante de M por una fila k, con k= i, j. Luego,

    det(M) =n

    r=1

    akr(1)k+rdet(Mk,r).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    23/153

    2.2. DETERMINANTE Y ADJUNTA 23

    Notese ahora que Mk,r es la matriz de tamano n 1 que se obtiene

    permutando las filas i con j en la matriz Mk,r. Luego, de la hipotesis

    de induccion det(Mk,r) = det(Mk,r). Por lo tanto

    det(M) = n

    r=1

    akr(1)k+rdet(Mk,r) = det(M).

    Proposicion 2.13. Si la matriz M tiene dos filas (o columnas)

    proporcionales, entoncesdet(M) = 0.

    Demostracion. Usamos otra vez induccion sobre el tamano de la

    matriz. Si M M2(A) tiene dos filas proporcionales, entonces un calcu-

    lo directo muestra que det(M) = 0. Sea n > 2 y M = (aij) Mm(A)

    cuya fila i es proporcional con la fila j. Desarrollando el determi-nante de M por la fila k, con k = i, j, tenemos que en la suman

    r=1 akr(1)k+rdet(Mk,r) las matrices Mk,r son de tamano n 1 y

    tienen la fila i proporcional con la fila j. Luego, usando la hipotesis

    de induccion, se sigue que det(Mk,r) = 0, para todo r. Por lo tanto

    det(M) = 0.

    Proposicion 2.14. Si M es una matriz obtenida de sumar los

    elementos de una fila (o columna) con los respectivos elementos de unafila (o columna) de M ponderados por un elemento de A, entonces

    det(M) = det(M).

    Demostracion. Sea M la matriz que se obtiene de sumar a las

    entradas de la fila i, las respectivas entradas de la fila j de M = (aij)

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    24/153

    24 2. MATRICES

    ponderadas por a A. Desarrollando det(M) por la i-esima fila, te-

    nemos:

    det(M) =n

    r=1

    (air + aajr)(1)i+rdet(Mi,r)

    =

    nr=1

    (air + aajr)(1)i+rdet(Mi,r), (M

    i,r = Mi,r)

    =

    nr=1

    air(1)i+rdet(Mi,r) +

    nr=1

    aajr(1)i+rdet(Mi,r).

    La primera sumatoria, corresponde al determinante de M, y la se-

    gunda corresponde al determinante de una matriz que tiene la fila i

    proporcional con la fila j. Luego, de la proposicion anterior se sigue

    que det(M) = det(M).

    Ejemplo 2.5. Calculemos el determinante de la siguiente matriz

    M,

    M =

    2 0 1 4

    1 1 2 2

    1 1 2 11 1 2 0

    Desarrollando det(M) por la primera fila, tenemos:

    det(M) = 2 det

    1 2 2

    1 2 1

    1 2 0

    + det

    1 1 2

    1 1 1

    1 1 0

    4 det1 1 2

    1 1

    21 1 2

    Usando la Proposicion 2.13, se sigue que:

    det(M) = 2 0 + det

    1 1 2

    1 1 1

    1 1 0

    4 0 = det

    1 1 2

    1 1 1

    1 1 0

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    25/153

    2.2. DETERMINANTE Y ADJUNTA 25

    Ahora, usando la Proposicion 2.14, se tiene:

    det(M) = det

    1 1 21 1 11 1 0

    = det 1 0 21 0 1

    1 2 0

    .Luego, desarrollando este ultimo determinate por la segunda columna,

    obtenemos:

    det(M) = 2

    1 2

    1 1

    = 2(1 2) = 2.

    Teorema 2.15. Para todo M, N Mm(A), se tiene:

    det(MN) = det(M)det(N).

    Demostracion. PENDIENTE

    Corolario 2.16. Si M GLn(A), entonces det(M) es un elemen-

    to invertible de A. Ademas, det(M1) = (det(M))1.

    Demostracion. Sea M una matriz invertible, entonces existe la

    matriz inversa M1 de M; ademas MM1 = In, Luego, usando el

    teorema anterior, se obtiene:

    1 = det(In) = det(MM1) = det(M)det(M1).

    As, det(M) es invertible en A y det(M1) = (det(M))1

    Notemos ahora que en cada uno de los n terminos del desarrollo

    del determinante aparece solamente una vez el factor aij. Es decir:

    det(M)) = aij

    (1)i+jdet(Mij)

    + (factores que no contienen aij).

    Definicion 2.17. El elemento Mij

    := (1)i+j

    det(Mij) de A sellama el cofactor de aij.

    Ahora, podemos escribir el determinante de M en termino de los

    cofactores como:

    det(M) =n

    s=1

    asjMsj =

    nr=1

    airMir.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    26/153

    26 2. MATRICES

    En orden a definir la adjunta de una matriz usaremos el concepto

    de traspuesta de una matriz.

    Definicion 2.18. La traspuesta Mt de una matriz M = (aij)

    Mnm(A) es la matriz de Mmn(A), que posee en la posicion (i, j), el

    elemento aji.

    Es facil ver que:

    1. (M + N)t = Mt + Nt.

    2. (aM)t = aMt, para todo a A.

    Proposicion 2.19. Para todo M y N tales que el producto MNesta definido, se tiene

    (MN)t = NtMt.

    En particular se deduce que (M1)t = (Mt)1, para toda matriz inver-

    tible M.

    Demostracion. PENDIENTE

    Teorema 2.20. Para toda matriz M de tamano n, se tiene:

    det(M) = det(Mt).

    Definicion 2.21. La adjunta adj(M) de la matriz M es la matriz

    traspuesta de la matriz

    Mij

    . Es decir,

    adj (M) :=

    Mijt

    .

    Usando los lemas ?? y ?? (PENDIENTES) se obtiene el siguiente

    teorema.

    Teorema 2.22. Para toda matriz M Mm(A), se tiene

    M adj(M) = adj(M) M = det(M)In.

    Corolario 2.23. Sidet(M) es un elemento invertible en A, enton-

    ces M es invertible. Ademas,

    M1 = det(M)1 adj(M).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    27/153

    2.2. DETERMINANTE Y ADJUNTA 27

    Demostracion. Multiplicando por det(M)1 la segunda igualdad

    del teorema anterior, obtenemos:

    det(M)1adj(M) M = det(M)1det(M)In.

    Luego det(M)1adj(M) M = In. Por lo tanto M es invertible y su

    inversa esta dada por la expresion del corolario.

    Ejemplo 2.6. Calculemos la inversa de la siguiente matriz M de

    M3(Q),

    M = 1 1 1

    2

    1 00 1 2

    .Tenemos que det(M) = 8, y

    adj(M) =

    det

    1 0

    1 2

    det

    2 0

    0 2

    det

    2 1

    0 1

    det

    1 1

    1 2

    det

    1 1

    0 2

    det

    1 1

    0 1

    det

    1 1

    1 0

    det

    1 1

    0 2

    det

    1 1

    2 1

    t

    =

    2 3 1

    4 2 2

    2 1 3

    .

    Luego,

    M1 = det(M)1adj(M) =

    1/4 3/8 1/8

    1/2 1/4 1/4

    1/4 1/8 3/8

    .Los Corolarios 2.23 y 2.16 demuestran el siguiente teorema.

    Teorema 2.24. Para todo n 1, se tiene

    GLn(A) = {M Mn(A) ; det(M) es invertible en A} .

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    28/153

    28 2. MATRICES

    Ejemplo 2.7. Las matrices invertibles de M2(Z) son aquellas de

    determinate igual a 1 o 1. As por ejemplo, la matriz M = 1 0

    0 3

    no es invertible en M2(Z); sin embargo, M es una matriz invertible en

    M2(Q).

    2.3. Sistemas de Ecuaciones y Forma Normal de Hermite

    Todo sistema de ecuaciones lineales puede ser escrito mediante ma-

    trices. De modo preciso, si M = (aij) Mnm(K), X = (xi)

    Mm1(K) y B = (bi) Mn1(K), la ecuacion matricial MX = B

    corresponde al sistema con m incognitas x1, . . . , xm y las siguientes n

    ecuaciones:

    a11x1 + + a1mxm = b1

    a21x1 + + a2mxm = b2...

    ......

    an1x1 + + anmxm = bn

    En consecuencia, nos referiremos a la ecuacion matricial MX = B,como un sistema de ecuaciones lineales. Cuando B = 0, diremos que

    el sistema de ecuaciones es homogeneo. Notese que todo sistema de

    ecuaciones homogeneo tiene al menos como solucion X = 0.

    Proposicion 2.25. Si X0 es una solucion del sistema MX = B,

    entonces toda solucion del sistema MX = B es de la forma X0 + Y,

    donde Y es una solucion del sistema homogeneo MX = 0.

    Demostracion. Sea X0 una solucion del sistema MX = B. Si Y

    es una solucion del sistema homogeneo MX = 0, entonces M(X + Y) =

    MX + MY = B + 0 = B, es decir, X0 + Y es una solucion del sistema

    MX = B. Sea Z cualquier solucion del sistema MX = B. Escribamos

    Z = X0 + (Z X0), dado que Z X0 es solucion del sistema homogeneo

    MX = 0, la demostracion de la proposicion concluye.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    29/153

    2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 29

    En el caso que la matriz M es invertible podemos despejar X de

    MX = B, luego X = M1B. En otros terminos:

    X = det(M)1adj(M)B,

    de donde obtenemos:

    xi = det(M)1

    b1M1i + b2M

    2i + bnMni

    .

    Esta ultima expresion puede ser reescrita como:

    xi = det(M)1det(i),

    donde i es la matriz obtenida de reemplazar la iesima columna de la

    matriz M por la columna de la matriz B. Es decir, en el caso que la ma-

    triz M es invertible, las incognitas xi pueden ser determinadas usando

    el determinante de la matriz M y el determinante de las matrices i.

    Este metodo de resolucion del sistema MX = B, se llama metodo de

    Cramer.

    Ejemplo 2.8. Resolvamos, por el metodo de Cramer, el siguiente

    sistema de ecuaciones lineales:

    x1 + x2 + x3 = 1 x2 + x3 = 0

    x1 + 2x2 x3 = 1

    El sistema corresponde a la ecuacion matricial MX = B, con:

    M =

    1 1 1

    0 1 1

    1 2 1

    , X =

    x1

    x2

    x3

    y B =

    1

    0

    1

    .

    Tenemos:

    det(M) = 3, 1 =

    1 1 10 1 11 2 1

    ,

    2 =

    1 1 1

    0 0 1

    1 1 1

    y 3 =

    1 1 1

    0 1 0

    1 2 1

    .

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    30/153

    30 2. MATRICES

    Luego como det(1) = 3 y det(2) = det(3) = 0, obtenemos:

    x1 = det(M)1det(1) = 1,x2 = det(M)

    1det(2) = 0,

    x3 = det(M)1det(3) = 0.

    Estamos intresados ahora en resolver el sistema MX = B, donde la

    matriz M no es invertible, o mas aun, es una matriz que no es cuadrada.

    En orden a estudiar la resolubilidad de este sistema de ecuaciones,

    notese primero que:

    (2.3) MX = B es equivalente al sistema PMX = PB,

    para toda matriz invertible P. Luego, multiplicando por matrices P

    convenientes (matrices elementales) el sistema MX = B, este sistema

    se reduce equivalentemente al estudio del sistema MX = B, donde

    ahora la matriz de coeficientes M es cercana a la matriz identidad.

    Esto es, M tiene la forma normal de Hermite:

    (2.4)

    0 0 1 0 0

    0 0 0 0 0 1 0

    0 0 0 0 0 0 0 0

    0 0 0 0 0 0 0 1

    0 0 0 0 0 0 0 0

    Definicion 2.26. La matriz elemental fila Fi(b) es la matriz que

    resulta de multiplicar la iesima fila de la matriz identidad In por un

    elemento invertible b A.

    La matriz elemental fila Fij es la matriz que resulta de intercambiar

    la iesima fila con la j-esima fila en la matriz In.

    La matriz elemental fila Fij(a) es la matriz que resulta de multi-

    plicar los elementos de la fila j de In por a A y sumarlos con los

    correspondientes elementos de la fila i de In.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    31/153

    2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 31

    Tenemos los conceptos analogos de matrices elementales columnas:

    Ci(a), Cij y Cij(a). Es claro que Ci(b) = Fi(b), Cij = Fij y Cij(a) =

    Fji(a).

    Ejemplo 2.9.

    F13 = C13 =

    0 0 1

    0 1 0

    1 0 0

    , F2(1) = C2(1) =

    1 0 0

    0 1 0

    0 0 1

    ,

    F13(2) =

    1 0 2

    0 1 0

    0 0 1

    , C13(2) = 1 0 0

    0 0 0

    2 0 1

    .Las matrices elementales son invertibles, y sus inversas son tambien

    matrices elementales.

    Proposicion 2.27. Para todo a, b A con b invertible, se tiene:

    1. F1ij = Fij.

    2. Fi(b)1 = Fi(b

    1).

    3. Fij(a)1 = Fij(a).

    Demostracion. Queda de ejercicio.

    El efecto de multiplicar una matriz M por la izquierda, por una

    matriz elemental fila, se llama operacion fila sobre la matriz M. Mas

    precisamente, los tres tipos de operaciones filas se comportan del si-

    guiente modo:

    1. La matriz FijM es la matriz que resulta de intercambiar las

    filas i y j en la matriz M.

    2. La matriz Fi(b)M es la matriz que resulta de multiplicar la

    fila i de la matriz M por b.

    3. La matriz Fij(a)M es la matriz que resulta de sumar a los

    elementos de la fila i, los elementos de la fila j multiplicados

    por a.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    32/153

    32 2. MATRICES

    Analogamente, el efecto de multiplicar una matriz M por la derecha,

    por una matriz elemental columna, se llama operacion columna sobre

    la matriz M.

    La notacion ME

    N significa que la matriz N fue obtenida desdela matriz M, despues de haber realizado la operacion elemental (fila o

    columna) correspondiente a la matriz elemental E.

    Ejemplo 2.10.

    M =

    1 1 1

    2 2 3

    1 2 1

    F21(1)

    1 1 2

    3 3 4

    1 2 1

    C23

    1 2 1

    3 4 3

    1 1 2

    .

    Teorema 2.28. Sea K es un cuerpo. Tenemos que M GLn(K)

    si, y solo siM es un producto de matrices elementales fila (o columna).

    Demostracion. Si M es un producto de matrices elementales,

    entonces M es invertible dado que las matrices elementales son inverti-

    bles. Recprocamente, si M = (aij) es invertible, se debe tener que una

    entrada de la primera columna de M es invertible. Luego, podemos

    intercambiar las filas de modo que en la posicion (1, 1) aparezca un

    elemento invertible b. Enseguida podemos multiplicar la primera fila

    por b1, y dejamos as en la posicion (1, 1) el elemento 1. Sobre esta

    matriz realizamos las operaciones filas determinadas por las matrices

    elementales Fi1(ai1), para todo i 2. Obtenemos luego una matriz

    invertible cuya primera columna es la primera columna de la matriz

    identidad. En la segunda columna de esta matriz (invertible) se tiene

    que alguna entrada en la posicion (i, 2) con i 2 es diferente de 0.

    Repitiendo el proceso anterior, vemos que podemos obtener, median-te operaciones elementales filas, una matriz invertible cuya segunda

    columna es la segunda columna de la matriz identidad. Procediendo

    sucesivamente de este modo, obtemos despues de una sucesion finita

    de operaciones elementales filas la matriz identidad In:

    ME1

    E1M E2 Em In.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    33/153

    2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 33

    Es decir,

    (2.5) EmEm1 E1M = In.

    Luego M = E11 E12 E

    1m . Es decir, M es un producto de matrices

    elementales.

    Notese que la demostracion del teorema anterior provee un meto-

    do para calcular la inversa de una matriz. En efecto, conservando las

    notaciones del teorema la relacion (2.5) nos dice:

    M1 = EmEm1 E1.

    Ejemplo 2.11. Sea M GLn(Q) la matriz del Ejemplo 2.10,

    tenemos:

    MF21(2)

    1 1 1

    0 0 1

    1 2 1

    F31(1)

    1 1 1

    0 0 1

    0 1 0

    F23

    1 1 1

    0 1 0

    0 0 1

    F12(1)

    1 0 1

    0 1 0

    0 0 1

    F13(1)

    1 0 0

    0 1 0

    0 0 1

    .

    Por lo tanto:

    M1 = F13(1)F12(1)F23F31(1)F21(2) =

    4 1 1

    1 0 1

    2 1 0

    .

    A veces, por razones practicas, es conveniente ir realizando inme-

    diatamente el producto de las matrices elementales de (2.5). Para esto

    procedemos como sigue: primero formamos la matriz (M|In) y realiza-

    mos operaciones filas sobre esta matriz, de modo de alcanzar la matriz

    identidad en el primer bloque. Luego, la matriz obtenida en el segundo

    bloque es justamente la inversa de M. As, para la matriz del ejemplo

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    34/153

    34 2. MATRICES

    anterior tenemos:

    (M|I3)F21(2)

    1 1 10 0 11 2 1

    1 0 0

    2 1 0

    0 0 1

    F31(1)

    1 1 1

    0 0 1

    0 1 0

    1 0 0

    2 1 0

    1 0 1

    F23

    1 1 1

    0 1 0

    0 0 1

    1 0 0

    1 0 1

    2 1 0

    F12(1)

    1 0 1

    0 1 00 0 1

    2 0 1

    1 0 12 1 0

    F13(1) 1 0 0

    0 1 00 0 1

    4 1 1

    1 0 12 1 0

    Por lo tanto:

    M1 =

    4 1 1

    1 0 1

    2 1 0

    .

    La siguiente definicion formaliza la nocion anunciada en (2.4), de

    forma normal de Hermite de una matriz.

    Definicion 2.29. Sean M Mnm(K) y r un entero tal que 0

    r n. Diremos que M tiene la rforma normal de Hermite (o tiene la

    forma escalonada reducida por fila) si se cumple:

    1. Existe un elemento no nulo en cada una de las primeras r filas

    de M. Los elementos en las filas restantes son todos 0.

    2. El primer elemento no nulo que aparece en la fila i (i r) y

    columna ci es igual a 1. Ademas, debe tenerse c1 < < cr.

    3. Las columnas ci son columnas de la matriz identidad Im.

    Teorema 2.30. Para toda matriz M Mnm(K), existe una ma-

    triz invertible P de tamano n, tal que PM tiene la rforma normal de

    Hermite. Ademas, la forma de Hermite esta unicamente determinada

    por la matriz M, es decir, si existe otra matriz invertible P tal que

    tambien PM tiene la forma normal de Hermite, entonces PM = PM.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    35/153

    2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 35

    Demostracion. Si la matriz M es nula, ella tiene la 0forma nor-

    mal de Hermite. Supongamos que M no es nula, y que la primera

    columna no nula de M es la jesima columna. Sea (i, j) la posicion de

    la pimera entrada de M que no es nula. Entonces, procediendo como

    en la demostracion del Teorema 2.28 sobre la posicion (i, j), podemos

    obtener una matriz EM que tiene como jesima columna la primera

    columna de la matriz identidad In (en efecto, E es el producto de las

    matrices elementales usadas para obtener EM). Procedemos de este

    modo con la siguiente columna no nula de EM, y as sucesivamente,

    hasta obtener una matriz PM que tiene la forma normal de Hermi-

    te.

    La unicidad de la forma normal de Hermite permite definir el con-

    cepto de rango de una matriz.

    Definicion 2.31. Sea M una matriz tal que PM tiene la r-forma

    de Hermite. El numero r se llama el rango de M, y sera denotado por

    rg(M).

    Ejemplo 2.12. Para M :=

    0 1 1 1

    0 2 0 0

    0 0 3 3

    determinemossu forma de normal de Hermite, y la matriz P anunciada en el teorema

    anterior. Tenemos:

    0 1 1 1

    0 2 0 0

    0 0 3 3

    1 0 0

    0 1 0

    0 0 1

    F2(1/2)

    0 1 1 10 1 0 00 0 3 3

    1 0 00 1/2 0

    0 0 1

    F12

    0 1 0 0

    0 1 1 1

    0 0 3 3

    0 1/2 0

    1 0 0

    0 0 1

    F21(1)

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    36/153

    36 2. MATRICES

    0 1 0 0

    0 0 1 10 0 3 3

    0 1/2 0

    1 1/2 00 0 1

    F32(3)

    0 1 0 0

    0 0 1 10 0 0 0

    0 1/2 0

    1 1/2 03 3/2 1

    F2(1)

    0 1 0 0

    0 0 1 1

    0 0 0 0

    0 1/2 0

    1 1/2 0

    3 3/2 1

    .

    Tenemos entonces que P =

    0 1/2 0

    1 1/2 0

    3 3/2 1

    , y

    (2.6) PM =

    0 1 0 0

    0 0 1 1

    0 0 0 0

    .

    Notese que rg(M) = 2.

    Corolario 2.32. Para toda matrizM Mnm(K) de rango r, exis-

    ten matrices invertibles P y Q de tamano es n y m, respectivamente,

    tales que PMQ tiene la forma:Ir 0

    0 0

    .

    Demostracion. Queda de ejercicio.

    Ejemplo 2.13. Ejemplifiquemos el Corolario 2.32 para la matriz

    M del ejemplo anterior. De acuerdo a (2.6) solo resta determinar la

    matriz Q. Tenemos:

    0 1 0 0

    0 0 1 1

    0 0 0 0

    1 0 0 0

    0 1 0 0

    0 0 1 0

    0 0 0 1

    C43(1)

    0 1 0 0

    0 0 1 0

    0 0 0 0

    1 0 0 0

    0 1 0 0

    0 0 1 1

    0 0 0 1

    C12

    1 0 0 0

    0 0 1 0

    0 0 0 0

    0 1 0 0

    1 0 0 0

    0 0 1 1

    0 0 0 1

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    37/153

    2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 37

    C23

    1 0 0 0

    0 1 0 00 0 0 0

    0 0 1 0

    1 0 0 0

    0 1 0 1

    0 0 0 1

    .

    Luego tomando Q =

    0 0 1 0

    1 0 0 0

    0 1 0 1

    0 0 0 1

    , tenemos:

    PMQ =

    I2 0

    0 0

    .

    Volvamos a la resolucion del sistema MX = B. Usando el Teorema

    2.30 existe una matriz invertible P tal que M := PM tiene la for-

    ma normal de Hermite. De acuerdo a lo senalado en (2.3) el sistema

    MX = B es equivalente al sistema MX = PB. Ahora, el estudio de este

    ultimo sistema es sencillo, y toda la informacion de resoluvilidad viene

    dada por los rangos de las matrices M y (M|PB). Mas precisamente,

    tenemos el siguiente teorema.

    Teorema 2.33. Sean M una matriz de n m, y B una matriz

    de tamano m 1. Para el sistema de ecuaciones lineales MX = B

    tenemos:

    1. El sistema no tiene solucion si, y solo si, rg(M|B) > rg(M).

    2. El sistema tiene solucion unica si, y solo si, rg(M|B) = rg(M) =

    m.

    3. El sistema tiene infinitas soluciones si, y solo si, rg(M|B) =

    rg(M) < m. En este caso el sistema tiene mrg(M) variables

    independientes.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    38/153

    38 2. MATRICES

    Ejemplo 2.14. Analicemos el sistema MX = B, donde:

    M =

    1 1 0

    2 3

    1 1

    1 1 0

    , B =

    0

    (1 )

    .

    Formemos la matriz ampliada (M|B), y luego llevemosla a la forma

    normal de Hermite. Tenemos:

    (M|B)F31(1)

    1 1 0

    2 3

    0 0

    1 1 0

    0

    (1 )

    F41(1)

    1 1 0

    2 3

    0 0

    0 0 0

    0

    (1 )

    F21(2)

    1 1 0

    0 1

    0 0

    0 0 0

    0

    (1 )

    F12(1)

    1 0

    0 1

    0 0

    0 0 0

    (1 )

    F13(1)

    1 0 0

    0 1

    0 0

    0 0 0

    0

    (1 )

    F23(1)

    1 0 0

    0 1 0

    0 0

    0 0 0

    0

    0

    (1 )

    := (M|B).

    Luego, la forma normal de Hermite de la matriz M es la matriz M.

    Por lo tanto, el rango de M depende del valor que tome . Tenemos

    dos casos: (i) Si = 0, entonces rg(M) = 2, (ii) Si = 0, entonces

    rg(M) = 3. Mas precisamente,

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    39/153

    2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 39

    (i) En el caso que = 0, es decir rg(M) = 2, tenemos:

    (M|B) =

    1 0 00 1 0

    0 0 0

    0 0 0

    00

    0

    .

    En el caso de = 0 tenemos rg(M|B) = 3. Por lo tanto, de acuerdo

    al teorema, se sigue que el sistema MX = B no tiene solucion.

    En el caso = 0 se tiene rg(M|B) = rg(M) = 2 < 3. Por lo

    tanto, el sistema tiene infinitas soluciones. Ahora, el sistema MX = B

    es equivalente al sistema:

    1 0 0

    0 1 0

    0 0 0

    0 0 0

    x

    y

    z

    =

    0

    0

    0

    0

    .

    Luego, las soluciones del sistema son los elementos del siguiente con-

    junto.

    {(x,y,z) ; x = 0, y = 0, z R}.

    (ii) Supongamos que = 0. Luego rg(M) = 3. Tenemos,

    (M|B)F3(

    1)

    1 0 0

    0 1 0

    0 0 1

    0 0 0

    0

    0

    1

    (1 )

    .

    En el caso = 1 tenemos rg(M|B) = 4 > rg(M) = 3. Luego, en

    este caso, el sistema no tiene solucion.En el caso = 1, tenemos:

    (M|B)F3(

    1)

    1 0 0

    0 1 0

    0 0 1

    0 0 0

    0

    0

    1

    0

    .

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    40/153

    40 2. MATRICES

    De donde rg(M|B) = rg(M) = 3; luego, el sistema tiene solucion unica:

    (0,0,1).

    2.4. Nociones Complementarias

    Los conceptos de traza de una matriz y similaridad de matrices,

    tomaran importancia en los captulos posteriores.

    Definicion 2.34. Definimos la traza, tr(M), de la matriz M =

    (aij) Mn(A), como

    tr(M) := a11 + a22 + + ann A.

    Definicion 2.35. Sean M y N Mn(A), se dice que M es similar

    conN si existe una matriz invertible P Mn(A) tal que

    N = P1MP.

    Proposicion 2.36. Para matrices M, N Mn(K) y A, se

    tiene:

    1. tr(M + N) = tr(M) + tr(N)

    2. tr(M) = tr(M)

    3. tr(MN) = tr(NM).

    Demostracion. La demostracion de las primeras dos afirmaciones

    quedan de ejercicio.

    Para demostrar la tercera afirmacion, pongamos M = (aij) y N =

    (bij), entonces:

    tr(MN) =

    n

    i=1

    n

    j=1

    aij

    bji =

    n

    j=1

    n

    i=1

    bji

    aij =

    tr(NM).

    Proposicion 2.37. Si M y N son matrices similares, entonces:

    1. tr(N) = tr(M)

    2. det(N) = det(M).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    41/153

    2.5. EJERCICIOS 41

    Demostracion. Como M y N son matrices similares, existe una

    matriz invertible P tal que N = P1MP. Luego, usando la afirma-

    cion 3 de la Proposicion 2.36, se sigue que tr(N) = tr(P1MP) =

    tr(PP1M) = tr(M).

    La demostracion de segunda afirmacion sigue de modo analogo,

    pero considerando ahora el Teorema 2.15.

    Para finalizar el captulo, definiremos algunas matrices especiales.

    Sea M = (aij) Mn(A), entonces:

    M se dice que es una matriz triangular superior (respectiva-

    mente inferior) si

    aij = 0, para todo i > j (respectivamente i < j)

    M se dice matriz diagonal si aij = 0, si i = j

    M se dice matriz simetrica si M = Mt

    M se dice matriz antisimetrica si M = Mt. Notese que si

    car(A) = 2, entonces el concepto de matriz antisimetrica coin-

    cide con el concepto de matriz simetrica.

    M se dice matriz ortogonal si MMt

    = Mt

    M = InM se dice matriz idempotente si Mk = M, para algun k > 1

    M se dice matriz nilpotente si Mk = 0, para algun k > 1

    M Mn(C) se dice matriz hermitiana si M = Mt, donde M

    denota la matriz conjugada de M, es decir,

    M = (aij),

    donde aij denota el conjugado del complejo aij.

    2.5. Ejercicios

    Ejercicio 2.1. Sea A el anillo Z4 = {0,1,2,3}, y considere las si-

    guientes matrices M y N en M2(A):

    M =

    1 1

    0 3

    , y N =

    1 1

    1 2

    .

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    42/153

    42 2. MATRICES

    Resuelva, en M2(A), la siguiente ecuacion:

    MtXN + M = 0.

    Ejercicio 2.2. Resuelva, en M2(Z), la siguiente ecuacion:

    MX + Xdet(M)M + MNX = NMX + I2,

    donde N = Mt, y M =

    0 1

    1 0

    .

    Ejercicio 2.3. Sea A un anillo tal que car(A) = 2. Demuestre:

    1. La unica matriz que es simetrica y antisimetrica a la vez, es lamatriz nula.

    2. Toda matriz se puede escribir como una suma de una matriz

    simetrica con una matriz antisimetrica.

    Ejercicio 2.4. Escriba la inversa de M como un producto de ma-

    trices elementales,

    M =

    0 1 0 0

    1 0 0 0

    1 0 1 0

    1 0 1 1

    .

    Ejercicio 2.5. Para M, N matrices cuadradas se define el conmu-

    tador [M, N] de M con N, por:

    [M, N] := MN NM.

    1. Demuestre que si M es simetrica y N es antisimetrica, entonces

    [M, N] es simetrica.

    2. Resuelva en M2(C) la ecuacion:

    [M, N] X + X [M, N]t = [M, N],

    donde M =

    0 1

    1 0

    , N =

    1 1

    0 1

    .

    Ejercicio 2.6. Determine todos los elementos de M2(F2) y GL2(F2).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    43/153

    2.5. EJERCICIOS 43

    Ejercicio 2.7. Demuestre que SLn(A) es un subgrupo de GLn(A),

    SLn(A) := {M GLn(A) ; det(M) = 1} .

    Ejercicio 2.8. Demuestre que la matriz M M3(R[x]) es inverti-

    ble. Calcular M1.

    M =

    1 x 1

    0 x2 + 1 x2

    1 x + 1 2

    .

    Ejercicio 2.9. Demuestre por induccion que det(M) = 2n1, donde

    M es la siguiente matriz de Mm(K),

    1 1 1 . . . 1 1

    1 1 1 . . . 1 1

    0 1 1 . . . 1 1...

    ......

    ......

    0 0 0 . . . 1 1

    .

    Ejercicio 2.10. Calcular el determinante de la siguinete matriz:

    M =

    1 a1 a21 a

    n11

    1 a2 a22 a

    n12

    1 an a2n a

    n1n

    .

    El determinante det(M), se llama determinante de Vandermonde.

    Ejercicio 2.11. Demuestre que det(adj(M)) = det(M)n1, para

    toda matriz M de tamano n.

    Ejercicio 2.12. Demuestre que rg(M) = rg(Mt), para toda matriz

    M.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    44/153

    44 2. MATRICES

    Ejercicio 2.13. Sea M=

    1 1 1 1

    0 1 0 12 3 2 3

    . Hallar matrices in-

    vertibles P y Q tales que PMQ tenga la forma:Ir 0

    0 0

    ,

    donde r = rg(M).

    Ejercicio 2.14. Determine matrices invertibles P y Q de modo

    que:

    P

    0 1 0 11 1 1 11 2 1 3

    Q = 1 0 0 00 1 0 0

    0 0 1 0

    .Ejercicio 2.15. Determine todas las soluciones del sistema MX =

    B si se sabe que (1, 0, 1) es una solucion, y

    M =

    1 0 1

    0 1 1

    1 1 2

    .

    Ejercicio 2.16. Hallar las condiciones sobre a, b y c para que el

    sistema:

    1 a a2

    1 b b2

    1 c c2

    x

    y

    z

    =

    1

    0

    0

    ,

    tenga una unica solucion. Determine en este caso la solucion. Cf. Ejer-

    cicio 2.10.

    Ejercicio 2.17. Estudie la solubilidad del sistema MX = B, donde

    M =

    0 0

    0 1 0

    1 1

    1 0 0

    , X =

    x

    y

    z

    y B =

    +

    0

    0

    .

    Cuando corresponda determine la(s) solucion (es).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    45/153

    2.5. EJERCICIOS 45

    Ejercicio 2.18. Analizar la resolucion del sistema:

    x +y + z+ (+ )w = 2y + z+ w =

    x + z+ w = 2

    Ejercicio 2.19. Decida si son verdaderas o falsas las siguientes

    afirmaciones:

    1. M2 N2 = (M N)(M + N), para todo M, N Mm(A)

    2. Si M y N matrices cuadradas de igual tamano, entonces

    (M + N)2 = M2 + 2MN + N2.

    3. SI M y N son matrices en GLn(K), entonces:

    det(M + N) = det(M) + det(N).

    4. Si M y N son matrices invertibles de igual tamano, entonces

    (MN)1 = M1N1.

    5. Si M y N son matrices invertibles, entonces M + N es inver-

    tible.

    6. Si M y N son matrices equivalentes por fila, entonces los sis-

    temas MX = R, NX = S tienen el mismo conjunto solucion.

    7. Si M y N son matrices equivalentes por columna, entonces los

    sistemas MX = R, NX = S tienen el mismo conjunto solucion.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    46/153

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    47/153

    CAPTULO 3

    ESPACIOS VECTORIALES

    En todo lo que sigue K denota un cuerpo. Tpicamente tomaremos

    como K el cuerpo de numero complejos C, el cuerpo de numeros reales

    R, el cuerpo de numeros racionales Q, o el cuerpo finito con p elementos

    Fp

    .

    3.1. Espacios y subespacios vectoriales

    Definicion 3.1. Sea (V, +) un grupo conmutativo y K un cuerpo.

    Diremos queV es unKespacio vectorial si existe una funcion deKV

    en V, (, v) v, tal que para todo u, v V y para todo , K secumplen los siguientes axiomas:

    1. (u+v) = u+ v.

    2. (+ )u= u+ u.

    3. ()u= (u).

    4. 1v = v.

    Los elementos de V son llamados vectores, y los de K escalares.

    Ejemplo 3.1. Con las operaciones usuales, Kn := K K (n

    veces) es un Kespacio vectorial:

    (x1, . . . , xn) + (y1, . . . , yn) := (x1 +y1, . . . , xn +yn)

    (x1, . . . , xn) := (x1, . . . , xn), ( K).

    En particular K es un Kespacio vectorial.

    Ejemplo 3.2. Sean K y K dos cuerpos tales que K este contenido

    en K. Con las operaciones usuales, K es un Kespacio vectorial. Sin

    embargo, si K esta contenido propiamente en K, entonces K no es un

    Kespacio vectorial.

    47

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    48/153

    48 3. ESPACIOS VECTORIALES

    Ejemplo 3.3. Con las operaciones usuales el anillo de matrices

    Mnm(K) es un Kespacio vectorial.

    (aij) + (bij) := (aij + bij)

    (aij) := (aij), ( K).

    Ejemplo 3.4. Kn[x] es un Kespacio vectorial, donde la suma es

    la suma usual de polinomios (ver Ejercicio 1.18) y la ponderacion por

    escalares esta por:

    (anxn + + a1x + a0) := anx

    n + + a1x + a0a,

    donde ai, K.

    Ejemplo 3.5. El grupo conmutativo F(X, K) es un Kespacio vec-

    torial. Recordemos que para f, g F(X, K), la funcion f + g esta defi-

    nida por:

    (f + g)(x) := f(x) + g(x),

    y para K, la funcion f esta definida por:

    (f)(x) := f(x).

    En adelante V denota un Kespacio vectorial.

    Proposicion 3.2. Para todo v V y K, se tiene:

    v = 0 si, y solo si = 0 o v = 0.

    Demostracion. Si = 0, entonces v = 0v = (0 + 0)v = 0v + 0v.

    Es decir, 0v = 0v + 0v. Sumando el inverso aditivo del vector 0v, se

    concluye que 0v = 0. De igual modo, en el caso v = 0 V, tenemos

    v = 0 = (0 + 0), luego se obtiene 0 = 0 + 0. Sumando ahora

    el inverso aditivo del escalar 0, se concluye que 0 = 0.

    Recprocamente, supongamos que K; debemos demostrar que

    v = 0. En efeceto, tenemos, v = 1v = (1)v = 1(v) = 10 = 0.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    49/153

    3.1. ESPACIOS Y SUBESPACIOS VECTORIALES 49

    Definicion 3.3. SeaU un subconjunto no vaco de V, diremos que

    U es un Ksubespacio (o simplemente subespacio) vectorial de V si se

    cumple:

    1. u+v U, para todo u, v U.

    2. u U, para todo u V y K.

    Ejemplo 3.6. Evidentemente V y {0} son subespacios vectoriales

    de V.

    Ejemplo 3.7. En V = K2 consideremos la recta L que pasa por el

    origen,L := {(x, y) V; ax + by = 0} , (a, b K).

    La recta L es un Ksubespacio vectorial de V. Notese que el subespacio

    L se puede escribir tambien como,

    L =

    (x, y) V;

    a b

    xy

    =

    0

    0

    .

    Mas generalmente, sea M una matriz de Mmn(K). El subconjunto U,

    definido a continuacion, es un Kespacio vectorial.

    U :=

    (x1, . . . , xn) Kn ; M

    x1...

    xn

    =

    0...

    0

    .

    Es decir, el conjunto solucion de un sistema de ecuaciones lineales

    homogeneo es un subespacio vectorial.

    Ejemplo 3.8. Sea V = Mn(K). Tenemos:

    1. El subconjunto de V constituido por las matrices simetricas esun subespacio vectorial.

    2. El subconjunto de V constituido por las matrices antisimetri-

    cas de V es un subespacio vectorial.

    Ejemplo 3.9. Sea V := F(X, K), donde X es un conjunto finito no

    vaco. El subconjunto U de V formado por las funciones de suma nula,

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    50/153

    50 3. ESPACIOS VECTORIALES

    es un subespacio de V.

    U = f V; xX

    f(x) = 0 .La siguiente proposicion otorga una condicion necesaria que debe

    cumplir un subespacio vectorial. Esta condicion es util para demos-

    trar que un subconjunto de un espacio vectorial no es un subespacio

    vectorial.

    Proposicion 3.4. Si U es un subespacio vectorial, entonces el vec-

    tor 0 pertenece a U.

    Demostracion. Como U es un subconjunto no vaco, existe u

    U. Luego, tambien 1 u U. Por lo tanto, 1 u+ u U, es decir

    0 U.

    Ejemplo 3.10. Sea U =

    (x1, . . . , xn) Kn ;n

    i=1 x2i = 1

    . El sub-

    conjunto U no es un subespacio de Kn, pues (0 , . . . , 0) U.

    Proposicion 3.5. SeaU un subconjunto no vaco de V. Entonces,

    U es un subespacio de V si, y solo si u+w U, para todo u, w U

    y K.

    Demostracion. Queda de ejercicio.

    Ejemplo 3.11. Sean U y W dos subespacios vectoriales de V. En-

    tonces el conjunto U + W es un subespacio vectorial de V, donde

    U + W := {u+w ; u U, w W} .

    En efecto, sean x = u+w, y = u +w U + W, K. Tenemos:

    x +y = (u+w) + (u

    +w

    ) = (u+u

    ) + (w+w

    ).

    Por lo tanto x +y U + W, para todo x, y U + W, K. Luego,

    segun Proposicion 3.5, U + W es un subespacio de V.

    Proposicion 3.6. Sea {Ui} una coleccion de subespacios de un es-

    pacio vectorial V. Entonces la interseccion

    Ui es un subespacio de

    V.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    51/153

    3.2. COMBINACION LINEAL Y ESPACIO GENERADO 51

    Demostracion. Como cada Ui es un subespacio, entonces el vec-

    tor 0 pertenece a todos los Ui. Luego, Ui es no vaco. Sean K,y u, w

    Ui. Tenemos que u, w Ui, para todo i; luego, como Ui

    es un subespacio se sigue de la Proposicion 3.5 que u+w Ui, para

    todo i. Por lo tanto u+ w

    Ui. As,

    Ui es un subespacio de

    V.

    0

    U1

    U2

    U1 U2

    Contrariamente a la interseccion, la union de subespacios no es (en

    general) un subespacio. As, uno se interesa en estudiar el siguiente

    problema: dada una familia de subespacios {Ui}, determinar (definir,

    caracterizar) el menor Ksubespacio vect(

    Ui) que contiene a la unionUi.

    {0}

    Ui Ui

    Ui vect(Ui) V.

    Mas generalmente, dado un subconjunto S de V, definiremos el mas

    pequeno subespacio de V que contiene al subconjunto S. Para esto,

    necesitamos introducir los conceptos de combinacion lineal y de espacio

    generado.

    3.2. Combinacion lineal y espacio generado

    Definicion 3.7. Sean v, v1, . . . , vm vectores de un Kespacio vec-

    torial V. Diremos que v es una Kcombinacion lineal de los vectores

    v1, . . . , vn si existen escalares 1, . . . , m en K, tales que:

    v = v1 + + mvm.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    52/153

    52 3. ESPACIOS VECTORIALES

    Si es claro el cuerpo de escalares K considerado, diremos simple-

    mente combinacion lineal, en vez de Kcombinacion lineal.

    Ejemplo 3.12. Tomemos V = K3, y sea v = (1,2,3), entonces v

    es combinacion lineal de e1 = (1,0,0), e2 = (0,1,0) y e3 = (0,0,1):

    v = 1e1 + 2e2 + 3e3.

    Sea S un subconjunto, no vaco, de V. Definimos vect(S) como el

    subconjunto de V formado por todas las combinaciones lineales de ele-

    mentos de S. Es decir,

    (3.1) vect(S) := n

    i=1

    isi ; si S, i K, n N

    .

    En el caso que S es el conjunto vaco, se define vect(S) como {0}.

    Proposicion 3.8. vect(S) es un subespacio vectorial de V.

    Demostracion. Si S es vaco, la afirmacion es obvia. Supongamos

    que S es distinto del conjunto vaco. Sean u, w vect(S), K. Ahora

    escribamos u=mi=1 isi, y w = mi=1 isi. Luego,u+w =

    mi=1

    isi +

    mi=1

    isi =

    mi=1

    (i + i)si.

    Por lo tanto u+ w vect(S). De la Proposicion 3.5 se sigue que

    vect(S) es un subespacio de V.

    Definicion 3.9. El subespacio vectorial vect(S) de V se llama el

    espacio vectorial generado por S. Si W es un subespacio de V tal que

    vect(S) = W, diremos que S genera a W.

    Veremos, en la siguiente proposicion, que el subespacio vect(S) es

    el mas pequeno subespacio vectorial de V que contiene a S.

    Proposicion 3.10. Si S es la interseccion de todos los subespacios

    de V que contienen a S, entonces S = vect(S). En particular, vect(S)

    es el menor subespacio vectorial de V que contiene a S.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    53/153

    3.2. COMBINACION LINEAL Y ESPACIO GENERADO 53

    Demostracion. Como vect(S) es uno de los subespacios de V

    que contiene a S, se sigue que vect(S) contiene a S. Recprocamente,

    si v vect(S), entonces v se escribe:

    v =

    ni=1

    isi (i K),

    donde si S. Luego, v es una combinacion lineal de vectores en cual-

    quier subespacio U que contiene a S, es decir v U. Luego, v S.

    Por ultimo veamos que vect(S) es el menor subespacio de V que

    contiene a S. Si W es un subespacio de V tal que S W vect(S),

    entonces, S = vect(S) W. Es decir, W = vect(S).

    Ejemplo 3.13. Sea S = {v} V, entonces vect(S) = {v ; K}.

    v

    vect({v})

    Ejemplo 3.14. El subespacio de las matrices simetricas en M2(K)

    esta generado por las matrices:1 0

    0 0

    ,

    0 0

    0 1

    ,

    0 1

    1 0

    .

    En efecto, toda matriz M simetrica de tamano 2 se escribe,

    M = a b

    b d = a

    1 0

    0 0+ b

    0 1

    1 0+ d

    0 0

    0 1 .

    Proposicion 3.11. U + W = vect(U W).

    Demostracion. Como U+ W es un subespacio de V que contiene

    a U y W, sigue de la proposicion anterior que vect(U W) U +

    W. Ahora, por definicion de espacio generado se sigue que U + W

    vect(U W).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    54/153

    54 3. ESPACIOS VECTORIALES

    3.3. Dependencia e Independencia lineal

    Definicion 3.12. Un subconjunto S de V se dice Klinealmentedependiente si existen vectores v1, . . . , vm en S y escalares 1, . . . , m

    en K, no todos nulos, tales que:

    1v1 + + mvm = 0.

    Un conjunto que no es Klinealmente dependiente, se dice Kli-

    nealmente independiente. Es decir, S es Klinealmente independiente

    si para todo subconjunto {v1, v2, . . . , vm} de S se tiene:

    Si 1v1 + + mvm = 0 y i K, entonces 1 = 2 = m = 0.

    Cuando es evidente el cuerpo de escalares que se esta conside-

    rando, diremos simplemente, linealmente dependiente, en vez de, K

    linealmente dependiente. Idem con linealmente independiente.

    Observacion 3.13. En el caso que S = {v1, . . . , vm} es finito, la

    definicion de independencia lineal se traduce como sigue: S es lineal-mente independiente si la combinacion lineal 1v1 + + mvm = 0

    ocurre solo cuando 1 = 2 = m = 0.

    Notese que si el vector nulo pertenece a S, entonces S es linealmente

    dependiente, pues podemos tomar la combinacion lineal: 0 = 1 0.

    En el caso que S conste de un solo vector v diferente de cero, en-

    tonces S es linealmente independiente, pues 0 = v, implica = 0.

    Ver Proposicion 3.2.

    Ejemplo 3.15. Analicemos la dependencia lineal del subconjunto

    S = {(1,1,1), (1 , 1 , , a), (1,a,a)} del R-espacio vectorial R3. Estudie-

    mos la ecuacion:

    (1,1,1) + (1 , 1 , , a) +(1,a,a) = (0,0,0) (,, R).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    55/153

    3.3. DEPENDENCIA E INDEPENDENCIA LINEAL 55

    En orden a determinar los valores de , y . Formamos el sistema de

    ecuaciones homogeno:

    + + = 0

    + + a = 0

    + a + a = 0

    Este sistema tendra solucion = = = 0 si, y solo si = 0, donde:

    := det

    1 1 1

    1 1 a

    1 a a

    = det

    1 0 1

    1 0 a

    1 a 1 a

    = (a 1)2.

    Por lo tanto, S es linealmente independiente si, y solo si a = 1.

    Ejemplo 3.16. El subconjunto {sen x, cos x} del Respacio vecto-

    rial F(R,R), es linealmente independiente. En efecto, una combinacion

    lineal de las funciones seno y coseno, (sen x) + (cos x) = 0, impli-

    ca las ecuaciones: (sen 0) + (cos 0) = 0 y (sen 2

    ) + (cos 2

    ) = 0.

    Luego, = = 0.

    Ejemplo 3.17. Sea S =

    (n, n+1) ; n N

    . En V = R2, mirado

    como Respacio vectorial, el conjunto S es linealmente dependiente. Enefecto, tenemos:

    (, 2) + (1)(2, 3) = (0, 0).

    Esta ultima ecuacion no es valida en V, mirado como Qespacio vec-

    torial, pues Q. Veamos que S es Qlinealmente independiente:

    Cualquier subconjunto finito S de S es de la forma:

    S =

    n1 , n1+1

    ,

    n2 , n2+1

    , . . . ,

    nr , nr+1

    ,

    donde n1 < n2 < < nr. Ahora, la combinacion lineal:

    1

    n1 , n1+1

    + 2

    n2 , n2+1

    + + r

    nr , nr+1

    = (0, 0) ,

    donde i Q, implica la ecuacion:

    1 + 2(n2n1) + + r

    (nrn1) = 0 (i Q).

    De donde se deduce que i = 0, para todo i.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    56/153

    56 3. ESPACIOS VECTORIALES

    Proposicion 3.14. S es linealmente dependiente si, y solo si, existe

    un vector v S que es combinacion lineal de elementos de S \ {v}.

    Demostracion. Si S es linealmente dependiente, entonces tene-

    mos una combinacion lineal de elementos de S igual a 0:

    1v1 + + mvm = 0 (vi S),

    donde los escalares i no son todos 0. Sin perdida de generalidad po-

    demos suponer que 1 = 0. Ahora, despejando v1, tenemos:

    v1 =

    1

    1 2v2

    1

    1 3v3

    1

    1 mvm.

    Es decir, existe un vector v := v1 S que es combinacion lineal de

    elementos de S \ {v}.

    El recproco es inmediato.

    Ejemplo 3.18. Sea S := {(0,0,1), (1,1,2), (1,1,3), (1,2,3)}. El

    subconjunto S del Kespacio vectorial K3, es linealmente dependien-

    te. En efecto, tenemos:

    (0,0,1) = 1(1,1,2) + 1(1,1,3) + 0(1,2,3).

    La Proposicion 3.14 puede tambien ser enunciada como la que sigue.

    Proposicion 3.15. S es linealmente independiente si, y solo si,

    para todo elemento v S, se tiene que v vect(S \ {v}).

    3.4. Base y dimension

    Definicion 3.16. Un subconjunto ordenado B de V se dice unabase de V si B es un conjunto linealmente independiente, y ademas B

    genera a V.

    En los ejemplos que daremos a continuacion mostramos, respecti-

    vamente, la base canonica de los espacios Kvectoriales: Kn, Mnm(K),

    Kn[x] y F(X, K).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    57/153

    3.4. BASE Y DIMENSION 57

    Ejemplo 3.19. La base canonica del Kespacio vectorial Kn es:

    {e1, . . . , en},

    donde ei es el vector que tiene a 1 en la posicion i, y el resto de las

    coordenadas son 0.

    Ejemplo 3.20. La base canonica de Mnm(K) es:

    {Eij ; 1 i n, 1 j m} ,

    donde Eij es la matriz que tiene en la posicion (i, j) a 1, y en el resto

    de las posiciones a 0.

    Ejemplo 3.21. La base canonica de Kn[x] es:

    {1,x,x2, . . . , xn}.

    Ejemplo 3.22. La base canonica de F(X, K) es {x ; x X}, donde

    x esta definida por:

    x(y) =

    1, si y = x

    0, si y = x.

    Ejemplo 3.23. Sea W el subespacio formado por las matrices

    simetricas de M2(R). La dimension de W es 3. En efecto, una base

    para W es el conjunto B = {v1, v2, v3}, donde:

    v1 =

    1 0

    0 0

    , v2 =

    0 0

    0 1

    , v3 =

    0 1

    1 0

    El Ejercicio 3.14, muestra que vect(B) = W, y es facil ver que B lineal-

    mente independiente.

    El siguiente teorema asegura la existencia de bases.

    Teorema 3.17. SeaV un Kespacio vectorial no nulo. Sean S

    subconjuntos de V tales que es linealmente independiente y S genera

    a V. Entonces existe una base B de V, tal que:

    B S.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    58/153

    58 3. ESPACIOS VECTORIALES

    Demostracion. La demostracion usa el lema de Zorn, ver Apendi-

    ce A. Sea

    A := {A V; A es linealmente independiente, y A S}.

    Notese que A. La relacion A B induce un orden parcial en

    A. Toda cadena totalmente ordenada A1 A2 An tiene

    como elemento maximal a Ai. Luego, por el lema de Zorn, existe un

    elemento maximal B en A. Como B es linealmente independiente, solo

    resta ver que genera a V para tener que B es una base de V, y por

    consiguiente, la demostracion del teorema.

    Supongamos que B no genera a V. Luego, existe un vector v en V

    que no pertenece a vect(B). Consideremos el conjunto B = B {v}. De-

    mostraremos que B es linealmente independiente, y luego, un elemento

    de A que contiene propiamente a B. Esto contradice la maximilidad de

    B, por lo tanto B genera a V, y el teorema queda demostrado.

    Veamos que B es linealmente independiente. Sea v + 1v1 + +

    nvn = 0. Si = 0, podemos luego, escribir v en combinacion lineal

    de elementos de B, lo cual no puede ser pues v vect(B). As, = 0

    y luego, se sigue que 1 = = n = 0. Es decir, B

    es linealmenteindependiente.

    Corolario 3.18. Todo conjunto linealmente independiente esta con-

    tenido en una base.

    Demostracion. Sea un subconjunto linealmente independiente

    de V. El corolario sigue al aplicar el teorema al caso S = V.

    Corolario 3.19. Todo conjunto de generadores contiene una base.

    Demostracion. Si S es un subconjunto de generadores de V, en-

    tonces existe un vector no nulo v en S. El corolario sigue al aplicar el

    teorema al caso = {v}.

    Teorema 3.20. Si B = {v1, v2, . . . , vn} y B = {w1, w2, . . . , wm}

    son dos bases de V, entonces n = m.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    59/153

    3.4. BASE Y DIMENSION 59

    Demostracion. El vector w1 se puede escribir como w1 = 1v1+

    + nvn, donde podemos suponer 1 = 0. Ahora veamos que el con-

    junto B1 = {w1, v2, . . . , vn} es una base de V. Como v1 = 1w1

    12v2 1nvn, se sigue que B1 genera a V. Por otra parte

    la igualdad 1w1 + 2v2 + + nvn = 0, es equivalente a 11v1 +

    (12 + 2)v2 + + (1n + n)vn = 0; como B es linealmente inde-

    pendiente se deduce que 1 = = n = 0, es decir, B1 es linealmente

    independiente. Por lo tanto B1 es una base de V.

    Repitiendo este procedimiento para las bases B1 y B, es decir, reem-

    plazamos el vector v2 de B2 por el vector w2 de B; obtenemos as una

    base B2 = {w1, w2, v3, . . . , vn}. Repetimos este argumento para las ba-

    ses B2 y B de V, y as sucesivamente. Luego, obtenemos finalmente

    una base de V de la forma {w1, w2, . . . , wm, vm+1, . . . , vn}. Por lo tanto

    n m.

    Con igual argumento uno demuestra que m n. Por lo tanto n =

    m.

    El Teorema 3.20 permite definir el concepto de dimension de un

    espacio vectorial.

    Definicion 3.21. Sea V un Kespacio vectorial. Si V tiene una

    base finita B, entonces se define la dimension dimK(V) de B como el

    cardinal deB. Si no hay peligro de confusion, escribiremos simplemente

    dim(V) en vez de dimK(V).

    En el caso queV no admite una base finita, se dice que la dimension

    dimK(V) es infinita.

    Ejemplo 3.24. De los Ejemplos 3.193.22 obtenemos:

    dimK(Kn) = n

    dimK(Mnm(K)) = nm

    dimK(Kn[x]) = n + 1

    dimK(F(X, K)) = |X|.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    60/153

    60 3. ESPACIOS VECTORIALES

    Proposicion 3.22. En un espacio vectorial de dimension n, todo

    conjunto con mas de n elementos es linealmente dependiente.

    Demostracion. Supongamos que existe un subconjunto de V que

    es linealmente independiente y de cardinal m, con m > n. Ocupando el

    Corolario 3.18, se sigue que V tiene una base con mas de n elementos,

    lo cual es una contradiccion.

    Corolario 3.23. Un subconjunto B de n vectores, en un espacio

    vectorial de dimension n, es una base si, y solo si, B es linealmente

    independiente.

    Demostracion. Sea B un conjunto de n vectores que es lineal-

    mente independiente. Segun el Corolario 3.18 el conjunto B esta con-

    tenido en una base B, pero de acuerdo a la Proposicion 3.22 todo

    conjunto con mas de n elementos es linealmente independiente. Luego

    B = B, es decir B es una base.

    El recproco es inmediato, pues toda base es, en particular, lineal-

    mente independiente.

    Proposicion 3.24. En un espacio vectorial de dimension n, todo

    conjunto de generadores tiene a lo menos n elementos.

    Demostracion. Supongamos que existe un subconjunto de gene-

    radores de V con melementos, y donde m < n. De acuerdo al Corolario

    3.19 se deduce que V tiene una base con menos de n elementos, lo cual

    es una contradiccion.

    Corolario 3.25. Un subconjunto B de n vectores, en un espaciovectorial de dimension n, es una base si, y solo si, B genera a V.

    Demostracion. Queda de ejercicio. Cf. con la demostracion del

    Corolario 3.23.

    Sea W un subespacio vectorial de V. Una base BW de W es, en

    particular, un conjunto linealmente independiente contenido en V. Por

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    61/153

    3.5. COORDENADAS Y MATRIZ CAMBIO DE BASE 61

    lo tanto BW esta contenido en una base B de V. Luego, obtenemos el

    siguiente teorema:

    Teorema 3.26. Sea V un Kespacio vectorial de dimension n. Si

    W es un subespacio vectorial de V, entonces dimK(W) n.

    Proposicion 3.27. SeaV un espacio vectorial de dimension n. Si

    W es un subespacio de V tal que dimK(W) = n, entonces V = W.

    Demostracion. Si BW es una base de W, entonces BW es lineal-

    mente independiente. Ahora, segun Corolario 3.23, BW es tambien una

    base de V. Luego V = W.

    3.5. Coordenadas y matriz cambio de base

    Sea V un Kespacio vectorial de dimension finita n. Un punto clave

    en el algebra lineal es poder representar los vectores de V (de modo

    unico) mediante matrices, respecto a una base de V. Esto es posible

    gracias al siguiente lema:

    Lema 3.28. Sea B = {v1, . . . , vn} una base de V, entonces existenunicos escalares 1, . . . , n en K tales que:

    v = 1v1 + + nvn.

    Demostracion. Si tenemos dos escrituras de v,

    v = 1v1 + + nvn = 1v1 + + nvn,

    entonces se tiene:

    (1 1)v1 + + (n n)vn = 0.

    Ahora como los vis son linealmente independiente se debe tener que

    1 = 1, . . . , n = n.

    Definicion 3.29. Conservemos las notaciones del lema anterior.

    Las coordenadas de v V, respecto a la base B, es la matriz [v]B de

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    62/153

    62 3. ESPACIOS VECTORIALES

    Mn1(K), definida por:

    [v]B =

    1...

    n

    .

    Ejemplo 3.25. Consideremos la base B = {1,x,x2 + x} del espacio

    vectorial K2[x], y sea v = x2 + x 1 V. Entonces,

    [v]B =

    1

    0

    1

    ,

    ya que v = 1(1) + 0(x) + 1(x2 + x).

    Ejemplo 3.26. Sea B = {v1, . . . , vn} una base de V. Las coordena-

    das de vi B, en la base B, es la matriz con todas sus entradas iguales

    a 0, salvo en la posicion i, en donde va 1. Es decir,

    [vi]B =

    0..

    .0

    1

    0...

    0

    .

    Lema 3.30. Sean u, v dos vectores en un espacio vectorial V de

    dimension finita, y sea B una base de V. Entonces,

    1. [u+v]B = [u]B + [v]B

    2. [u]B = [u]B ( K) .

    Demostracion. Pongamos B = {v1, . . . , vn}. Segun el lema ante-

    rior tenemos que u y v se escriben de modo unico como:

    u= 1v1 + + nvn, v = 1v1 + + nvn (i, i K).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    63/153

    3.5. COORDENADAS Y MATRIZ CAMBIO DE BASE 63

    Luego, el vector u+v se ecribe de modo unico como

    u+v = (1 + 1)v1 + + (n + n)vn.

    Por lo tanto se deduce la primera afirmacion del lema.

    La otra afirmacion se demuestra de modo analogo.

    Definicion 3.31. Sean B = {v1, . . . , vn} y D dos bases de un K

    espacio vectorial V de dimension n. La matriz cambio de base CDB es

    la matriz de Mn(K) cuya iesima columna es [vi]D.

    El nombre de matriz cambio de base de la matriz CD

    B queda plena-mente justificado por el siguiente teorema.

    Teorema 3.32. Sean B y D dos bases deV, y seav V. Entonces:

    1. CDB [v]B = [v]D

    2. CDB es una matriz invertible, y su inversa es CBD.

    Demostracion. Pongamos B = {v1, v2, . . . , vn} y sea v V. Te-

    nemos v = 1v1 + + nvn. Luego,

    CDB [v]B = CDB [1v1 + + nvn]B

    = CDB([1v1]B + + [nvn]B)

    = CDB(1[v1]B + + n[vn]B)

    = 1CDB [v1]B + + nC

    DB [vn]B.

    Ahora, el producto CDB [vi]B es la iesima columna de la matriz CDB , es

    decir, CDB [vi]B = [vi]D. Luego,

    CDB [v]B = 1[v1]D + + n[vn]D

    = [1v1]D + + [nvn]D

    = [1v1 + + nvn]D = [v]D.

    Demostremos la segunda afirmacion. Pongamos D = {w1, . . . , wn}. De

    la primera parte tenemos CDB [wi]B = [wi]D, para todo i. Pero [wi]D

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    64/153

    64 3. ESPACIOS VECTORIALES

    es la iesima columna de la matriz identidad In de orden n. Luego, se

    deduce que:

    CDBCBD = In.

    Es decir, obtenemos la segunda afirmacion del teorema.

    Ejemplo 3.27. Sea V el Cespacio vectorial C2[x]. Sea B la base

    de V definida en el Ejemplo 3.25, y D la base {x2 + x 1,1,x + 1}.

    Segun Ejercicio 3.25,

    [x2 + x 1]B =

    1

    0

    1

    .Ademas, 1 = 1(1) + 0(x) + 0(x2 + x), y x + 1 = 1(1) + 1(x) + 0(x2 + x).

    Luego,

    [1]B =

    1

    0

    0

    y [x + 1]B =

    1

    1

    0

    .

    Por lo tanto,

    CDB =

    1 1 1

    0 0 1

    1 0 0

    .

    3.6. Suma de subespacios y espacios vectoriales

    3.6.1. Suma de subespacios vectoriales. Sean U y W dos K

    subespacios de V. Recordemos (ver Ejemplo 3.11) que la suma U + W

    de los subespacios U y W es el subespacio vectorial de V definido por:

    U + W = {u+w ; u U, v W}.

    Definicion 3.33. Sean U y W dos subespacios de V, tales que

    V = U + W y U W = {0}. En esta situacion diremos que V es la

    suma directa (interna) de U conW. Escribiremos V = U W.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    65/153

    3.6. SUMA DE SUBESPACIOS Y ESPACIOS VECTORIALES 65

    Ejemplo 3.28. Sea V = Mn(K), con car(K) = 2, y consideremos

    los subespacios U y W de V constituidos por las matrices simetricas y

    antisimetricas, respectivamente.

    Toda matriz M Mn(K) se escribe como sigue,

    M =1

    2(M + Mt) +

    1

    2(M Mt).

    Como 12

    (M + Mt) es una matriz simetrica y 12

    (M Mt) es una matriz

    antisimetrica, se concluye que V = U + W. Ahora, la unica matriz

    que es simetrica y antisimetrica a la vez es la matriz nula, es decir,

    U W = {0}. Por lo tanto V = U W.

    Lema 3.34. Si BU y BW son bases de los subespacios U y W,

    respectivamente, entonces U + W = vect(BU BW).

    Demostracion. Es claro que vect(BU BW) U + W, ver Pro-

    posicion 3.11. Veamos la otra contencion: Sea v U + W, entonces

    v = u+w, donde u U y w W. Ahora u es combinacion lineal de

    elementos de la base BU de U. Analogamente, w es combinacion lineal

    de elementos de la base BW de W. Luego,v es una combinacion lineal de

    elementos del conjunto BUBW, de donde U+W vect(BUBW).

    Teorema 3.35 (H. Grassmann). Sean U y W subespacios de un

    espacio vectorial. Si la dimension de U + W es finita, entonces:

    dim(U + W) = dim(U) + dim(W) dim(U W).

    En particular, dim(U W) = dim(U) + dim(W).

    Demostracion. Sea BUW = {v1, . . . , vr} una base de U W.

    Ocupando el Corolario 3.18 podemos construir bases BU y BW de Uy W, respectivamente, tales que contienen a BUW. Pongamos BU =

    {v1, . . . , vr, u1, . . . , u n} y BW = {v1, . . . , vr, w1, . . . , wm}. Veremos que:

    B = {v1, . . . , vr, u1, . . . , u n, w1, . . . , wm}

    es una base de U + W. De donde se obtiene dim(U + W) = r + n + m=

    (r+n)+(r+m)r, o sea dim(U+W) = dim(U)+dim(W)dim(UW).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    66/153

    66 3. ESPACIOS VECTORIALES

    Del Lema 3.34 se obtiene que B genera a U+W, pues B = BUBW.

    Veamos que B es un conjunto linealmente independiente. Conside-

    remos la siguiente combinacion lineal:i

    ivi +

    i

    iui +

    i

    iwi = 0.

    Esta ecuacion es equivalente a:

    ()

    iivi +

    iiui =

    iiwi.

    Claramente, el lado izquierdo de () es un vector de U, y el lado

    derecho un vector de W. Por lo tanto, el lado izquierdo () es un vector

    de U W. Luego el lado izquierdo de () es una combinacion lineal de

    los vectores de BUW, de donde se deduce que i = 0, para todo i. El

    mismo razonamiento nos dice que i = 0, para todo i. Luego, la ecua-

    cion () se reduce a

    i ivi = 0. Pero dado que BUW es linealmente

    independiente, se sigue que i = 0, para todo i. Por lo tanto B, es

    linealmente independiente. As B es una base de U + W.

    Mas generalmente, podemos definir la suma U1 + + Um de los

    subespacios U1, . . . , Um de V, como:

    U1 + + Um := {u1 + +um ; ui Ui}.

    Un argumento inductivo muestra que U1 + + Um es tambien un

    subespacio de V.

    Definicion 3.36. Sean U1, U2, . . . , Um subespacios vectoriales deV. Diremos que V es la suma directa de U1, U2, . . . , Um, si se tiene:

    1. V = U1 + U2 + + Um.

    2. Ui

    (U1 + + Ui + + Um) = {0}, para todo i.

    (el sobre un factor dice que ese factor es omitido).

    Esta situacion sera denotada por V = U1 U2 Um.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    67/153

    3.6. SUMA DE SUBESPACIOS Y ESPACIOS VECTORIALES 67

    Ejemplo 3.29. Para el Kespacio vectorial V = K4 tenemos,

    V = U1 U2 U3,

    donde U1 := vect(e1, e2), U2 := vect(e2 + e3) y U3 := vect(e4). En

    efecto, tenemos:

    U1 = {(x,y,0,0) ; x, y K},

    U2 = {(0,z,z,0) ; z K},

    U3 = {(0,0,0,w) ; w K}.

    Ahora, todo vector v = (a,b,c,d) V, se escribe:

    v = (a, b c,0,0) + (0,c,c,0) + (0,0,0,d).

    Es decir, V = U1 + U2 + U3.

    Por otra parte, tenemos:

    U1 (U2 + U3) = U2 (U1 + U3) = U3 (U1 + U2) = {0}.

    Notese que:

    U2 + U3 = {(0,x,x,y) ; x, y K},

    U1 + U3 = {(x,y,0,z) ; x,y,z K},

    U1 + U2 = {(x,y,z,0) ; x,y,z K}.

    Proposicion 3.37. V = U1 Un si, y solo si, todo v V se

    puede escribir de manera unica en la forma v = u1 + + un, donde

    ui Ui.

    3.6.2. Suma de espacios vectoriales. Sea V1, . . . , V m una colec-

    cion de Kespacios vectoriales. Consideremos el conjunto producto V1

    Vm. En este conjunto introduzcamos las operaciones suma y pon-

    deracion por escalar, cf. Ejemplo 3.1, del siguiente modo:

    (v1, . . . , vm) + (v

    1, . . . , v

    m) := (v1 +v

    1, . . . , vm +v

    m),

    (v1, . . . , vm) := (v1, . . . , vm), ( K).

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    68/153

    68 3. ESPACIOS VECTORIALES

    Teorema 3.38. Con las operaciones recien descritas el conjunto

    V1 Vm tiene una estructura de Kespacio vectorial.

    Demostracion. Queda de ejercicio.

    Definicion 3.39. El espacio vectorial del Teorema se llama la suma

    directa externa de los espacios vectoriales V1, . . . , V m. Y se denota por

    V1 Vm.

    Sean V1 y V2 dos Kespacios vectoriales con bases {u1, . . . , u n} y

    {w1, . . . , wm}, respectivamente. Consideremos el subconjunto B :=

    {(ui, 0), (0, wj) ; 1 i n, 1 j m} de V1 V2. Veremos que B

    es una base de V1 V2.

    Sea (u, w) V1 V2. Podemos escribir u =n

    i=1 iui, y w =mj=1 jwj, donde i, j K. Luego, el vector (u, w) es una combina-

    cion lineal de los elementos de la base B:

    (u, w) =

    ni=1

    i(ui, 0) +

    mj=i

    j(0, wj).

    Es decir, el conjunto B genera a V1 V2.

    Por otra parte, la igualdad:

    ni=1

    i(ui, 0) +

    mj=i

    j(0, wj) = (0, 0)

    implican

    i=1 iui = 0, ym

    j=i jwj = 0. Por lo tanto, i = 0, para

    todo i, y j = 0, para todo j. Es decir, B es linealmente independiente.

    Por lo tanto, B es una base de V1 V2, luego,

    dimK(V1 V2) = dimK(V1) + dimK(V2).

    Generalizando el procedimiento recien realizado, obtenemos:

    Teorema 3.40. Sea V1, . . . , V m una coleccion de Kespacios vec-

    toriales, tales que dimK(Vi) = ni, entonces

    dimK(V1 Vm) = n1 + + nm.

  • 7/28/2019 MLP 200 - Algebra Lineal (1).pdf

    69/153

    3.7. ESPACIO COCIENTE 69

    Para finalizar notemos que Vi no es un subespacio de V1 Vm.

    Mas adelante veremos que el espacio vectorial Vi puede ser identificado

    con el siguiente subespacio vectorial Ui de V1 Vm,

    Ui = {(v1, . . . , vm) ; vj = 0, si j = i}.

    Tenemos, la siguiente proposicion.

    Proposicion 3.41. El espacio vectorial V1 Vm es la suma

    directa (interna) de los subespacios U1, . . . , Um.

    Demostracion. Queda de ejercicio.

    3.7. Espacio cociente

    Sea W un subespacio de V. Mirando la estructura de grupo con-

    mutativo de V, y como en particular W es un subgrupo de V, se sigue

    (ver Corolario 1.7) que el cociente V/W tiene una estructura de grupo

    conmutativo con la operacion:

    (u+ W) + (v + W) := (u+v) + W.

    Teorema 3.42. El cociente V/W tiene una estructura natural de

    Kespacio vectorial, donde la ponderacion por escalares se define como: