capítulo 4 - matematicas-univallematematicas.univalle.edu.co/~robruiz/texto4-espacios.pdf ·...

39
90 .

Upload: others

Post on 11-May-2020

9 views

Category:

Documents


0 download

TRANSCRIPT

90

.

Capítulo 4

ESPACIOS VECTORIALES

Martínez Héctor Jairo

Sanabria Ana MaríaSemestre 02, 2.007

4.1. Introducción

Después de haber estudiado los vectores de Rn y las matrices, podemos notar cierta similitud entre laspropiedades de sus operaciones básicas (suma y multiplicación por escalar) lo cual no es casual. En realidad,los vectores de Rn y las matrices son dos ejemplos muy importantes de aquellos conjuntos en los cuales haydefinidas dos operaciones como la suma y la multiplicación por escalar, las cuales tienen ciertas propiedades(como las probadas para los vectores de Rn y las matrices). En este capítulo, estudiaremos este tipo deconjuntos, a los cuales llamaremos Espacios Vectoriales, con el fin de analizar, en forma general, las conse-cuencias o ventajas de tener un conjunto con estas dos operaciones, sin tener que demostrarlas para cadacaso particular. Centraremos nuestra atención en el estudio de los espacios vectoriales de dimensión finitadonde los escalares son números reales (espacio vectorial real finito), ya que estos nos permiten visualizaruna amplia gama de conjuntos dotados con este tipo de operaciones como si fuera el conjunto de vectores deRn, para un n en particular.

Concretamente, en este capítulo, generalizaremos los conceptos de vector, combinación lineal, independencialineal, conjuntos generados y generadores, norma, paralelismo y ortogonalidad, los cuales serán, en apariencia,iguales a los dados en el Capítulo 2. Con base en lo anterior, introduciremos los conceptos de base, dedimensión y de componentes de un vector en una base, lo cual nos permitirá analizar y hacer cálculos sobrecualquier espacio vectorial real finito como si se tratara de Rn, lo que resalta la importancia de conocer muybien las propiedades de los vectores en Rn.

4.2. Definición y Propiedades Básicas

Definición 1: [Espacio Vectorial ] Sea V un conjunto no vacío en el cual se han definido dos operaciones,llamadas suma y multiplicación por escalar (dados los elementos u y v de V y un escalar λ de R, la sumade u y v la denotamos u + v y la multiplicación por escalar de λ por u la denotamos λu). Si las siguientespropiedades o axiomas se satisfacen para todo u, v y w de V y para todo par de escalares α y β de R ,entonces se dice que V es un espacio vectorial real y sus elementos son llamados vectores.

1. u + v ∈ V . Propiedad clausurativa para la suma.

91

CAPÍTULO 4. ESPACIOS VECTORIALES 92

2. u + v = v + u. Propiedad conmutativa para la suma.

3. (u + v) + w = u + (v + w). Propiedad asociativa para la suma.

4. Existe un único elemento 0 ∈ V , tal que u + 0 = u, para todo u ∈ V . Propiedad modulativa para lasuma.

5. Para cada u ∈ V , existe un único elemento −u ∈ V , tal que u+(−u) = 0. Existencia del opuesto parala suma.

6. αu ∈ V . Propiedad clausurativa para la multiplicación por escalar.

7. α(u + v) = αu + αv. Propiedad distributiva respecto la suma de vectores.

8. (α + β)u = αu + βu. Propiedad distributiva respecto la suma de escalares.

9. α(βu) = (αβ)u.

10. 1u = u.

Observemos que un espacio vectorial V se define como un conjunto de elementos en el cual están definidasdos operaciones suma y producto por escalar que satisfacen las 10 propiedades anteriores y que no se espe-cifica la naturaleza de los elementos de V ni de las operaciones. Con frecuencia, las operaciones tendrán lanaturaleza de la suma y multiplicación que nos es familiar, pero en otros casos no. Como lo mencionamosen la introducción, ya tenemos dos ejemplos de espacio vectorial real, los vectores de Rn con la suma y elproducto por escalar definidos en el Capítulo 2 y el conjunto de las matrices de un tamaño dado con la sumay la multiplicación por escalar definidas en el Capítulo 3.

En los otros ejemplos que presentaremos, debemos describir o caracterizar los elementos del conjunto, es-pecificar las operaciones y verificar que se satisfagan los 10 axiomas de la Definición 1. De los axiomas,por razones que entenderemos más adelante, es conveniente primero verificar los Axiomas 1 y 6 (propieda-des clausurativas), luego los Axiomas 4 y 5 (axiomas de existencia) y luego los demás que son propiedadesrelacionadas con las operaciones, más que con los elementos o vectores del espacio vectorial.

En los Capítulos 2 y 3, cuando definimos el producto por escalar en los vectores de Rn y en las matrices,nos referimos a un escalar como un número real, pero en realidad podríamos pensar en otros conjuntosde escalares, por ejemplo, los números racionales o los números complejos. En la mayoría de los casos, losescalares serán números reales (espacios vectoriales reales o simplemente espacios vectoriales), y, mientrasno digamos lo contrario, asi lo asumiremos.

Ejemplo 1: Sea P2 el conjunto de todos los polinomios de grado menor o igual a 2. Es decir,

P2 = {p(x) = a0 + a1x + a2x2 : ai ∈ R, i = 0, 1, 2}.

Si definimos la suma y el producto por escalar como se hace habitualmente; esto es, dados

p(x) = a0 + a1x + a2x2 y q(x) = b0 + b1x + b2x

2,

dos polinomios de grado menor o igual a 2, y λ, un escalar, entonces

p(x) + q(x) = (a0 + b0) + (a1 + b1)x + (a2 + b2)x2

λp(x) = (λa0) + (λa1)x + (λa2)x2.

Es fácil verificar que al sumar dos polinomios de grado menor o igual a dos, obtenemos un polinomio cuyogrado es menor o igual a dos (Axioma 1) y que al multiplicar un polinomio de grado k ≤ 2 por un escalar,obtenemos de nuevo un polinomio de grado k, a menos que el escalar por el que multipliquemos sea 0, encuyo caso, el polinomio es 0 (el polinomio cuyos coeficientes son 0) (Axioma 6).

CAPÍTULO 4. ESPACIOS VECTORIALES 93

La existencia del vector nulo (Axioma 4) es clara, el vector nulo es el polinomio 0, y el opuesto para la sumade un polinomio p(x) = a0 + a1x + a2x

2 es el polinomio cuyos coeficientes son los opuestos de los de p(x),−p(x) = −a0 − a1x − a2x

2 (Axioma 5). Los demás axiomas se verifican fácilmente. Verifiquemos el Axioma9 y dejemos los demás como ejercicio para el lector. Tenemos que

α[βp(x)] = α[β(a0 + a1x + a2x2)]

= α[βa0 + βa1x + βa2x2]

= (αβ)a0 + (αβ)a1x + (αβ)a2x2

= (αβ)p(x)

Por tanto, P2 es un espacio vectorial. ¤

Después de este ejemplo, podemos pensar en muchos más ejemplos similares: los polinomios de grado menoro igual a n, Pn = {p(x) = a0 + a1x + a2x

2 + . . . + anxn : ai ∈ R, i = 0, 1, 2, . . . , n}, con operaciones suma ymultiplicación por escalar definidas similarmente, para cualquier n = 0, 1, 2, . . ..

Ejemplo 2: Observemos que el conjunto de polinomios de grado igual a n, n ≥ 1, con las suma y lamultiplicación por escalar definidas como antes, no es un espacio vectorial. En efecto, dicho conjunto notiene el elemento neutro de la suma: el polinomio 0. (aunque esto es suficiente para concluir que dichoconjunto no es un espacio vectorial, notemos que ni la suma ni la multiplicación por escalar satisfacen lapropiedad clausurativa). ¤

Ejemplo 3: Sea F [0; 1] el conjunto de todas funciones de valor real definidas en el intervalo [0; 1]. Si definimossuma y multiplicación por escalar como lo hacemos habitualmente en cálculo: dadas f y g, dos funciones devalor real definidas en [0; 1], tenemos que

(f + g)(x) = f(x) + g(x) y (λf)(x) = λ[f(x)].

En otras palabras, la suma de dos funciones f y g es la función (f + g) tal que el valor que toma en x esla suma de los valores que toman f y g en x. De manera similar, el producto por escalar de λ por f es lafunción λf , cuyo valor en x es λ veces el valor de f en x.

De la definición de las operaciones, es claro que los Axiomas 1 y 6 se satisfacen. Tomando 0, el elemento nulo,como la función cuyas imágenes son todas 0, se satisface el Axioma 4 y tomando (−1)f como el opuesto def se satisface el Axioma 5. La verificación de los demás axiomas es inmediata y se deja como ejercicio parael lector. Así, F [0; 1] es un espacio vectorial. ¤

Es fácil ver que al tomar cualquier intervalo [a; b] en lugar del intervalo [0; 1] en el ejemplo anterior, tenemosotro gran número de ejemplos de espacio vectorial.

Ejemplo 4: Otro ejemplo sencillo de un conjunto que no es espacio vectorial real es Z, los números enteros,con la suma y multiplicación por escalar habitual, ya que el Axioma 6 no se satisface: al multiplicar un enteropor un número real como

√2, el resultado no es un número entero. ¤

Ejemplo 5: Sea H el hiperplano de R4 cuya ecuación es 2x1 − x2 + 3x4 = 0. Verifiquemos que H, con lasuma y la multiplicación por escalar definidas en R4, es un espacio vectorial.

Si P =

p1

p2

p3

p4

y Q =

q1

q2

q3

q4

están en H, tenemos que

2p1 − p2 + 3p4 = 0 y 2q1 − q2 + 3q4 = 0.

CAPÍTULO 4. ESPACIOS VECTORIALES 94

Los Axiomas 1 y 6 se satisfacen, ya que (P + Q) =

p1 + q1

p2 + q2

p3 + q3

p4 + q4

y λP =

λp1

λp2

λp3

λp4

están en H, puesto que

2(p1 + q1) − (p2 + q2) + 3(p4 + q4) = (2p1 − p2 + 3p4) + (2q1 − q2 + 3q4) = 0 + 0 = 0

y2(λp1) − (λp2) + 3(λp4) = λ(2p1 − p2 + 3p4) = λ0 = 0.

Es claro que 0 ∈ H: 2 ·0−0+3 ·0 = 0 y que −P ∈ H: 2(−p1)−(−p2)+3(−p4) = −(2p1−p2 +3p4) = −0 = 0.Así que se satisfacen los Axiomas 4 y 5. Los demás axiomas se satisfacen claramente, ya que se satisfacenpara los elementos de R4 (en particular, para los elementos de H). Así que H es un espacio vectorial. ¤

Este último ejemplo es un caso especial, ya que H es un espacio vectorial contenido en otro espacio vectorial(R4). Los espacios vectoriales como H tienen un nombre especial, por su importancia tanto práctica comoteórica.

4.3. Subespacio Vectorial

Definición 2: [Subespacio Vectorial ] Sea V un espacio vectorial y sea H un subconjunto de V . Si H esespacio vectorial con los mismos escalares y las mismas operaciones que V , decimos que H es un subespaciode V .

Para demostrar que un subconjunto de un espacio vectorial es en si mismo un espacio vectorial, no esnecesario mostrar que se satisfacen los 10 axiomas, como vimos en el Ejemplo 5; basta con verificar solo dosde los 10 axiomas de la definición, como lo establece el siguiente teorema.

Teorema 1. [Caracterización de Subespacio]Sea V un espacio vectorial y H un subconjunto no vacío de V . H es un subespacio vectorial de V , si y solo si,los elementos de H satisfacen las propiedades clausurativas para la suma y el producto por escalar (Axiomas1 y 6).

Demostración: Supongamos que H es un subespacio vectorial de V , entonces H es un espacio vectorial, loque implica que H satisface los 10 axiomas de la definición, en particular, el 1 y el 6.Supongamos ahora que H satisface los Axiomas 1 y 6. Teniendo en cuenta que los elementos de H tambiénson elementos de V , H satisface también los Axiomas 2, 3, 7, 8, 9 y 10 (en otras palabras, H hereda estaspropiedades de V ). Nos queda por verificar únicamente los Axiomas 4 y 5. Sea u ∈ H. Por el Axioma 6,λu ∈ H para todo λ, en particular para λ = 0 y para λ = −1. Asi que el elemento nulo, 0u = 0, y el opuestode u, (−1)u = −u, están en H. ¤

Así, en el Ejemplo 5, para probar que H es un subespacio vectorial de R4, bastaba con verificar sólo losAxiomas 1 y 6.

Ejemplo 6: Demuestre que Dn, el conjunto de matrices diagonales de tamaño n × n, es un subespaciovectorial de Mn×n, el conjunto de las matrices de tamaño n × n.

Puesto que Dn no es vacío y Mn×n es un espacio vectorial, por el anterior teorema, basta con verificar losAxiomas 1 y 6. Pero claramente, al sumar dos matrices diagonales y al multiplicar una matriz diagonal porun escalar, obtenemos de nuevo matrices diagonales. Por tanto, Dn es un subespacio vectorial de Mn×n. ¤

Ejemplo 7: Sea P2 el conjunto de polinomios de grado menor o igual a 2. Demostremos que

H = {p(x) = a0 + a1x + a2x2 : a0 = 0, a1, a2 ∈ R}.

es un subespacio vectorial de P2.

CAPÍTULO 4. ESPACIOS VECTORIALES 95

Sean p(x) = a0 + a1x + a2x2 y q(x) = b0 + b1x + b2x

2 dos polinomios de H. Entonces a0 = 0 y b0 = 0, y portanto, a0 + b0 = 0 y λa0 = 0.

Así que

p(x) + q(x) = (a0 + a1x + a2x2) + (b0 + b1x + b2x

2) = (a0 + b0) + (a1 + b1)x + (a2 + b2)x2

yλp(x) = λ(a0 + a1x + a2x

2) = (λa0) + (λa1)x + (λa2)x2

son polinomios de H; por lo tanto, H es un subespacio vectorial de P2. ¤

Ejemplo 8: Veamos que K ={

(0, y, 0, 1 + y)T : y ∈ R}

no es un subespacio vectorial de R4.

Basta con mostrar que uno de los 10 axiomas de la definición de espacio vectorial no se cumple. Por ejemplo,el vector nulo (0, 0, 0, 0)T no se encuentra en K (falla el Axioma 4). ¤

Ejemplo 9: Demostremos que si u1,u2, . . . ,uk son vectores de Rn, entonces G = Gen{u1,u2, . . . ,uk} esun subespacio vectorial de Rn.

Veamos que tanto la suma como la multiplicación por escalar son cerradas en G. Sean u y v dos vectores deG y λ un número real. Por la definición de conjunto generado, existen escalares αi y βi, para i = 1, 2, . . . ntales que

u = α1u1 + α2u2 + · · · + αkuk y v = β1u1 + β2u2 + · · · + βkuk,

por lo tanto,

u + v = (α1u1 + · · · + αkuk) + (β1u1 + · · · + βkuk) = (α1 + β1)u1 + · · · + (αk + βk)uk

yλu = λ(α1u1 + α2u2 + · · · + αkuk) = (λα1)u1 + (λα2)u2 + · · · + (λαk)uk;

es decir, u + v ∈ G y λu ∈ G. ¤

Ejemplo 10: Verifiquemos que H =

{(

aa − 2b

)

: a, b ∈ R

}

es un subespacio vectorial de R2.

Observemos que

(

aa − 2b

)

= a

(

11

)

+ b

(

0−2

)

; por lo tanto, H = Gen

{(

11

)

,

(

0−2

)}

; y por el

resultado del ejemplo anterior, H es un subespacio vectorial de R2. ¤

4.4. Conceptos Básicos

Como diimos en la introducción, en esta sección, extenderemos los conceptos básicos de combinación lineal,conjunto generador, conjunto generado e independencia lineal que se estudiaron para vectores de Rn en elCapítulo 2, a los vectores abstractos (elementos de un espacio vectorial).

En un espacio vectorial, dado un conjunto de elementos del espacio, se puede construir un sin número deelementos del espacio al combinar las operaciones básicas, como lo planteamos en la siguiente definición.

Definición 3: [Combinación Lineal ] Dados V , un espacio vectorial, v1, v2, . . . , vn, vectores de V , y λ1, λ2, . . . , λn,escalares, decimos que

v = λ1v1 + λ2v2 + · · · + λnvn

es una combinación lineal de los vectores v1, v2, . . . , vn. A los escalares λ1, λ2, · · · , λn se les llama coeficientesde la combinación lineal. Si todos los escalares son cero, diremos que tenemos la combinación lineal trivialde los vectores v1, v2, . . . , vn.

CAPÍTULO 4. ESPACIOS VECTORIALES 96

Ejemplo 11: Dado el espacio vectorial P2, el polinomio x2−6x−3 es una combinación lineal de los polinomiosx2 − 2x + 1 y x2 + 3, puesto que

x2 − 6x − 3 = 3(x2 − 2x + 1) − 2(x2 + 3).

Pero, el polinomio x2 − 2x no es una combinación lineal de los polinomios mencionados, ya que no existenescalares α y β tales que

x2 − 2x = α(x2 − 2x + 1) + β(x2 + 3)

= (α + β)x2 − 2αx + (α + 3β),

ya que el sistema de ecuaciones lineales

1 = α + β

−2 = −2α

0 = α + 3β

es inconsistente. ¤

Al igual que en los vectores de Rn, el conjunto de todas las combinaciones lineales de un conjunto de vectorestiene un nombre especial.

Definición 4: [Conjunto Generado y Conjunto Generador ] Sean V un espacio vectorial y v1, v2, . . . , vk

vectores de V . Definimos Espacio Generado por v1, v2, . . . , vk al conjunto de todas las combinaciones linealesde v1, v2, . . . , vk, lo que representaremos por

Gen{v1,v2, . . . ,vk}.

Si H = Gen{v1,v2, . . . ,vk}, diremos que {v1,v2, . . . ,vk} es un conjunto generador de H.

Ejemplo 12: Demostremos que {1 − x, x2, 1 + x} es un conjunto generador de P2.Tenemos que demostrar que cualquier polinomio de grado menor o igual a 2 es combinación lineal de lospolinomios 1 − x, x2, 1 + x. En otras palabras, que dado un polinomio a0 + a1x + a2x

2, existen escalaresλ1, λ2, λ3 ∈ R, tales que a0 + a1x + a2x

2 = λ1(1 − x) + λ2x2 + λ3(1 + x) o lo que es equivalente, que

a0 + a1x + a2x2 = (λ1 + λ3) + (λ3 − λ1)x + λ2x

2. Por la igualdad entre polinomios, el problema se reduce adeterminar si el sistema de ecuaciones lineales

a0 = λ1 + λ3

a1 = λ3 − λ1

a2 = λ2

tiene solución para todo (a0, a1, a2)T . Al escalonar la matriz del sistema, obtenemos

1 0 10 1 00 0 2

. Como

todas las filas tienen pivote, podemos concluir que efectivamente cualquier polinomio de grado menor o iguala 2 es combinación lineal de los polinomios 1−x, x2, 1+x y por lo tanto, conforman un conjunto generadorde P2. ¤

Ejemplo 13: Determinemos si M =

{(

1 00 1

)

,

(

0 11 0

)

,

(

1 01 0

)}

es un conjunto generador de

M2×2, el espacio vectorial de las matrices de tamaño 2 × 2.

Veamos si cualquier matriz de tamaño 2 × 2 pertenece a Gen M . Sea

(

a bc d

)

∈ M2×2. Determinemos si

existen escalares α, β, γ tales que

(

a bc d

)

= α

(

1 00 1

)

(

0 11 0

)

(

1 01 0

)

, lo que es equivalente

CAPÍTULO 4. ESPACIOS VECTORIALES 97

a determinar si el sistema de ecuaciones lineales

a = α + γ

b = β

c = β + γ

d = α

tiene solución para todo (a, b, c, d)T . Como la matriz de este sistema y su forma escalonada son

1 0 10 1 00 1 11 0 0

y

1 0 10 1 00 0 10 0 0

,

podemos concluir que no toda matriz de M2×2 es una combinación lineal de las matrices de M (verifique

que la matriz

(

1 11 0

)

es una de ellas). Por lo tanto, M no es un conjunto generador de M2×2.

¤

Ejemplo 14: Determinemos si S =

100

,

110

,

111

,

123

genera a R3.

Veamos si cualquier vector de R3 pertenece a Gen S. Sea (x1, x2, x3)T ∈ R3 y verifiquemos si existen escalares

λ1, λ2, λ3, λ4 tales que

x1

x2

x3

= λ1

100

+ λ2

110

+ λ3

111

+ λ4

123

,

lo que es equivalente a determinar si el sistema de ecuaciones lineales

x1 = λ1 + λ2 + λ3 + λ4

x2 = λ2 + λ3 + 2λ4

x3 = λ3 + 3λ4

tiene solución para todo (x1, x2, x3)T . Como la matriz de este sistema, que coincide con su forma escalonada,

es

1 1 1 10 1 1 20 0 1 3

,

podemos concluir, que todo vector de R3 es una combinación lineal de los vectores de S. Por tanto, S es unconjunto generador de R3. ¤

En general, el conjunto generado por cualquier subconjunto no vacío de vectores de un espacio vectorial esun subespacio vectorial; además, es el subespacio más pequeño1 que contiene el subconjunto de vectores,como lo planteamos en el siguiente teorema.

Teorema 2. [Subespacio Mínimo que Contiene un Subconjunto]Si S es un subconjunto de un espacio vectorial V , entonces Gen S es un subespacio de V . Además, si H esotro subespacio de V que contiene a S, entonces H contiene a Gen S.

Demostración: Aunque el teorema es válido para situaciones más generales, probaremos el resultado solopara cuando S es un conjunto finito. Probemos primero que Gen S es subespacio de V .

1Más pequeño en el sentido de contenencia de conjuntos.

CAPÍTULO 4. ESPACIOS VECTORIALES 98

Sea S = {v1,v2, . . . ,vk} y sean u1,u2 ∈ Gen S, de modo que

u1 = λ1v1 + λ2v2 + . . . + λkvk

u2 = µ1v1 + µ2v2 + . . . + µkvk.

Entonces,

u1 + u2 = (λ1v1 + λ2v2 + . . . + λkvk) + (µ1v1 + µ2v2 + . . . + µkvk)

= (λ1 + µ1)v1 + (λ2 + µ2)v2 + . . . + (λk + µk)vk

y

αu1 = α(λ1v1 + λ2v2 + . . . + λkvk)

= (αλ1)v1 + (αλ2)v2 + . . . + (αλk)vk.

Por tanto, u1 +u2 y αu1 se encuentran en Gen S. De donde, podemos concluir que Gen S es subespacio deV .

Ahora, probemos que Gen S es el subespacio más pequeño que contiene a S. Sea H un subespacio vectorialde V tal que S ⊆ H. Como los elementos de H satisfacen las propiedades clausurativas para la sumay el producto por escalar, cualquier combinación lineal de los elementos de S pertenecen a H; es decir,Gen S ⊆ H. ¤

Uno de los conceptos más importantes del álgebra lineal es el de dependencia e independencia de los elementosde un espacio vectorial, el cual está intimamente relacionado con la forma de escribir el vector 0 comocombinación lineal de ellos, como lo expresamos en la siguiente definición.

Definición 5: [Conjunto de Vectores Linealmente Dependiente] Sea V un espacio vectorial. Diremos que elconjunto de vectores {v1,v2, . . . ,vn} ⊂ V es linealmente dependiente(l.d.), si existen escalares λ1, λ2, . . . , λn

no todos cero, tales queλ1v1 + λ2v2 + . . . + λnvn = 0.

En caso contrario, diremos que el conjunto de vectores {v1,v2, . . . ,vn} es linealmente independiente (l.i.);es decir, si siempre que λ1v1 + λ2v2 + . . . + λnvn = 0 , se tiene que λ1 = λ2 = . . . = λn = 0; en otraspalabras, un conjunto de vectores v1,v2, . . . ,vn es linealmente independiente, si la única combinación linealde v1,v2, . . . ,vn igual a cero es la combinación lineal trivial.

Ejemplo 15: Determinemos si el conjunto de polinomios S = {1 − x + x2, 1 + x − x2, 1 + x + x2} es l.d.Encontremos λ1, λ2 y λ3 tales que

λ1(1 − x + x2) + λ2(1 + x − x2) + λ3(1 + x + x2) = 0.

o lo que es equivalente, resolvamos el sistema de ecuaciones lineales

λ1 + λ2 + λ3 = 0−λ1 + λ2 + λ3 = 0

λ1 − λ2 + λ3 = 0,(4.1)

cuya matriz de coeficientes y su forma escalonada son

1 1 1−1 1 1

1 −1 1

y

1 1 10 2 20 0 2

,

respectivamente; de donde concluimos que que no hay variables libres; es decir, que el sistema homogéneo(4.1) tiene solución única (el vector nulo) y por tanto S es un conjunto de vectores l.i. ¤

CAPÍTULO 4. ESPACIOS VECTORIALES 99

Ejemplo 16: Determinemos si R ={

1 − x, 2x − x2, 2x2 − 1, 1 + x + x2}

es un conjunto de vectores l.i.

Veamos si la ecuación

α1(1 − x) + α2(2x − x2) + α3(2x2 − 1) + α4(1 + x + x2) = 0

tiene solución única, o lo que es equivalente, si el sistema de ecuaciones lineales

α1 − α3 + α4 = 0−α1 + 2α2 + α4 = 0−α2 + 2α3 + α4 = 0,

(4.2)

cuya matriz de coeficientes y su forma escalonada son

1 0 −1 1−1 2 0 1

0 −1 2 1

y

1 0 −1 10 2 −1 20 0 3/2 2

,

respectivamente, tiene solución única. Como α4 es una variable libre, el sistema (4.2) tiene infinitas solucionesy por tanto, S no es un conjunto de vectores l.i. ¤

Los conjuntos linealmente dependientes y los conjuntos linealmente independientes tiene propiedades bieninteresantes; algunas de ellas los caracterizan. Veamos algunas de ellas.

Teorema 3. [Propiedades de Independencia y Dependencia Lineal ]Dado un espacio vectorial V y S un subconjunto de V .

1. Si S contiene el vector 0, S es un conjunto linealmente dependiente.

2. Si S consta de dos elementos, S es linealmente dependiente, si y solo si, uno de ellos es un múltiplopor escalar del otro.

3. Si S contiene un subconjunto linealmente dependiente, S es linealmente dependiente.

4. Si S es linealmente independiente, cualquier subconjunto de S es también linealmente independiente.

Demostración: Nuevamente, aunque los Resultados 1, 3 y 4 son válidos en general, demostremos los dosúltimos resultados cuando S es un conjunto finito.

1. Dado que λ0 = 0 para todo λ, el resultado es inmediato.

2. Sea S = {v1,v2}. Si S es l.d., entonces existen escalares λ1 y λ2 tales que λ1v1 + λ2v2 = 0, dondeal menos uno de los dos escalares es diferente de cero. Sin pérdida de generalidad, supongamos que

λ1 6= 0, así que v1 = −λ2

λ1

v2. Ahora, si v1 = µv2, entonces podemos obtener una combinación lineal

de v1 y v2 igual 0, v1 − µv2 = 0, que no es la trivial; por tanto, S es un conjunto de vectores l.d.

3. Sea R = {v1,v2, . . . ,vk} subconjunto de S = {v1,v2, . . . ,vk,vk+1, . . . ,vn}. Si R es l.d., existenλ1, λ2, . . . , λk no todos 0, tales que λ1v1 + λ2v2 + . . . + λkvk = 0. Asi que λ1v1 + λ2v2 + . . . + λkvk +0vk+1 + . . . + 0vn = 0 y por tanto S es l.d.

4. Sea R = {v1,v2, . . . ,vk} subconjunto de S = {v1,v2, . . . ,vk,vk+1, . . . ,vn}. Si S es l.i. entonces λ1v1+λ2v2 + . . .+λkvk +λk+1vk+1 + . . .+λnvn = 0 implica que λ1 = λ2 = . . . = λk = λk+1 = . . . = λn = 0.En particular, si λ1v1+λ2v2+. . .+λkvk = 0, entonces λ1v1+λ2v2+. . .+λkvk +0vk+1+. . .+0vn = 0

lo que implica que λ1 = λ2 = . . . = λk = 0. ¤

Establezcamos ahora algunos resultados que relacionan los conceptos de conjunto generador, conjunto gene-rado y conjunto de vectores linealmente independiente.

Teorema 4. [Propiedades de un Conjunto l.i.]Sea S = {v1,v2, . . . ,vn} un conjunto de vectores l.i. de un espacio vectorial V .

CAPÍTULO 4. ESPACIOS VECTORIALES 100

1. Si v ∈ Gen S, entonces v se escribe de manera única como combinación lineal de los vectores de S. Enotras palabras, si

v = λ1v1 + λ2v2 + . . . + λnvn y v = µ1v1 + µ2v2 + . . . + µnvn,

entoncesλ1 = µ1, λ2 = µ2, . . . , λn = µn.

2. Si v /∈ Gen S, entonces el conjunto {v1,v2, . . . ,vn,v} es l.i.

Demostración:

1. Supongamos que existen dos combinaciones lineales de v ∈ Gen S, es decir, existen escalares λ1, λ2, . . . , λn

y µ1, µ2, . . . , µn tales que

v = λ1v1 + . . . + λnvn y v = µ1v1 + . . . + µnvn.

Restando estas dos ecuaciones, tenemos

0 = (λ1v1 + . . . + λnvn) − (µ1v1 + . . . + µnvn)

= (λ1 − µ1)v1 + . . . + (λn − µn)vn.

Como S es un conjunto de vectores l.i., entonces

λ1 − µ1 = λ2 − µ2 = . . . = λn − µn = 0,

es decir,λ1 = µ1, λ2 = µ2, . . . , λn = µn,

lo que significa que las dos combinaciones lineales son iguales.

2. Si v /∈ Gen S, entonces v 6= 0, puesto que Gen S es un espacio vectorial. Supongamos que {v1,v2, . . . ,vn,v}es un conjunto de vectores l.d. Por definición, existen escalares λ1, λ2, . . . , λn, λ0, no todos iguales acero, tales que

0 = λ1v1 + . . . + λnvn + λ0v,

con λ0 6= 0, ya que si λ0 = 0, implicaría que todos los demás escalares también serían cero porque Ses un conjunto l.i. Entonces, podemos despejar v,

v = −λ1

λ0

v1 − . . . − λn

λ0

vn ,

lo que significa que v ∈ Gen S, lo cual contradice nuestra hipótesis inicial. Por lo tanto, {v1,v2, . . . ,vn,v}es un conjunto de vectores l.i. ¤

En el siguiente teorema, resaltamos dos características de los conjuntos de vectores linealmente dependientes,que le da significado a su nombre.

Teorema 5. [Propiedades de un Conjunto l.d.]Sean V un espacio vectorial y S = {v1,v2, . . . ,vn} un conjunto de vectores de V . Entonces, las siguientesproposiciones son equivalentes.

1. El conjunto S es l.d.

2. Existe vi ∈ S tal que vi es combinación lineal del resto de vectores de S.

3. Existe vi ∈ S tal que Gen S = Gen{v1, . . . ,vi−1, vi+1, . . . ,vn}.

CAPÍTULO 4. ESPACIOS VECTORIALES 101

Demostración: Demostremos primero que la Proposición 1 implica la Proposición 2. Supongamos que S esun conjunto de vectores l.d. Entonces existen escalares λ1, λ2, . . . , λn, no todos iguales a cero, tales que

0 = λ1v1 + . . . + λnvn.

Sea λi 6= 0, entonces

vi = −λ1

λiv1 − . . . − λi−1

λivi−1 − λi+1

λivi+1 − . . . − λn

λivn

= β1v1 + . . . + βi−1vi−1 + βi+1vi+1 + . . . + βnvn ,(4.3)

es decir, vi es una combinación lineal del resto de vectores de S.

Veamos ahora que la Proposición 2 implica la Proposición 3. Supongamos que existe vi ∈ S, tal que vi escombinación lineal del resto de vectores de S. Sin pérdida de generalidad, podemos suponer que el vectorque es combinación lineal del resto de vectores de S es v1; es decir, podemos suponer que

v1 = α2v2 + . . . + αnvn. (4.4)

Llamemos S1 = {v2, . . . ,vn}, dejamos como ejercio para el lector, demostrar que Gen(S1) ⊆ Gen(S) ydemostremos que Gen(S) ⊆ Gen(S1), para concluir que Gen(S1) = Gen(S). Sea v ∈ S, por lo tanto, existenescalares λ1, λ2, . . . , λn, tales que

v = λ1v1 + λ2v2 + . . . + λnvn.

Reemplazando (4.4) en la última expresión,

v = λ1(α2v2 + . . . + αnvn) + λ2v2 + . . . + λnvn

= (λ1α2 + λ2)v2 + . . . + (λ1αn + λn)vn ,

de donde concluimos que v ∈ Gen(S1).

Por último, veamos que la Proposición 3 implica la Proposición 1. Supongamos que existe vi ∈ S, talque Gen S = Gen{v1, . . . ,vi−1, vi+1, . . . ,vn}. Sin pérdida de generalidad, podemos suponer que Gen S =Gen S1, donde S1 = {v2, . . .vn}. Como v1 ∈ S, entonces v1 ∈ Gen(S) = Gen(S1), así que existen α2, . . . , αn

tales que v1 = α2v2 + . . . + αnvn. De esta igualdad, tenemos que

v1 − α2v2 − . . . − αnvn = 0,

la cual es una combinación lineal no trivial igual a 0, de donde concluimos que S es l.d. ¤

Ejemplo 17: Determinemos si el conjunto de matrices

{(

1 10 2

)

,

(

1 1−1 −1

)

,

(

0 0−1 −3

)}

es li-

nealmente dependiente.Puesto que

(

1 10 2

)

=

(

1 1−1 −1

)

−(

0 0−1 −3

)

,

por el teorema anterior, concluimos que el conjunto de matrices dado es linealmente dependiente. ¤

4.5. Bases y Dimensión

En esta sección, presentaremos un concepto fundamental en el análisis de la estructura de espacio vectorial.Se trata del concepto de base, el cual define un conjunto de vectores que permite describir eficientemente2

el espacio vectorial y sus propiedades.2La propiedad de eficiencia de una base de un espacio vectorial se basa en el hecho que es un conjunto óptimo (suficiente y

necesario) para construir todo el espacio, expresando todos y cada uno de sus elementos de forma única. Además, es el conjuntomás pequeño donde se debe cumplir una propiedad como paralelismo y ortogonalidad con otros vectores o espacios, entre otras,para que dicha propiedad sea válida para todo el espacio.

CAPÍTULO 4. ESPACIOS VECTORIALES 102

Definición 6: [Base] Si B es un subconjunto no vacío del espacio vectorial V , diremos que B es una base deV , si y solo si, el conjunto B satisface las siguientes condiciones,

1. B es un conjunto linealmente independiente.

2. B es un conjunto generador de V .

Ejemplo 18: Demostremos que B = {e1, e2, . . . , en} es una base de Rn.

Cualquier combinación lineal de e1, e2, . . . , en igual a un vector dado, nos conduce a un sistema de ecuacioneslineales, cuya matriz de coeficientes es la matriz idéntica de tamaño n × n, de donde podemos concluir quela única combinación lineal igual al vector 0 es la trivial y que cualquier vector se puede expresar como unaúnica combinación lineal de ellos. Por tanto, B = {e1, e2, . . . , en} es una base de Rn. A esta base la llamamosbase canónica o base estándar de Rn. ¤

Ejemplo 19: Demostremos que B = {1, x, . . . , xn} es una base de Pn.

Es fácil ver que al establecer una ecuación en Pn, en la que un polinomio de grado menor o igual a n es unacombinación lineal de 1, x, . . . , xn con los escalares de la combinación lineal como incógnitas; es decir,

a0 + a1x + a2x2 + . . . + anxn = λ01 + λ1x + . . . + λnxn,

obtenemos un sistema de ecuaciones lineales cuya matriz de coeficientes es la matriz idéntica de tamaño(n + 1) × (n + 1). Así, podemos concluir que cualquier polinomio de grado menor o igual a n se puedeexpresar de manera única como combinación lineal de los polinomios 1, x, . . . , xn, incluyendo el polinomio 0.Por tanto, 1, x, . . . , xn es un conjunto generador de Pn y además es l.i., así que es una base de Pn. A estabase la llamamos base canónica o base estándar de Pn. ¤

Ejemplo 20: Demostremos que B = {E11, E12, . . . , Emn}, donde Eij es la matriz m × n con todas suscomponentes 0, a excepción de la componente (i, j), que es 1, es una base de Mm×n, el espacio vectorial delas matrices de tamaño m × n.

De nuevo, tenemos que al establecer una ecuación en Mm×n, en la que una matriz m×n es una combinaciónlineal de E11, E12, . . . , Emn, con los escalares de la combinación lineal como incógnitas, obtenemos un sistemade ecuaciones lineales cuya matriz de coeficientes es la matriz idéntica de tamaño mn × mn. Así, podemosconcluir que cualquier matriz de tamaño m×n se puede expresar de manera única como combinación linealde las matrices E11, E12, . . . , Emn, incluyendo la matriz nula. Por tanto, E11, E12, . . . , Emn es un conjuntogenerador de Mm×n y además es l.i., así que es una base de Mm×n. A esta base la llamamos base canónicao base estándar de Mm×n. ¤

Ejemplo 21: Demostremos que B = {1 − x, 1 + x, x2} es una base de P2.

Dado un polinomio arbitrario de P2, a0 + a1x + a2x2, al establecer la ecuación

a0 + a1x + a2x2 = λ1(1 − x) + λ2(1 + x) + λ3x

2

= (λ1 + λ2) + (−λ1 + λ2)x + λ3x2,

obtenemos el sistema de ecuaciones lineales

a0 = λ1 + λ2

a1 = −λ1 + λ2

a2 = λ3.(4.5)

Como la matriz de este sistema y su forma escalonada son, respectivamente,

1 1 0−1 1 0

0 0 1

y

1 1 00 2 00 0 1

,

CAPÍTULO 4. ESPACIOS VECTORIALES 103

podemos concluir que el sistema (4.5) tiene solución (única) para todo (a0, a1, a2)T , así que {1−x, 1+x, x2}

es un conjunto generador de P2 y, además, es l.i., ya que el sistema homogéneo asociado a (4.5) tambiéntiene solución única, la trivial; por lo tanto, es una base de P2. ¤

Ejemplo 22: Determinemos si B = {1 − x + 3x2, 1 − x, x2} es una base de P2.

Dado que 1− x + 3x2 = (1− x) + 3(x2), por el Teorema 5, B es un conjunto l.d., por tanto, no es una base.¤

Ejemplo 23: Determinemos si S =

{(

1 00 −1

)

,

(

0 −21 0

)

,

(

1 23 1

)}

es una base de M2×2.

Sea

(

a bc d

)

∈ M2×2, veamos si existen escalares α, β, γ tales que

(

a bc d

)

= α

(

1 00 −1

)

+ β

(

0 −21 0

)

+ γ

(

1 23 1

)

,

lo que es equivalente a determinar si el sistema de ecuaciones lineales

a = α + γb = −2β + 2γc = β + 3γd = −α + γ

(4.6)

tiene solución para todo (a, b, c, d)T . Como la matriz de este sistema y su forma escalonada son, respectiva-mente,

1 0 10 −2 20 1 3

−1 0 1

y

1 0 10 −2 20 0 40 0 0

,

el sistema (4.6) no tiene solución para toda matriz de M2×2 (por ejemplo, para la matriz

(

1 11 1

)

, el

sistema (4.6) no tiene solución), de donde concluimos que S no genera a M2×2, por lo tanto S no es unabase de este espacio. ¤

Como lo pudimos apreciar en los ejemplos anteriores, cada espacio vectorial tiene al menos una base. Aunquela demostración de este resultado está fuera de nuestro alcance, lo enunciaremos por su importancia dentrodel desarrollo teórico y práctico del Álgebra Lineal.

Teorema 6. [Existencia de una Base]Todo espacio vectorial, excepto el espacio vectorial trivial V = {0}, tiene al menos una base.

En los ejemplos, también pudimos observar que al plantear las ecuaciones que nos permiten concluir que unconjunto de vectores es una base, llegamos a un sistema de ecuaciones lineales con solución única, lo que sepuede enunciar como el siguiente teorema.

Teorema 7. [Caracterización de una Base]Un subconjunto B = {v1,v2, . . . ,vn} de un espacio vectorial V es una base de V , si y solo si, para cadavector v de V existen escalares únicos λ1, λ2, . . . , λn tales que

v = λ1v1 + λ2v2 + . . . + λnvn.

Demostración: Si B es una base de V , B es un conjunto l.i. y por el Teorema 4, todo vector de V se puedeescribir como una combinación lineal única de los vectores de B. Además, si suponemos que todo vector deV es combinación lineal de los vectores de B, entonces B genera a V . Y, si las combinaciones lineales sonúnicas, la combinación lineal igual a 0 es la trivial, por tanto B es l.i. Así que si todo vector se escribe demanera única como combinación lineal de los vectores de B, B es una base de V . ¤

CAPÍTULO 4. ESPACIOS VECTORIALES 104

Teniendo en cuenta los Ejemplos 19 y 21, observamos que el espacio vectorial P2 tiene al menos dos bases conalgo en común: el número de elementos, lo cual no es casual. Para probar que todas las bases de un mismoEspacio Vectorial tienen el mismo número de vectores, primero observemos que las bases deben contenera lo más igual número de elementos que un conjunto generador, ya que no existe un conjunto linealmenteindependiente con más elementos que un conjunto generador, lo que demostramos en el siguiente teorema.

Teorema 8. [Propiedad Maximal de un Conjunto l.i.]Si el espacio vectorial V tiene un conjunto generador de n elementos, entonces cualquier subconjunto de Vcon más de n elementos es l.d. En otras palabras, cualquier conjunto de vectores l.i. de V tiene a lo sumo elnúmero de vectores de un conjunto generador.

Demostración: Sean S = {v1,v2, . . . ,vn} un conjunto generador de V y T = {u1,u2, . . . ,um} ⊂ V unconjunto de vectores l.i. Veamos que m ≤ n. Construyamos el conjunto S1 = {u1,v1,v2, . . . ,vn}. S1 esl.d., ya que S es un conjunto generador de V y u1 ∈ V , entonces existe un vi que es combinación lineal delresto de vectores de S1. Sin pérdida de generalidad (reenumerando, si es necesario), supongamos que i = 1 ydefinamos S′

1 = S1 − {v1} = {u1,v2, v3, . . . , vn}. Por el Teorema 5, tenemos que V = Gen S1 = Gen S′1.

Construyamos S2 = {u2,u1,v2, v3, . . . ,vn}. S2 es l.d., ya que S′1 es un conjunto generador de V y u2 ∈ V ,

entonces existe un vi que es combinación lineal del resto de vectores de S2. Sin pérdida de generalidad(reenumerando, si es necesario), supongamos que i = 2 y definamos S′

2 = S2−{v2} = {u2,u1, v3, . . . , vn}.Por el Teorema 5, tenemos que V = Gen S2 = Gen S′

2.

Repitiendo la misma argumentación, podemos construir el conjunto Sm = {um, . . . , u1,vm, , . . . ,vn} elcual es l.d., para lo cual se requiere que m ≤ n porque si m > n, tendríamos que Sn−1 = {un−1, . . . , u1} esun conjunto de vectores l.d., lo cual es una contradicción, puesto que T = {u1,u2, . . . ,um} es un conjuntode vectores l.i. (ver Resultado 4. del Teorema 3) ¤

Ahora, podemos probar la observación que hicimos referente a los Ejemplos 19 y 21, lo cual es muy importante,ya que nos permitirá definir la dimensión de un espacio vectorial.

Teorema 9. [Característica Común de las Bases]Todas las bases de un mismo espacio vectorial tienen igual número de elementos.

Demostración: Sean B1 = {v1,v2, . . . ,vn} y B2 = {u1,u2, . . . ,um} bases de V . Asi que B1 es un conjuntogenerador de V y B2 es l.i., entonces, por el teorema anterior, m ≤ n. Pero de otro lado, B2 es conjuntogenerador de V y B1 es l.i., entonces, por el teorema anterior, n ≤ m. Por tanto, n = m. ¤

Definición 7: [Dimensión] Si las bases de un espacio vectorial V tienen n elementos, diremos que la dimen-sión de V es n, lo que expresaremos como

dim(V ) = n.

En caso que V = {0}, por conveniencia, diremos que el espacio vectorial tiene dimensión 0, y en caso queun espacio vectorial no tenga una base finita, diremos que es de dimensión infinita.

Así, de los Ejemplos 18, 19 y 20, tenemos que dim(Rn) = n, dim(Pn) = n+1 y dim(Mm×n) = mn. De otrolado, P∞, el espacio vectorial de todos los polinomios, es de dimensión infinita. Veamos otro ejemplo menostrivial.

Ejemplo 24: Determinemos la dimensión de V = Gen{1 − x, 1 + x, x}.

Puesto que x =1

2(1 + x) − 1

2(1 − x), tenemos que V = Gen{1 − x, 1 + x} = Gen{1 − x, 1 + x, x}. Ahora,

puesto que 1 + x y 1 − x no son múltiplos por escalar entre si, ellos son l.i., por tanto {1 − x, 1 + x} es unabase de V , lo que implica que la dimensión de V es 2. ¤

Ejemplo 25: Demostremos que cualquier plano en Rn que contenga el origen tiene dimensión 2.

Sea P un plano de Rn que contiene al origen. Si u1 y u2 son los vectores directores de P, entonces P =Gen{u1,u2} y por tanto, P es subespacio de Rn (ver Ejemplo 9). Pero, como por definición de plano, u1 yu2 no son paralelos, u1 y u2 son l.i., asi que {u1,u2} es una base de P y por tanto, su dimensión es 2. ¤

CAPÍTULO 4. ESPACIOS VECTORIALES 105

Conociendo la dimensión de un Espacio vectorial, se puede determinar el mínimo número de elementos deun conjunto generador y el máximo de un conjunto l.i., como lo expresa el siguiente teorema.

Teorema 10. [Propiedad Maximal y Minimal de un Subconjunto de Vectores]Sea V un espacio vectorial de dimensión n y sea S un subconjunto de V con m elementos.

1. Si S es l.i., entonces m ≤ n.

2. Si S genera a V , entonces m ≥ n.

Demostración:

1. Sea B una base de V . Entonces B tiene n elementos y genera a V . Por el Teorema 8, cualquier conjuntode vectores l.i. tiene a lo sumo n elementos, así que si S es l.i., m ≤ n.

2. Sea B una base de V . Entonces B tiene n elementos y es un conjunto l.i. Así que si S genera a V , porel Teorema 8, m ≥ n. ¤

Ejemplo 26: Sea S un conjunto de k matrices de tamaño m×n, entonces si S es l.i., k ≤ mn y si S generaa Mm×n, entonces k ≥ mn, ya que dim(Mm×n) = mn. ¤

Observemos que este teorema nos da condiciones necesarias, muy fáciles de verificar, para que un conjuntode vectores sea generador o linealmente independiente cuando conocemos la dimensión del Espacio Vectorial,lo cual nos permite determinar cuando un conjunto de vectores no es generador o no es l.i., simplementecomparando el número de vectores del conjunto con la dimensión del respectivo espacio vectorial. Asi porejemplo, sabiendo que dim(M2×2) = 4, el conjunto M del Ejemplo 13 no genera a M2×2, por tener solo3 matrices. Igualmente, sabiendo que dim(R3) = 3, el conjunto S del Ejemplo 14 no es l.i., por tener 4vectores. Lo mismo sucede con el conjunto R del Ejemplo 17, el cual tiene 4 polinomios y dim(P2) = 3.

Con este teorema, también tenemos que, conociendo n, la dimensión de un espacio vectorial, basta que unconjunto de n elementos satisfaga una de las dos condiciones de la definición de base, para concluir que elconjunto es una base del Espacio Vectorial.

Teorema 11. [Propiedad Maximal y Minimal de una Base]Sea V un espacio vectorial de dimensión n y sea S un subconjunto de V con n elementos.

1. Si S es l.i., entonces S es una base de V .

2. Si S genera a V , entonces S es una base de V .

Demostración:

1. Sea S = {v1,v2, . . . ,vn} un conjunto de vectores l.i. de V . Si S no genera a V , existe u en V que nose encuentra en Gen S y por tanto, el conjunto {u,v1,v2, . . . ,vn} de n+1 elementos es l.i., lo que noslleva a una contradicción, ya que, por el Teorema 10, tendríamos que (n+1) ≤ n. De donde concluimosque S genera a V y por tanto, es una base de V .

2. Sea S = {v1,v2, . . . ,vn} un conjunto generador de V . Si S es l.d., por el Teorema 5, existe un vectorvi que es combinación lineal de los otros vectores de S, asi que si S1 = {v1, . . . ,vi−1,vi+1, . . . ,vn},Gen S = Gen S1, pero S1 contiene n − 1 elementos, lo que contradice la parte 2 del Teorema 10. Asíque S es l.i., lo que implica que S es una base de V . ¤

Este teorema nos muestra otra ventaja importante de conocer la dimensión de un espacio vectorial cuandoqueremos determinar si un conjunto dado es una base de él. Asi por ejemplo, conociendo que dim(P2) = 3,el resultado obtenido en el Ejemplo 12 nos permite afirmar que el conjunto {1 − x, x2, 1 + x} es una basede P2.

Para enfatizar la propiedad de eficiencia de una base, tenemos que, dado un conjunto generador pero l.d.de un espacio vectorial V , podemos quitarle elementos adecuadamente hasta reducirlo a un conjunto l.i.

CAPÍTULO 4. ESPACIOS VECTORIALES 106

y por tanto, en base de V . Y si tenemos un conjunto de vectores l.i. de V , podemos agregarle vectoresadecuadamente hasta convertirlo en generador de V y por tanto, en base de V , como lo demostramos en elsiguiente teorema.

Teorema 12. [Construcción de una Base a partir de un Subconjunto de Vectores]Sea V un espacio vectorial de dimensión n y S un subconjunto de V con m elementos.

1. Si S es l.i., podemos encontrar un conjunto T que contiene a S y es una base de V .

2. Si V = Gen S, entonces podemos encontrar un conjunto T contenido en S que es una base de V .

Demostración:

1. Si S genera a V , S es una base de V . Si S no genera a V , existe un elemento u1 /∈ Gen S. ConstruyamosS1 = S ∪ {u1}; si S1 genera a V , S1 es una base de V ya que, por el Teorema 4, es l.i.; sino, existe unelemento u2 /∈ Gen S1. Construyamos a S2 = S1 ∪{u2}, si S2 genera a V , S2 es una base de V ya que,por el Teorema 4, es l.i.; sino, podemos seguir este procedimiento hasta encontrar un conjunto Sk quecontiene a S, es l.i. y genera a V . Por tanto, podemos encontrar un conjunto T = Sk (por el Teorema11, k = n − m) que contiene a S y es una base de V .

2. Si S es l.i., entonces S es una base de V . Si S es l.d., entonces existe un vector u1 de S que escombinación lineal de los otros vectores de S de tal manera que si S1 = S−{u1}, Gen S = Gen S1. Si S1

es l.i., entonces S1 es una base de V . Si S1 es l.d., entonces existe un vector u2 de S1 que es combinaciónlineal de los otros vectores de S1 de tal manera que si S2 = S1 − {u2}, Gen S2 = Gen S1 = Gen S yseguimos este procedimiento hasta obtener un conjunto T = Sk (por el Teorema 11, k = m − n) quees l.i., tal que Gen Sk = Gen S. Este conjunto T = Sk es una base de V . ¤

Ejemplo 27: Encontremos una base de P2 que contenga a S ={

1 − x2, 1 + 2x}

.

Como los elementos de S son l.i., basta encontrar un vector de P2 que no esté en Gen S. Así, tendríamosun conjunto de 3 vectores l.i., que, por el Teorema 11, sería base de V .

Sabiendo que B ={

1, x, x2}

es una base de P2, tomemos un vector de B, por ejemplo 1 y veamos si está enGen S. Es fácil ver que 1 /∈ Gen S, pues no existen escalares λ1, λ2 tales que λ1(1 − x2) + λ2(1 + 2x) = 1.Así que S1 =

{

1 − x2, 1 + 2x, 1}

tiene 3 elementos y es l.i., lo que implica que S1 es una base de P2. ¤

Para terminar esta sección, demostraremos un resultado que seguramente nos parece natural, pero que esimportante resaltar: La dimensión de un subespacio vectorial es a lo sumo la dimensión del espacio vectorialque lo contiene y el único subespacio con la misma dimensión del espacio vectorial que lo contiene es elespacio vectorial.

Teorema 13. [Máxima Dimensión de un Subespacio]Sean V un espacio vectorial de dimensión n y W un subespacio vectorial de V . Entonces,

1. dimW ≤ n.

2. Si dimW = n, entonces W = V .

Demostración:

1. Sea B una base de W . Como B es un conjunto l.i. de V , por el Teorema 10, B tiene a lo sumo n vectoresy por tanto, dimW ≤ n.

2. Si dimW = n y B es una base de W , entonces W = Gen B y B tiene n vectores l.i. de W y por tantode V . Por el Teorema 11, B es una base de V , lo que implica que Gen B = V y por tanto, W = V . ¤

CAPÍTULO 4. ESPACIOS VECTORIALES 107

4.6. Coordenadas Respecto a una Base Ordenada.

Por el Teorema 7, dada una base de un espacio vectorial, cada vector del espacio se escribe de manera únicacomo una combinación lineal de los elementos de la base. Así que los coeficientes de la combinación linealidentifican al vector, como lo establece la siguiente definición.

Definición 8: [Vector de Coordenadas] Sea B = {v1,v2, . . . ,vn} una base (ordenada) del espacio vectorialV . Como para todo v ∈ V , existen escalares únicos λ1, λ2, . . . , λn tales que

λ1v1 + λ2v2 + . . . + λnvn = v,

al vector de Rn

[v]B =

λ1

λ2

...λn

lo llamaremos vector de coordenadas de v respecto a la base ordenada B.

Claramente, si cambiamos el orden de los vectores de una base, el vector de coordenadas puede cambiar, asicomo cuando cambiamos la base.

Ejemplo 28: Demostremos que el vector de coordenadas de un vector v de Rn, respecto a la base canónica,coincide con el vector v.

Sea v =

x1

x2

...xn

un vector de Rn. Así que v = x1e1 +x2e2 + . . .+xnen. Por tanto, [v]B =

x1

x2

...xn

, donde

B es la base canónica, por lo que concluimos que v = [v]B. ¤

Ejemplo 29: Calculemos el vector de coordenadas de

(

1 00 −1

)

respecto a la base ordenada

B =

{(

1 01 0

)

,

(

1 10 0

)

,

(

1 01 0

)

,

(

0 01 1

)}

.

Tenemos que encontrar λ1, λ2, λ3, λ4 tales que(

1 00 −1

)

= λ1

(

1 01 0

)

+ λ2

(

1 10 0

)

+ λ3

(

0 10 1

)

+ λ4

(

0 01 1

)

.

Al resolver el sistema de ecuaciones lineales resultante, encontramos que λ1 = 2, λ2 = −1, λ3 = 1 y λ4 = −2;es decir,

(

1 00 −1

)

= 2

(

1 01 0

)

−(

1 10 0

)

+

(

0 10 1

)

− 2

(

0 01 1

)

.

Por lo tanto,

[(

1 00 −1

)]

B=

2−1

1−2

.

¤

Ejemplo 30: Calculemos p(x), sabiendo que [p(x)]B =

1−1

3−2

y que B ={

1 − x, 2x + x2, x2 − x3, x3 − 1}

es una base de P3, .

CAPÍTULO 4. ESPACIOS VECTORIALES 108

Por definición de vector de coordenadas,

p(x) = 1(1 − x) − 1(2x + x2) + 3(x2 − x3) − 2(x3 − 1) = 3 − 3x + 2x2 − 5x3.

¤

Ejemplo 31: Observemos que al cambiar el orden de los elementos de B en el ejemplo anterior, las coorde-nadas de p(x), respecto a la nueva base ordenada, cambian.

Sea B′ ={

2x + x2, x2 − x3, x3 − 1, 1 − x}

. Como

p(x) = −1(2x + x2) + 3(x2 − x3) − 2(x3 − 1) + 1(1 − x),

entonces [p(x)]B′ =

−13

−21

y por tanto, [p(x)]B′ 6= [p(x)]B. ¤

Otro resultado curioso y supremamente útil es que los coeficientes de una combinación lineal de vectores deun vector dado se conservan al cambiar los vectores por los vectores de coordenadas de estos, respecto a unabase dada, lo cual consignamos en el siguiente teorema.

Teorema 14. [Conservación de los Coeficientes de una Combinación Lineal ]Sean u1,u2, . . . ,uk vectores de un espacio vectorial V y B una base de V . Entonces u = λ1u1 + . . . + λkuk,si y solo si, [u]B = λ1 [u1]B + . . . + λk [uk]B .

Demostración: Sea B = {v1,v2, . . . ,vn} una base del espacio vectorial V y supongamos que

[ui]B =

u1i

u2i

...uni

para i = 1, 2, . . . , k;

es decir,ui = u1iv1 + u2iv2 + . . . + univn.

Por consiguiente, siu = λ1u1 + λ2u2 + . . . + λkuk,

entonces,

u = λ1(u11v1 + u21v2 + . . . + un1vn) + . . . + λk(u1kv1 + u2kv2 + . . . + unkvn)

= (λ1u11 + λ2u12 + . . . + λku1k)v1 + . . . + (λ1un1 + λ2un2 + . . . + λkunk)vn.

De aqui, que

[u]B =

λ1u11 + λ2u12 + . . . + λku1k

...λ1un1 + λ2un2 + . . . + λkunk

= λ1

u11

...un1

+ · · · + λk

u1k

...unk

= λ1 [u1]B + · · · + λk [uk]B ,

terminando la demostración de una implicación. Puesto que cada paso es realmente una equivalencia, pode-mos devolvernos y tener la otra implicación. ¤

Ejemplo 32: Verifiquemos el resultado del teorema, con la combinación lineal

2x2 − 2x + 9 = 2(x2 − 2x + 1)+3(x + 2)-1(x − 1),

CAPÍTULO 4. ESPACIOS VECTORIALES 109

para las bases B ={

1, x, x2}

y B′ ={

1, 1 + x, 1 + x + x2}

de P2.

No es difícil ver que

[2x2 − 2x + 9]B =

9−2

2

, [x2 − 2x + 1]B =

1−2

1

, [x + 2]B =

210

, [x − 1]B =

−110

y

9−2

2

= 2

1−2

1

+ 3

210

-1

−110

.

Con cálculos similares, tenemos que

[2x2 − 2x + 9]B′ =

11−4

2

, [x2 − 2x + 1]B′ =

3−3

1

, [x + 2]B′ =

110

, [x − 1]B′ =

−210

y

11−4

2

= 2

3−3

1

+ 3

110

-1

−210

.

¤

El resultado del Teorema 14 permite plantear un problema de un espacio vectorial de dimensión n queinvolucre combinaciones lineales como un problema similar en término de vectores de Rn, como lo muestrael siguiente ejemplo.

Ejemplo 33: Determinemos si

{(

1 00 0

)

,

(

1 1−1 0

)

,

(

−1 01 −1

)}

es un conjunto de matrices l.i.

Sea

B =

{(

1 00 0

)

,

(

0 10 0

)

,

(

0 01 0

) (

0 00 1

)}

la base canónica de M2×2. Por consiguiente,

[(

1 00 0

)]

B=

1000

,

[(

1 1−1 0

)]

B=

11

−10

y

[(

−1 00 −1

)]

B=

−100

−1

.

Es fácil ver que el conjunto de vectores

1000

,

1−1

10

,

−100

−1

es l.i. Es decir, que la única

combinación lineal de ellos igual al vector nulo es la trivial, así que la única combinación lineal de lasmatrices del conjunto

{(

1 00 0

)

,

(

1 1−1 0

)

,

(

−1 01 −1

)}

es la trivial, de donde concluimos que

{(

1 00 0

)

,

(

1 1−1 0

)

,

(

−1 01 −1

)}

es un conjunto l.i. ¤

Los vectores de coordenadas de un vector dado, respecto a dos bases diferentes, están relacionados entre simediante el producto por una matriz, como lo establece el siguiente teorema.

CAPÍTULO 4. ESPACIOS VECTORIALES 110

Teorema 15. [Matriz de Transición]Sean B = {v1,v2, . . . ,vn} y B′ = {u1,u2, . . . ,un} bases de un espacio vectorial V y sea P la matriz detamaño n × n, cuyas columnas son los vectores de coordenadas de v1,v2, . . . ,vn respecto a la base B′; esdecir,

P = [[v1]B′ [v2]B′ · · · [vn]B′ ] .

Entonces, para cada vector v ∈ V ,[v]B′ = P [v]B

A la matriz P la llamamos matriz de transición3 de B a B′.

Demostración: Sea v ∈ V . Como B genera a V , existen escalares λ1, λ2, . . . , λn tales que

v = λ1v1 + λ2v2 + . . . λnvn.

En otras palabras,

[v]B =

λ1

λ2

...λn

.

Por el Teorema 14,[v]B′ = λ1 [v1]B′ + λ2 [v2]B′ + . . . + λn [vn]B′ ,

por tanto,

[v]B′ = P

λ1

λ2

...λn

= P [v]B ,

dondeP = [[v1]B′ [v2]B′ · · · [vn]B′ ] .

¤

Algunos resultados interesantes sobre las matrices de transición hacen referencia a que estas matrices sonúnicas e invertibles y que la inversa de la matriz de transición de una base a otra es la inversa de la matrizde transición de la segunda base a la primera, lo cual lo planteamos en el siguiente teorema.

Teorema 16. [Propiedades de la inversa de la Matriz de Transición]Sean B = {v1,v2, . . . ,vn} y B′ = {u1,u2, . . . ,un} bases de un espacio vectorial V y sea P la matriz detransición de la base B a la base B′. Es decir,

P = [[v1]B′ [v2]B′ · · · [vn]B′ ] .

1. Si existe otra matriz P ′ tal que [v]B′ = P ′ [v]B , entonces P = P ′.

2. La matriz de transición P es invertible y su inversa es la matriz de transición de la base B′ a la base B.

Demostración:

1. Sabemos que para cada vector v ∈ V , [v]B′ = P [v]B y que en particular,

[vi]B′ = P [vi]B = Pei para cada i = 1, 2, . . . , n. (4.7)

3Esta matriz también recibe el nombre de matriz cambio de base de B a B′

CAPÍTULO 4. ESPACIOS VECTORIALES 111

Supongamos que existe P ′ tal que para cada vector v ∈ V , [v]B′ = P ′ [v]B . Así, en particular,

[vi]B′ = P ′ [vi]B = P ′ei para cada i = 1, 2, . . . , n. (4.8)

Por lo tanto, de (4.7) y (4.8),

Pei = P ′ei para cada i = 1, 2, . . . , n.

Como Pei y P ′ei son las i-ésimas columnas de P y P ′, respectivamente, concluimos que P = P ′.

2. Sabiendo que B = {v1,v2, . . . ,vn} es una base de V , por el Teorema 14, {[v1]B′ , [v2]B′ , . . . , [vn]‘B′} esuna base de Rn; por lo tanto, P = [[v1]B′ [v2]B′ · · · [vn]B′ ] es una matriz invertible.

De otro lado, al multiplicar por P−1 la igualdad [v]B′ = P [v]B , obtenemos

P−1 [v]B′ = [v]B ,

para todo v ∈ V . Por la unicidad de la matriz de transición, podemos concluir que P−1 es la matrizde transición de la base B′ a la base B. ¤

Ejemplo 34: Si B = {1, 1 + x, 1 + x + x2} y B′ son bases de P2 , donde B′ es la base canónica, encontremoslas matrices de transición de una base a la otra y viceversa.

Puesto que B′ es la base canónica, [1]B′ =

100

, [1 + x]B′ =

110

y [1 + x + x2]B′ =

111

, por

consiguiente, la matriz de transición de B a B′ es P =

1 1 10 1 10 0 1

. Calculemos ahora la matriz de

transición de B′ a B, para lo cual tenemos que resolver los sistemas que resultan de cada una de las siguientesecuaciones

1 = a11(1) + a21(1 + x) + a31(1 + x + x2) = (a11 + a21 + a31) + (a21 + a31)x + a31x2

x = a12(1) + a22(1 + x) + a32(1 + x + x2) = (a12 + a22 + a32) + (a21 + a32)x + a32x2

x2 = a13(1) + a23(1 + x) + a33(1 + x + x2) = (a13 + a23 + a33) + (a23 + a33)x + a33x2

Aplicando los algoritmos de eliminación de Gauss y de sustitución hacía atrás a los sistemas de ecuacioneslineales

a11 + a21 + a31 = 1a21 + a31 = 0

a31 = 0,

a12 + a22 + a32 = 0a21 + a32 = 1

a32 = 0,

a13 + a23 + a33 = 0a23 + a33 = 0

a33 = 1,

tenemos que

a11

a21

a31

=

100

,

a12

a22

a32

=

−110

y

a13

a23

a33

=

0−1

1

.

Por tanto, la matriz de transición de B′ a B es

P ′ =

1 −1 00 1 −10 0 1

.

Podemos verificar que PP ′ = I, asi que P−1 = P ′. ¤

CAPÍTULO 4. ESPACIOS VECTORIALES 112

El ejemplo anterior, además de verificar lo establecido en el Teorema 16, nos muestra un hecho importantey que en general es cierto. La matriz de transición de una base a la base canónica es muy fácil de calcular:basta con encontrar los vectores de coordenadas de la base dada en términos de la base canónica; pero,para hallar la matriz de transición de la base canónica a otra base, necesitamos resolver varios sistemas deecuaciones o, equivalentemente, calcular la inversa de la matriz de transición anterior, lo cual, además decostoso en términos de cálculos, es innecesario para hacer un cambio de coordenadas. Recordemos que, paracalcular el producto de la inversa de una matriz por un vector, conociendo la matriz y el vector, el cálculomás eficiente consiste en resolver el sistema de ecuaciones cuya matriz aumentada esta conformada por lamatriz y el vector.

La observación anterior nos permite inferir que una forma eficiente de expresar (no de calcular) la matrizde transición de una base a otra, diferentes a la base canónica, es mediante el producto de la matriz detransición de la primera base a la base canónica por la inversa de la matriz de transición de la segunda basea la base canónica. Esto es, si P1 es la matriz de transición de la base B a la base canónica y P2 es la matrizde transición de la base B′ a la base canónica, entonces P−1

2 P1 es la matriz de transición de la base B a labase B′, como lo ilustra el siguiente gráfico.

V VP−1

2 P1-

Base B Base B′

u = [v]B w = [v]B′

JJ

JJJ

­­

­­­À ­

­­

­­ÁP1

P2 P−12

Base Canónica: Uz = [v]U

z = P2w = P1u

La ecuación que aparece en la parte inferior del gráfico anterior, P2w = P1u, la llamamos ecuación cambiode base ya que permite hallar las coordenadas de un vector en una base a partir de las coordenadas delmismo vector en la otra base.

4.7. Rango y Nulidad de una Matriz

En el Capítulo 2, definimos dos conjuntos importantes relacionados con una matriz A de tamaño m×n, queresultan ser espacios vectoriales. Ellos son el espacio nulo y el espacio columna:

NA = {x ∈ Rn : Ax = 0}y

CA = {b ∈ Rm : Ax = b, para algún x ∈ Rn} ,

respectivamente.

En efecto, por el Teorema 1, para demostrar que dada una matriz A de tamaño m × n, NA y CA sonsubespacios vectoriales de Rn y Rm, respectivamente, basta con demostrar que se satisfacen la propiedadesclausurativas tanto para la suma, como para el producto por escalar (Axiomas 1 y 6 de la definición deespacio vectorial), lo cual hicimos en los Teoremas 3 y 4 del Capítulo 2.

Como NA y CA son espacios vectoriales, tienen base y dimensión. Estas dimensiones son característicasimportantes de la matriz A, por lo que reciben nombres especiales, los cuales presentamos en las siguientesdefiniciones.

CAPÍTULO 4. ESPACIOS VECTORIALES 113

Definición 9: [Nulidad de una Matriz ] Dada una matriz A, definimos ν(A), la nulidad de A, como ladimensión del espacio nulo de A.

Definición 10: [Rango de una Matriz ] Dada una matriz A, definimos ρ(A), el rango de A, como la dimensióndel espacio columna de A.

Ejemplo 35: Determinemos la nulidad y el rango de las matrices

A =

1 1 12 3 11 −1 −2

y B =

1 −2 1 12 0 2 −20 8 0 −8

.

Es fácil ver que la forma escalonada de A es

1 1 10 1 −10 0 −5

y por tanto, el sistema Ax = b tiene solución única para todo b. Así que el espacio nulo y el espacio columnade A son {0} y R3, respectivamente; por consiguiente, ν(A) = 0 y ρ(A) = 3.

De otro lado, la forma escalonada del sistema Bx = c es

1 −2 1 1 c1

0 4 0 −4 c2 − 2c1

0 0 0 0 c3 − 2c2 + 4c1

.

Al resolver el sistema de ecuaciones resultante, por sustitución hacía atrás, para cuando c = 0, obtenemosque

NB =

x3

−1010

+ x4

1101

: x3, x4 ∈ R

,

así que ν(B) = 2. Ahora, puesto que Bx = c sólo tiene solución cuando c3 − 2c2 + 4c1 = 0, tenemos que

CB =

c1

c2

c3

: c3 = −4c1 + 2c2, c1, c2 ∈ R

=

c1

10

−4

+ c2

012

: c1, c2 ∈ R

.

Por consiguiente, ρ(B) = 2. ¤

En el ejemplo anterior, podemos observar del sistema de ecuaciones lineales que se plantea para determinarel núcleo o el rango de una matriz, que la nulidad de una matriz coincide con el número de variables libresy que el rango coincide con el número de variables pivotales, de tal manera que la suma de la nulidad y elrango de la matriz es el número total de variables o de columnas de la matriz del sistema, resultado al quellegaremos después de demostrar un par de resultados previos.

Primero, demostremos que las columnas correspondientes de dos matrices equivalentes4 forman conjuntosde vectores que son ambos l.i. o ambos l.d.

Teorema 17. [Matrices Equivalentes e Independencia lineal ]Si A = [a1 a2 · · · an] y B = [b1 b2 · · ·bn] son matrices equivalentes, entonces {ai1 ,ai2 , . . . ,aik

} es l.i., si ysolo si, {bi1 ,bi2 , . . . ,bik

} es l.i., para todo {i1, i2, . . . , ik} ⊆ {1, 2, . . . , n}.4Recordemos del Capítulo 1 que dos matrices son equivalentes, si y solo si, una de ellas se puede obtener a partir de la otra

mediante operaciones elementales entre filas.

CAPÍTULO 4. ESPACIOS VECTORIALES 114

Demostración: De la teoría del Capítulo 1, sabemos que las soluciones de los sistemas Ax = 0 y Bx = 0

son las mismas. De otro lado, Ax, por definición, es una combinación lineal de los vectores columna deA. Por consiguiente, λ1a1 + λ2a2 + · · · + λnan = 0, si y solo si, λ1b1 + λ2b2 + · · · + λnbn = 0. Enparticular, λi1ai1 + λi2ai2 + · · · + λik

aik= 0, si y solo si, λi1bi1 + λi2bi2 + · · · + λik

bik= 0. Así, que si

λi1ai1+λi2ai2+· · ·+λikaik

= 0 implica que λi1 = λi2 = · · · = λik= 0, entonces λi1bi1+λi2bi2+· · ·+λik

bik=

0 implica que λi1 = λi2 = · · · = λik= 0. Por tanto, {ai1 ,ai2 , . . . ,aik

} es l.i., si y solo si, {bi1 ,bi2 , . . . ,bik}

es l.i. ¤

Ahora, presentemos una forma de encontrar una base del espacio columna de una matriz dada.

Teorema 18. [Base del Espacio Columna de una Matriz ]Dada una matriz A, las columnas de A correspondientes a las columnas pivote de su forma escalonada formanuna base de CA.

Demostración: Sea A = [a1 a2 . . . an] una matriz de tamaño m × n y sea B = [b1 b2 . . . bn] lamatriz escalonada obtenida después de aplicarle el método de eliminación de Gauss. Por el Teorema 17,las columnas {ai1 ,ai2 , . . . ,aik

} de A son l.i., si y solo si, las columnas {bi1 ,bi2 , . . . ,bik} de B son l.i. y,

utilizando el Teorema 6 del Capítulo 2, si {bi1 ,bi2 , . . . ,bik} son las columna pivote de B, ellas son l.i.

Nuevamente, por el Teorema 6 del Capítulo 2, si {bi1 ,bi2 , . . . ,bik} son las columnas pivote de B, entonces

{bi1 ,bi2 , . . . ,bik,bij

}, con j 6= 1, 2, . . . , k, es un conjunto l.d. y, por el Teorema 17, {ai1 ,ai2 , . . . ,aik,aij

} esun conjunto l.d. Ahora, por el Teorema 5, tenemos que Gen{ai1 ,ai2 , . . . ,aik

,aij} = Gen{ai1 ,ai2 , . . . ,aik

}.Al seguirle adjuntando, al conjunto {ai1 ,ai2 , . . . ,aik

,aij}, los otros vectores columna y utilizando cada vez el

mismo resultado del Teorema 5, tenemos que Gen{a1,a2, . . . ,an} = Gen{ai1 ,ai2 , . . . ,aik}. Por consiguiente,

las columnas {ai1 ,ai2 , . . . ,aik}, generan el espacio columna de A y, por lo tanto, forman una base de CA.¤

Ejemplo 36: Encontremos una base de V = Gen

1−1

12

,

−10

−2−1

,

2151

,

124

−1

,

3390

.

Sea A la matriz cuyas columnas son los vectores del conjunto generador. Es decir, sea A =

1 −1 2 1 3−1 0 1 2 3

1 −2 5 4 92 −1 1 −1 0

,

cuya forma escalonada es B =

1 −1 2 1 30 −1 3 3 60 0 0 0 00 0 0 0 0

. Como la primera y segunda columna de B son sus

columna pivotales, por el teorema anterior, podemos concluir que la primera y segunda columna de A,

1−1

12

y

−10

−2−1

forman una base de V . ¤

Ejemplo 37: Encontremos una base de P2 contenida en {1 − x, x − 2x2,−2 + 2x, 1 − 2x2, 1 + x − x2}.

Si B es la base canónica de P2, entonces [1−x]B =

1−1

0

, [x−2x2]B =

01

−1

, [−2+2x]B =

−220

,

[1 − 2x2]B =

10

−2

y [1 + x − x2]B =

11

−1

. Por el Teorema 14, un conjunto de vectores es l.i., si y

solo si, sus vectores de coordenadas respecto a una base dada son l.i. Asi que basta con identificar, de losvectores [1 − x]B, [x − 2x2]B, [−2 + 2x]B, [1 − 2x2]B, [1 + x − x2]B, cuales forman un conjunto l.i.

CAPÍTULO 4. ESPACIOS VECTORIALES 115

Al calcular la forma escalonada de la matriz cuyas columnas son los vectores de coordenadas de los polinomios

dados, obtenemos

1 0 −2 1 10 1 0 1 20 0 0 −1 1

. Por lo tanto, podemos concluir que los polinomios correspon-

dientes a las columnas pivotales de esta forma escalonada (1o, 2o y 4o) forman una base de P2; es decir,{1 − x, x − 2x2, 1 − 2x2} es una base de P2. ¤

Después de estos resultados, estamos en capacidad de demostrar el teorema que habíamos anunciamos, lasuma de la nulidad y el rango de una matriz es igual al número de columnas de ella.

Teorema 19. [Relación entre Nulidad y Rango de una Matriz ]Dada una matriz A de tamaño m × n,

ν(A) + ρ(A) = n.

Demostración: Sean {w1,w2, . . . ,wr} una base de NA, {v1,v2, . . . ,vk} una base de CA y u1,u2, . . . ,uk

vectores de Rn tales que Auj = vj , para j = 1, 2, . . . , k. Veamos que {w1,w2, . . . ,wr,u1,u2, . . . ,uk} formanuna base de Rn, con lo que quedaría demostrado el teorema.

Para tal efecto, comencemos por demostrar que {w1,w2, . . . ,wr,u1,u2, . . . ,uk} es un conjunto l.i. Sea

α1w1 + α2w2 + . . . + αrwr + β1u1 + β2u2 + . . . + βkuk = 0

Al multiplicar ambos lados de la igualdad anterior por la matriz A y teniendo en cuenta que A(αiwi) =αiAwi = 0 y A(βjuj) = βj(Auj) = βjvj , obtenemos

β1v1 + β2v2 + . . . + βkvk = 0.

Por la independencia de {v1,v2, . . . ,vk}, concluimos que β1 = β2 = . . . = βk = 0, y por tanto,

α1w1 + α2w2 + . . . + αrwr + β1u1 + β2u2 + . . . + βkuk = α1w1 + α2w2 + . . . + αrwr = 0.

Ahora, por la independencia de {w1,w2, . . . ,wr}, tenemos que α1 = α2 = . . . = αr = 0.

Para demostrar que {w1,w2, . . . ,wr,u1,u2, . . . ,uk} genera a Rn, tomemos un vector v de Rn. Sean β1, β2, . . . , βk

escalares tales que Av = β1v1 +β2v2 + . . .+βkvk. Construyamos los vectores u = β1u1 +β2u2 + . . .+βkuk

y z = v − u. Como Az = Av − Au y

Au = β1Au1 + β2Au2 + . . . + βkAuk = β1v1 + β2v2 + . . . + βkvk = Av,

entonces z ∈ NA. Por lo tanto, existen escalares α1, α2, . . . , αk, tales que z = α1w1 + α2w2 + . . . + αrwr.Como v = z + u, concluimos que existen escalares α1, α2, . . . , αk, β1, β2, . . . , βk, tales que

v = α1w1 + α2w2 + . . . + αrwr + β1u1 + β2u2 + . . . + βkuk.

¤

Corolario 19.1

Dada una matriz A de tamaño m× n, su nulidad es igual al número de variables libres del sistema Ax = 0.

Demostración: Por el Teorema 19, tenemos que ν(A) + ρ(A) = n y, por el Teorema 18, tenemos que lascolumnas de A, correspondientes a las columnas pivote de su forma escalonada, forman una base de CA, asique ρ(A) es el número de columnas pivote. Por consiguiente, ν(A) es el número de variables no pivotales; esdecir, el número de variables libres. ¤

Ejemplo 38: Verifiquemos el resultado del Teorema 19 usando las matrices del Ejemplo 35.

La matriz A tiene 3 columnas, ν(A) = 0 y ρ(A) = 3. La matriz B tiene 4 columnas, ν(B) = 1 y ρ(B) = 3. ¤

Ejemplo 39: Si tenemos un sistema de 15 ecuaciones con 20 incógnitas, qué podemos decir de las solucionesdel sistema, si sabemos que el espacio nulo tiene dimensión 5?

CAPÍTULO 4. ESPACIOS VECTORIALES 116

Sea A la matriz de coeficientes del sistema. Entonces A tiene 15 filas y 20 columnas. Puesto que ν(A) = 5,ρ(A) = 20 − 5 = 15. Como, CA ⊆ R15 y ρ(A) = 15,por el Teorema 13, CA = R15. Es decir, todo vectorde R15 es combinación lineal de las columnas de A, asi que el sistema siempre tiene solución; además, soninfinitas. ¤

Sabiendo que el conjunto generado por las filas de una matriz es un espacio vectorial, nos preguntamos cómoencontrar una base y/o su dimensión y cuáles son sus relaciones con los espacio columna y nulo de la mismamatriz. Comencemos por definir y ver algunos resultados del espacio generado por las filas en si y luegoestableceremos algunas relaciones con las dimensiones de los espacios columna y nulo.

Definición 11: [Espacio Fila] Dada la matriz A de tamaño m×n, definimos FA, el espacio fila de A, comoel espacio generado por los vectores formados por las filas de A.

Ejemplo 40: Dada la matriz A =

2 −1 0 24 −1 −3 30 −3 −3 −1

, escribamos el espacio fila de A, una base del

mismo y su dimensión.

Por la Definición 11, el espacio fila de A es

FA =

y ∈ R4, y = α1

2−1

02

+ α2

4−1−3

3

+ α3

01

−3−1

, αi ∈ R

.

Para encontrar una base de FA, basta determinar cuales de los vectores formados por las filas de A son l.i.,para lo cual, escalonamos la matriz cuyas columnas son dichos vectores, es decir, la matriz AT . Escalonandola matriz

AT =

2 4 0−1 −1 1

0 −3 −32 3 −1

, obtenemos

2 4 00 1 10 0 00 0 0

;

de donde podemos afirmar que los vectores

2−1

02

y

4−1−3

3

(la 1a. y 2a. columna de AT ) son l.i.; por

lo tanto, forman una base de FA y dim(FA) = 2. ¤

A diferencia de lo que ocurre entre los espacios columna de las matrices respectivas, al aplicar una operaciónelemental entre filas a una matriz, las filas de la nueva matriz generan el mismo espacio que las de la matrizinicial como veremos en el siguiente teorema.

Teorema 20. [Base del Espacio Fila de una Matriz ]Si las matrices A y B son equivalentes, entonces FA = FB y si B es una matriz escalonada, los vectoresformados por las filas de B, diferentes a cero, son l.i. y por tanto, forman una base de FB .

Demostración: Basta demostrar que si B es la matriz que se obtiene al aplicarle una operación elemental aA, entonces FA = FB . Sean f1, f2, . . . , fm los vectores formados por las filas de la matriz A. Si la operaciónes de tipo permutación, los vectores formados por las filas de las dos matrices son los mismos y por tanto, losespacios generados por las filas también son los mismos. Si la operación es de tipo escalamiento, cFi −→ Fi,es fácil ver que si w = λ1f1 + . . . + λifi + . . . + λmfm, entonces w = λ1f1 + . . . + λi

ccfi + . . . + λmfm y por

tanto, los espacios generados por las filas de las dos matrices son los mismos. Y si la operación es de tipoeliminación, Fi + cFj −→ Fi, podemos ver que si w = λ1f1 + . . . + λi(fi + cfj) + . . . + λjfj + . . . + λmfm,entonces w = λ1f1 + . . . + λifi + . . . + (λj + cλi)fj + . . . + λmfm y por tanto, los espacios generados por lasfilas de las dos matrices son iguales.

CAPÍTULO 4. ESPACIOS VECTORIALES 117

La demostración de que los vectores formados por las filas de la forma escalonada, diferentes a cero, son l.i.,la dejamos como ejercicio al lector. ¤

Ejemplo 41: Utilicemos el Teorema 20 para encontrar otra base de FA, siendo A la matriz dada en elEjemplo 40.

Al escalonar la matriz A dada en el Ejemplo 40, obtenemos la matriz U =

2 −1 0 20 1 −3 −10 0 0 0

. Clara-

mente, los vectores formados por las dos primeras filas de U , B =

2−1

02

,

01

−3−1

, son l.i.; por lo

tanto, son una base de FU . Como A y U son matrices equivalentes, por el Teorema 20, FU = FA, entonces,B es también una base de FA. ¤

Observemos que la dimensión del espacio columna de una matriz es el número de columnas pivote de suforma escalonada y, en la forma escalonada, cada fila diferente de cero contiene un pivote, lo que implicaque las dimensiones de los espacios fila y columna son la mismas, lo que planteamos, sin demostración, en elsiguiente teorema.

Teorema 21. [Relación entre Espacio Columna y Espacio Fila de una Matriz ]Dada cualquier matriz A, dimCA = dimFA.

A lo largo de esta sección, hemos obtenido varios resultados que relacionan los sistemas de ecuaciones linealescon los conceptos básicos del álgebra lineal de una matriz, los cuales consignaremos en dos teoremas resumen.La demostración de la mayoría de las implicaciones ya las hemos hecho.

Teorema 22. [Resumen 1 ]Sea A una matriz m × n. Entonces las siguientes afirmaciones son equivalentes.

1. El número de pivotes de la forma escalonada de A es n.

2. Los vectores columna de A son l.i.

3. ρ(A) = n

4. dimCA = n.

5. ρ(AT ) = n

6. dimFA = n.

7. ν(A) = 0.

8. NA = {0}.

9. El sistema Ax = 0 tiene sólo la solución trivial.

Teorema 23. [Resumen 2 ]Sea A una matriz m × n. Entonces las siguientes afirmaciones son equivalentes.

1. El número de pivotes de la forma escalonada de A es m.

2. Los vectores columna de A generan a Rm.

3. ρ(A) = m

4. dimCA = m.

CAPÍTULO 4. ESPACIOS VECTORIALES 118

5. ρ(AT ) = m

6. dimFA = m.

7. Cada fila de la forma escalonada de A contiene un pivote.

8. ν(A) = n − m.

9. El sistema Ax = b tiene solución para todo b.

Corolario 23.1 Sea A una matriz n × n. Entonces las siguientes afirmaciones son equivalentes.

1. El número de pivotes de la forma escalonada de A es n.

2. Los vectores columna de A generan a Rn.

3. Los vectores columna de A forman un conjunto l.i.

4. Los vectores columna de A forman una base de Rn

5. ρ(A) = n

6. dimCA = n.

7. dimFA = n.

8. Cada fila de la forma escalonada de A contiene un pivote.

9. ν(A) = 0.

10. El sistema Ax = b tiene solución única para todo b.

11. La matriz A es invertible.

12. detA 6= 0.

4.8. Producto Escalar y Bases Ortonormales en Rn

En el Capítulo 2, para los vectores de Rn, definimos otra operación además de la suma y el productopor escalar: el producto punto o producto escalar. Esta operación nos permitió caracterizar los vectoresortogonales: dos vectores u y v de Rn son ortogonales, si y solo si, su producto escalar es 0. En general, si enun espacio vectorial definimos una operación que cumpla ciertas propiedades básicas como las del productoescalar, podemos extender el concepto de ortogonalidad.5 Sin embargo, en esta sección, nos limitaremos aestudiar las principales propiedades que tiene un conjunto de vectores ortogonales en Rn, las cuales tambiénse pueden extender a cualquier espacio vectorial dotado con una operación como el producto escalar.

Para empezar, recordemos que el concepto de ortogonalidad está definido entre dos vectores de Rn. Habla-remos de un conjunto de vectores ortogonales, cuando tenemos un conjunto de vectores que dos a dos sonortogonales, como lo planteamos en la siguiente definición.

5El producto escalar definido en Rn es solo un caso particular de lo que conocemos como Producto Interno de un espaciovectorial, y un producto interno en un espacio vectorial V es una función que asigna a cada par de vectores u,v ∈ V un númeroreal 〈u,v〉 y satisface las siguientes propiedades, para todo u,v,w ∈ V y todo α ∈ R,

1. 〈u,v〉 = 〈v,u〉.

2. 〈(u + v),w〉 = 〈u,w〉 + 〈v,w〉.

3. α 〈u,v〉 = 〈αu,v〉.

4. 〈u,u〉 ≥ 0 y 〈u,u〉 = 0, si y solo si, u = 0.

CAPÍTULO 4. ESPACIOS VECTORIALES 119

Definición 12: [Conjunto Ortogonal ] Diremos que un conjunto de vectores {v1,v2, . . . ,vm} de Rn es orto-gonal, si cualquier par de vectores diferentes, de este conjunto, son ortogonales. Es decir, si vi · vj = 0, paratodo i 6= j.

Ejemplo 42: Veamos que cualquier subconjunto del conjunto de vectores {e1, e2, . . . , en} de Rn es ortogonal.

Es fácil ver que ei · ej = 0 para todo i 6= j, ya que las únicas componentes de ei y ej diferentes de cero sonla i-ésima y la j-ésima, respectivamente; por tanto, el producto de componente por componente es cero. ¤

Los conjuntos ortogonales satisfacen propiedades muy importantes, una de ellas es que son linealmenteindependientes y su demostración es trivial.

Teorema 24. [Ortogonalidad e Independencia Lineal ]Si S = {v1,v2, . . . ,vk} es un conjunto de vectores ortogonales de Rn, entonces S es un conjunto de vectoresl.i.

Demostración: Expresemos 0 como combinación lineal de v1,v2, . . . ,vk,

0 = λ1v1 + λ2v2 + . . . + λkvk (4.9)

y verifiquemos que λ1 = λ2 = . . . = λk = 0.

Al multiplicar escalarmente la ecuación (4.9) por vi, obtenemos 0·vi = λivi ·vi, ya que por ser S un conjuntoortogonal, vi · vj = 0, para i 6= j. Así que

λi =0 · vi

vi · vi

= 0 para i = 1, 2, . . . , k.

¤

Siguiendo un razonamiento muy similar al de esta última demostración, podemos calcular fácilmente loscoeficientes de la combinación lineal de vectores ortogonales para un vector dado del subespacio generadopor ellos, como lo ilustra el siguiente teorema.

Teorema 25. [Ortogonalidad y Combinación Lineal ]Dado un conjunto de vectores ortogonales S = {v1,v2, . . . ,vk} de Rn, si u ∈ Gen S; es decir, si

u = λ1v1 + λ2v2 + . . . + λkvk, (4.10)

entoncesλi =

u · vi

vi · vi

para todo i = 1, 2, . . . , k.

Demostración: Al multiplicar escalarmente la ecuación (4.10) por vi, obtenemos u · vi = λivi · vi, ya quepor ser S un conjunto ortogonal, vi · vj = 0, para i 6= j. De donde,

λi =u · vi

vi · vi

para i = 1, 2, . . . , k.

¤

Ejemplo 43: Dado el conjunto S =

112

,

02

−1

,

−512

, verifiquemos que S es un conjunto

ortogonal y escribamos el vector

−3−3

3

como combinación lineal de los vectores de S.

El conjunto S es ortogonal, ya que

112

·

02

−1

= 0 + 2 − 2 = 0 ,

02

−1

·

−512

= 0 + 2 − 2 = 0

CAPÍTULO 4. ESPACIOS VECTORIALES 120

y

112

·

−512

= −5 + 1 + 4 = 0 .

Por el Teorema 25, basta con calcular

−3−3

9

·

112

= −3 − 3 + 18 = 12 ,

112

·

112

= 1 + 1 + 4 = 6

−3−3

3

·

02

−1

= 0 − 6 − 3 = −9 ,

02

−1

·

02

−1

= 0 + 4 + 1 = 5

−3−3

3

·

−512

= 15 − 3 + 6 = 18 y

−512

·

−512

= 25 + 1 + 4 = 30

y calcular los cocientes12

6= 2,

−9

5= −1,8 y

18

30= 0,6 , para concluir que

−3−3

3

S

=

12/6−9/518/30

=

2,0−1,8

0,6

.

¤

La ortogonalidad de un conjunto de vectores se puede caracterizar en términos del producto de una matrizcon su transpuesta, como se expresa en el interesante resultado del siguiente teorema.

Teorema 26. [Caracterización de un Conjunto Ortogonal ]Sea A una matriz cuyas columnas son los vectores v1,v2, . . . ,vm ∈ Rn−0. Entonces, S = {v1,v2, . . . ,vn} esun conjunto ortogonal de vectores, si y solo si, AT A = D = (dij) es una matriz diagonal; además, dii = ‖vi‖2.

Demostración: Al realizar el producto de las matrices AT y A, tenemos que si D = AT A,

dij = fili(AT ) · colj(A) = vi · vj

y puesto que vi · vj = 0, si y solo si, vi y vj son ortogonales, entonces

dij =

{

‖vi‖2 si i = j0 si i 6= j

,

si y solo si, vi y vj son ortogonales. ¤ , son unitarios, les llamamos de una manera especial.

Definición 13: [Conjunto Ortonormal ] Diremos que un conjunto de vectores {v1,v2, . . . ,vk} de Rn esortonormal si, además de ser un conjunto ortogonal, cada uno de los vectores vi es unitario. En otraspalabras, si

vi · vj =

{

1 si i = j0 si i 6= j.

Ejemplo 44: Cualquier subconjunto no vacio de la base canónica de Rn es un conjunto ortonormal devectores. ¤

Ejemplo 45: Verifiquemos que B =

1/√

3

1/√

3

−1/√

3

,

2/√

14

1/√

14

3/√

14

es un conjunto ortonormal.

CAPÍTULO 4. ESPACIOS VECTORIALES 121

En efecto,

1/√

3

1/√

3

−1/√

3

·

1/√

3

1/√

3

−1/√

3

=(

1/√

3)2

+(

1/√

3)2

+(

−1/√

3)2

= 1,

1/√

3

1/√

3

−1/√

3

·

2/√

14

1/√

14

3/√

14

= 2/√

52 + 1/√

52 − 3/√

52 = 0

2/√

14

1/√

14

3/√

14

·

2/√

14

1/√

14

3/√

14

=(

2/√

14)2

+(

1/√

14)2

+(

3/√

14)2

= 1

¤

Definición 14: [Base Ortonormal ] Si B es una base del subespacio V de Rn y al mismo tiempo es unconjunto ortonormal de vectores, diremos que B es una base ortonormal de V .

Ejemplo 46: La base canónica de Rn es una base ortonormal puesto que , además de ser una base de Rn,es un conjunto ortogonal y cada uno de sus elementos tiene norma 1. ¤

Por el resultado del Teorema 25, una de las ventajas de tener una base ortonormal de un subespacio de Rn esque podemos encontrar fácilmente los coeficientes de la combinación lineal de cualquier vector del subespacioen dicha base.

Teorema 27. [Ortonormalidad y Combinación Lineal ]Si B = {v1,v2, . . . ,vk} es una base ortonormal de un subespacio V de Rn y u está en V , entonces

u = λ1v1 + λ2v2 + . . . + λkvk, donde λi = u · vi para i = 1, 2, . . . , k.

Demostración: Por ser B una base de V , cualquier vector u de V , se puede escribir como combinación linealde los vectores de B, u = λ1v1 + λ2v2 + . . . + λkvk, y, por el Teorema 25, tenemos que λi = u·vi

vi·vipara i =

1, 2, . . . , k. Ahora, como los vectores de B son unitarios, λi = u · vi. ¤

Ejemplo 47: Sean V = Gen B, u =

322

y w =

−102

, donde B es el conjunto dado en el Ejemplo

45. Determinemos si u y w pertenecen a V.

Como B es un conjunto ortonormal, B es un conjunto l.i. y, puesto que por definición de V , B genera a V ,tenemos que B es una base ortonormal de V . Sean v1 y v2 los vectores de B. Para determinar si u ∈ V ,debemos encontrar escalares α1 y α2 tales que u = α1v1 + α2v2. De otro lado, si u ∈ V , por el Teorema 27,α1 = u · v1 = 3√

3=

√3 y α2 = u · v2 = 14√

14=

√14. En efecto, podemos verificar que u =

√3v1 +

√14v2;

por lo tanto, u ∈ V .

En forma similar, para determinar si w ∈ V , debemos encontrar escalares α1 y α2 tales que u = α1v1+α2v2.Como B es una base ortonormal de V , si w ∈ V , por el Teorema 27, α1 = w · v1 = −3√

3= −

√3 y

α2 = w ·v2 = 4√14

. Pero, como α1v1 + α2v2 = −√

3v1 + 4√14

v2 = 1

7

−3−513

6= w, concluimos que el vector

w no pertenece al subespacio V . ¤

CAPÍTULO 4. ESPACIOS VECTORIALES 122

4.9. Proyección ortogonal

Comparando el resultado del Teorema 27 con los procedimientos requeridos para calcular el vector de coor-denadas de un vector en una base ordenada que no es ortogonal, resulta importante preguntarnos si todos lossubespacios vectoriales de Rn tienen bases ortonormales, lo que respondemos afirmativamente al final de estasección, donde además, ilustramos cómo, a partir de una base del subespacio, podemos encontrar una baseortonormal para el mismo subespacio. Para facilitar la comprensión de dicho procedimiento, generalicemosel concepto de proyección ortogonal de un vector sobre otro, a la proyección ortogonal de un vector sobre unsubespacio de Rn, para lo cual introducimos la siguiente definición.

Definición 15: [Ortogonalidad a un Subespacio] Diremos que un vector u ∈ Rn es ortogonal a un subespacioS de Rn, si y solo si, el vector u es ortogonal a todos y cada uno de los vectores del subespacio S; es decir,

u · v = 0 para todo v ∈ S.

Ejemplo 48: Sea S el subespacio definido por un hiperplano que pasa por el origen en Rn. Por la definiciónde hiperplano, su vector normal es ortogonal a S. ¤

Afortunadamente, no es necesario verificar los infinitos productos escalares que la anterior definición sugierepara verificar la ortogonalidad de un vector a un subespacio; en realidad, es suficiente y necesario que elvector sea ortogonal a un conjunto generador del subespacio, como lo plantea el siguiente teorema.

Teorema 28. [Caracterización de Ortogonalidad de una Vector a un Subespacio]Un vector u ∈ Rn es ortogonal al subespacio S = Gen{v1,v2, . . . ,vk}, si y solo si, el vector u es ortogonala los vectores v1,v2, . . . ,vk.

Demostración: Si el vector u es ortogonal a S, por la Definición 15, u es ortogonal a todos los vectores de S,y en particular, u es ortogonal a vi para i = 1, 2, . . . k. En el otro sentido, si u es ortogonal a v1,v2, . . . ,vk,entonces u · vi = 0 para i = 1, 2 . . . k. Sea v ∈ S, entonces existen escalares α1, α2 . . . αk tales que

v = α1v1 + α2v2 + . . . + αkvk,

por lo tanto,u · v = α1u · v1 + α2u · v2 + . . . + αku · vk = 0.

Es decir, u es ortogonal a todo v ∈ S, y por definición, u es ortogonal a S. ¤

Ejemplo 49: Verifiquemos que u = (−1,−1, 2)T es ortogonal al plano

P = {(x, y, z)T , x + y − 2z = 0, x, y, z ∈ R}.

Observemos que P =

2z − yyz

, y, z ∈ R

=

y

−110

+ z

201

, y, z ∈ R

; por lo tanto, los

vectores v1 = (−1, 1, 0)T y v2 = (2, 0, 1)T generan al plano P. Como el vector u es ortogonal a los vectoresv1 y v2 (u · v1 = 0 y u · v2 = 0), por el Teorema 28, u es ortogonal al plano P.6 ¤

De la misma forma como un vector de Rn se puede descomponer como la suma de dos vectores ortogonales,con uno de ellos en la dirección de otro vector dado, podemos utilizar el concepto de ortogonalidad de unvector a un subespacio para expresar cualquier vector de Rn como la suma de dos vectores ortogonales,con uno de ellos perteneciente al subespacio. Además, este último vector define el punto del subespacio máscercano al punto definido por el vector inicial. Precisemos estas ideas en el siguiente teorema.

6Usando los conceptos de la última sección del Capítulo 2, también podemos verificar que u es ortogonal al plano P,observando que u es paralelo a n = (1, 1,−2), un vector normal del plano P.

CAPÍTULO 4. ESPACIOS VECTORIALES 123

Teorema 29. [Proyección Ortogonal sobre un Subespacio]Sean S un subespacio de Rn y u un vector arbitrario de Rn. Entonces, existe un único vector v ∈ S tal que

1. uc = u − v es ortogonal al subespacio S.

2. ||uc|| ≤ ||u − y|| para todo y ∈ S.

Al vector uc lo llamamos la componente de u ortogonal a S y al vector v = ProySu, la proyección ortogonalde u en S.

Demostración: Sean {v1,v2, . . . ,vk} una base de S y A la matriz [v1 v2 . . . vk].

1. Demostrar la existencia de v ∈ S tal que uc = u − v es ortogonal a S es equivalente a demostrar laexistencia de un vector x = (α1, α2, · · · , αn)T tal que uc = u − v = u − Ax sea ortogonal a S, ya quepor definición de base, si v ∈ S, existen escalares α1, α2, . . . , αk tales que v = α1v1 +α2v2 + . . .+αkvk.Ahora, uc = u − Ax es ortogonal a S, si y solo si, vi · (u − Ax) = 0, para toda i = 1, 2, . . . , n o loque es equivalente, AT (u − Ax) = 0 o AT Ax = AT u. Pero, como AT A es invertible (ver ejercicio),entonces AT Ax = AT u tiene solución única y por tanto, v = Ax es el único vector tal que uc = u− v

es ortogonal a S.

2. Sea y un vector arbitrario de S. Como ProySu ∈ S, ProySu − y ∈ S. Así,

||u − y|| = ||u − ProySu + ProySu − y|| = ||uc + ProySu − y||

Como uc es ortogonal a S, en particular, uc es ortogonal a ProySu − y. Asi que, por el Teorema dePitágoras,

||u − y||2 = ||uc||2 + ||ProySu − y||2.De donde concluimos que

||u − y||2 ≥ ||uc||2

. ¤

Ejemplo 50: Encontremos la proyección ortogonal de u = (1,−1, 0, 2)T en el hiperplano

H = {(x, y, z, w)T , x − z + w = 0, x, y, z, w ∈ R}.

Observemos que H =

xy

x + ww

, x, y, w ∈ R

=

x

1010

+ y

0100

+ w

0011

, x, y, w ∈ R

;

por lo tanto, los vectores v1 = (1, 0, 1, 0)T , v2 = (0, 1, 0, 0)T y v3 = (0, 0, 1, 1)T generan a H. ComoB = {v1,v2,v3} es un conjunto l.i. (ejercicio), B es una base de H.

Por el Teorema 29, ProyHu = Ax, donde A = [v1 v2 v3] y x es la solución de AT Ax = AT u. Como

AT A =

2 0 10 1 01 0 2

, AT u =

1−12

y al aplicarle el algoritmos de Eliminación de Gauss + Sustitución hacia atrás a la matriz aumentada

2 0 1 10 1 0 −11 0 2 2

obtenemos

1 0 0 00 1 0 −10 0 1 1

, la solución de AT Ax = AT u es x = (0,−1, 1)T y

ProyHu = Ax = (0,−1, 1, 1)T .

CAPÍTULO 4. ESPACIOS VECTORIALES 124

¤

De los resultados presentados en el teorema anterior, es importante que destaquemos dos aspectos importan-tes. Primero, el teorema nos garantiza la existencia de un punto en cualquier subespacio de Rn que minimizala distancia de un punto dado de Rn a los puntos del subespacio y que dicha distancia mínima, la cualllamamos distancia del punto al subespacio, es la magnitud de la componente del punto dado ortogonal alsubespacio, lo cual es muy importante en los procesos de aproximación por Mínimos Cuadrados Lineales7

Ejemplo 51: Calculemos la distancia del vector u al hiperplano H, para u y H dados en el Ejemplo 50.

Por la observación anterior, la distancia de u a H es la norma de uc = u − ProyHu, la componente de u

ortogonal a H; es decir,||uc|| = ||u − ProyHu|| = ||(1, 0,−1, 1)T || =

√3.

¤

Segundo, observemos que, aunque no es necesario, si en la demostración anterior, hubiésemos escogido unabase ortogonal del subespacio, por el Teorema 26, AT A = D; o si hubiésemos escogido una base ortonor-mal, por el mismo Teorema 26, AT A = I y el cálculo de ProySu se hubiese simplificado. En efecto, si{v1,v2, . . . ,vk} es una base ortogonal de S (ejercicio),

ProySu =u · v1

v1 · v1

v1 +u · v2

v2 · v2

v2 + . . . +u · vk

vk · vk

vk, (4.11)

o si {v1,v2, . . . ,vk} es una base ortonormal de S (ejercicio),

ProySu = (u · v1)v1 + (u · v2)v2 + . . . + (u · vk)vk. (4.12)

Sin embargo, no lo hicimos asi para no dar la falsa impresión que la proyección ortogonal requiere de unabase ortogonal y porque aun no hemos demostrado que todo subespacio de Rn tiene una base ortogonal.

Ejemplo 52: Encontremos la proyección ortogonal de w en V , para el vector w y el subespacio V dados enel Ejemplo 47.

Teniendo en cuenta los datos y la notación del Ejemplo 47, como B es una base ortonormal de V , por laEcuación (4.12), tenemos que

ProyV w = [w · v1]v1 + [w · v2]v2

=

[−3√3

]

1√3

11−1

+

[

4√14

]

1√14

213

=

−1−11

+1

7

426

=1

7

−3−513

.

¤

Observemos también que como ProySu ∈ S y uc = u − ProySu, entonces

Gen{v1,v2, . . . ,vk,u} = Gen{v1,v2, . . . ,vk,uc}, (4.13)

donde {v1,v2, . . . ,vk} es una base de S.

Con base en este resultado, veamos como obtener una base ortogonal y una base ortonormal para cualquiersubespacio de Rn, a partir de una base del subespacio, y demostrar asi la existencia de bases ortogonales yortonormales para todo subespacio de Rn.

7El problema de Mínimos Cuadrados Lineales consiste en hallar el vector x ∈ Rn tal que minimice ||Ax − b||, para unamatriz A de tamaño m×n y un vector b dados. En este mismo contexto, el sistema de ecuaciones lineales, AT Ax = AT u, el cualproporciona la(s) solución(es) del problema de mínimos cuadrados lineales, se conoce con el nombre de Ecuaciones Normales.

CAPÍTULO 4. ESPACIOS VECTORIALES 125

Teorema 30. [Proceso de Ortogonalización de Gram-Schmidt ]Todo subespacio S de Rn, S 6= {0}, tiene al menos una base ortonormal.

Demostración: Sea S un subespacio de Rn diferente de {0}. Por el Teorema 6, existe al menos una basede S. Sea B = {v1,v2, . . . ,vk} una base de S. Construyamos, a partir de esta base, a B′ = {u1,u2, . . . ,uk},una base ortogonal de S y luego la normalizamos para terminar con una base ortonormal.

La idea de la demostración es definir a ui como la componente de vi ortogonal al subespacio generado porlos vectores u1,u2, . . . ,ui−1, previamente definidos, empezando con u1 = v1 y el subespacio Gen{u1}. Asi,u2 es la componente de v2 ortogonal al subespacio Gen{u1}, por lo tanto,

u2 = v2 −v2 · u1

u1 · u1

u1

y por (4.13),Gen{v1,v2} = Gen{u1,v2} = Gen{u1,u2}.

Supongamos que de esta forma, hemos construido el conjunto de vectores ortogonal {u1,u2, . . . ,ui−1} talque Gen{v1,v2, . . .vi−1} = Gen{u1,u2, . . . ,ui−1}. Definamos ui como la componente de vi ortogonal alsubespacio Gen{u1,u2, . . . ,ui−1}. Por lo tanto,

ui = vi −(

vi · u1

u1 · u1

u1 +vi · u2

u2 · u2

u2 + . . . +vi · ui−1

ui−1 · ui−1

ui−1

)

y por (4.13),

Gen{v1,v2, . . .vi−1,vi} = Gen{u1,u2, . . . ,ui−1,vi}= Gen{u1,u2, . . . ,ui−1,ui},

lo cual podemos continuar hasta i = k, obteniendo asi un conjunto ortogonal de k vectores que genera a Sy por consiguiente, es una base ortogonal de S. Finalmente, es fácil verificar que

{

u1

||u1||,

u2

||u2||, . . . ,

uk

||uk||

}

es una base ortonormal de S. ¤

Ejemplo 53: Encontremos una base ortogonal y otra ortonormal del hiperplano H dado en el Ejemplo 50.

En el Ejemplo 50, demostramos que los vectores v1 = (1, 0, 1, 0)T , v2 = (0, 1, 0, 0)T y v3 = (0, 0, 1, 1)T

forman una base de H. Siguiendo las ideas sugeridas en la demostración del Teorema 30 para construir unabase ortogonal, sean u1 = v1,

u2 = v2 −v2 · u1

u1 · u1

u1 =

0100

− 0

2

1010

=

0100

y

u3 = v3 −v3 · u1

u1 · u1

u1 −v3 · u2

u2 · u2

u1 =

0011

− 1

2

1010

− 0

1

0100

=1

2

−1012

.

Finalmente, si normalizamos los vectores de {u1,u2,u3}, la cual es una base ortogonal de H, obtenemos

1√2

1010

,

0100

,1√6

−1012

,

que es una base ortonormal de H. ¤

CAPÍTULO 4. ESPACIOS VECTORIALES 126

4.10. Factorización QR

De la misma forma como el algoritmo de Eliminación de Gauss nos permitió factorizar una matriz como elproducto de dos matrices triangulares, una inferior y otra superior, el Proceso de Gram-Schmidt nos permitefactorizar una matriz como el producto de dos matrices, una ortonormal y otra triangular superior. Aunqueel resultado es válido para cualquier matriz de tamaño m×n, en el siguiente teorema, nos limitamos al casode las matrices de rango completo (matrices cuyo rango es igual al numero de columnas; es decir, matricescuyas columnas son l.i.)

Teorema 31. [Factorización QR]Para toda matriz A de tamaño m×n, cuyas columnas son l.i., existe una matriz Q de tamaño m×n, cuyascolumnas forman un conjunto ortonormal, y una matriz triangular superior R de tamaño n × n tales que

A = QR.

Demostración: Sea A = [a1 a2 . . . an], cuyas columnas aj ∈ Rm, j = 1, 2, . . . , n son l.i. Por el Teorema18, {a1,a2, . . . ,an} es una base de CA, el espacio columna de A. Por el Teorema 30, existe {u1,u2, . . . ,un},una base ortogonal de CA, tal que u1 = a1 y

uj = aj −(

aj · u1

u1 · u1

u1 +aj · u2

u2 · u2

u2 + . . . +aj · uj−1

uj−1 · uj−1

uj−1

)

,

para j = 2, . . . , n. Reescribiendo estas ecuaciones, tenemos que a1 = u1 y

aj =

(

aj · u1

u1 · u1

u1 +aj · u2

u2 · u2

u2 + . . . +aj · uj−1

uj−1 · uj−1

uj−1

)

+ uj ,

para j = 2, . . . , n. Si Q = [u1 u2 . . . un], las anteriores ecuaciones las podemos escribir como

aj = Qrj , para j = 1, 2, . . . n,

donde rij , la componente i de rj , es

rij =

aj ·ui

ui·uisi i < j

1 si i = j0 si i > j.

para i = 1, 2, . . . , n. (4.14)

Si R = [r1 r2 . . . rn], tenemos que A = QR. Sea D la matriz diagonal con dii = ||ui||, la cual es invertible,y sean Q = QD−1 y R = DR. Las matrices que buscamos son Q y R, ya que

1. La matriz Q tiene columnas ortonormales: Por el Teorema 26, QT Q = D2; por lo tanto,

QT Q = (QD−1)T (D−1Q) = D−1(QT Q)D−1 = D−1D2D−1 = In

2. La matriz R es triangular superior: Porque R es triangular superior y D es diagonal.

3. A = QR: Por la definición de Q y R, tenemos que

QR = (QD−1)(DR) = Q(D−1D)R = QR = A

¤

Ejemplo 54: Calculemos la factorización QR de la matriz A =

2 2 0−2 0 6

0 2 01 5 3

.

CAPÍTULO 4. ESPACIOS VECTORIALES 127

Utilizando el Proceso de Ortogonalización de Gram-Schmidt para hallar {u1,u2,u3}, una base ortogonal deCA, a partir del conjunto de vectores formados por las columnas de A, obtenemos u1 = (2,−2, 0, 1)T , u2 =

(0, 2, 2, 4)T y u3 = (2, 2,−2, 0)T . Por el resultado del Teorema 31, si Q = [u1 u2 u3], R =

1 1 −10 1 10 0 1

y

D =

||u1|| 0 00 ||u2||0 0 ||u3||

=

3 0 0

0 2√

6 0

0 0 2√

3

, entonces A = QR, donde

Q = QD−1 =

[

u1

||u1||u2

||u2||u3

||u3||

]

=

2/3 0 1/√

3

−2/3 1/√

6 1/√

3

0 1/√

6 −1/√

3

1/3 2/√

6 0

y R = DR =

3 3 −3

0 2√

6 2√

6

0 0 2√

3

.

¤

Un análisis detallado del Teorema 31 nos lleva a concluir que una vez calculada una base ortogonal a partirde una base dada, tenemos todos los elementos necesarios para calcular la factorización QR de la matrizcuyas columnas son los vectores de la base dada. En efecto, la matriz Q tendrá como columnas los vectoresde la base ortogonal hallada debidamente normalizados (en otras palabras, los vectores de la base ortonormalcorrespondiente) y la matriz R será el producto de la matriz diagonal formada con las normas de los vectoresde la base ortogonal, cuyos valores se calcularon para normalizar la base ortogonal, y la matriz triangularsuperior unitaria cuyas columnas están formadas por el opuesto de los coeficientes utilizados en el cálculo decada uno de los vectores de la base ortogonal, como lo define la expresión (4.14). Veamos un ejemplo.

Ejemplo 55: Utilicemos los resultados del Ejemplo 53 para calcular la factorización QR de la matriz cuyascolumnas son los vectores v1,v2,v3; es decir de la matriz A = [v1 v2 v3].

Teniendo en cuenta el análisis anterior, sea Q la matriz cuyas columnas son los vectores de la base ortonormal

calculada (es decir, Q =

1/√

2 0 −1/2√

60 1 0

1/√

2 0 1/2√

6

0 0 1/√

6

); D la matriz diagonal formada con las normas de los

vectores de la base ortogonal (es decir, D =

√2 0 0

0 1 0

0 0√

6

) y R la matriz triangular superior unitaria

cuyas columnas son los opuestos de los coeficientes utilizados en el cálculo de los vectores de la base ortogonal

(es decir, R =

1 0 0,50 1 00 0 1

). Finalmente, R = DR =

√2 0

√2/2

0 1 0

0 0√

6

y podemos verificar que

A =

1 0 00 1 01 0 10 0 1

=

1/√

2 0 −1/2√

60 1 0

1/√

2 0 1/2√

6

0 0 1/√

6

√2 0

√2/2

0 1 0

0 0√

6

= QR.

¤

Para terminar, observemos que la factorización QR, además de darnos una base ortonormal de CA, el espaciocolumna de la matriz A, nos brinda una forma de resolver AT Ax = AT b,el sistema de ecuaciones linealesque surge en el cálculo de la solución del Problema de Mínimos Cuadrados Lineales, (Min ||Ax − b||), sinnecesidad de calcular la matriz AT A, lo cual se deja como ejercicio para el lector. La factorización QR, al igualque la factorización LU , también nos permite resolver sistemas de ecuaciones lineales, en general. En efecto,para resolver el sistema Ax = b, como A = QR y QT Q = I, tenemos (QR)x = b, o equivalentemente,

CAPÍTULO 4. ESPACIOS VECTORIALES 128

Q(Rx) = b; por lo tanto, Rx = QT b, el cual es un sistema de ecuaciones lineales que se puede resolvermediante sustitución hacia atrás, ya que la matriz R es triangular superior.