apuntes matemáticas i

46
Tema 4.- El espacio vectorial R n . 1. Subespacios vectoriales de R n . 2. Bases de un subespacio. 3. Rango de una matriz. 4. Bases de R n . Cambios de base. 5. Ejercicios. En este tema estudiamos la estructura vectorial del espacio R n , de las nuplas ordenadas de n´ umeros reales, es decir, la estructura relacionada con las operaciones suma (de vectores) y multiplicaci´on de un n´ umero (real) por un vector. El espacio R n es uno de los modelos para el estudio de los denominados espacios vectoriales (generales). Sin entrar en m´as detalles y definiciones, un espacio vectorial es un conjunto de elementos sobre el que hay definida una operaci´ on suma (de dichos elementos) y una operaci´ on producto de un n´ umero por uno de dichos elementos. Por ejemplo, son espacios vectoriales: el conjunto de las matrices de unas dimensiones dadas, con la operaci´ on suma de matrices y producto de un escalar (real, complejo) por una matriz, el conjunto de todos los polinomios en una variable, con las operaciones suma de polinomios y producto de un escalar por un polinomio, el conjunto de todos los polinomios en una variable y con grado menor o igual que un cierto valor prefijado. Por ejemplo, el conjunto de todos los polinomios de grado menor o igual que 3. Para finalizar, daremos la definici´on formal de base y consideraremos los resultados fundamentales asociados a dicho concepto. 1. Subespacios vectoriales de R n . Los subespacios vectoriales de R n ser´an los subconjuntos de R n que se pueden caracterizar mediante ecuaciones lineales homog´ eneas (ecuaciones impl´ ıcitas en las n variables dadas por las coordenadas de un vector gen´ erico). Como ya hemos visto, cualquier conjunto de vectores descrito como el conjunto de todas las combinaciones lineales de ciertos vectores tambi´ en puede caracterizarse mediante ecuaciones lineales homog´ eneas. A la hora de manipular subespacios vectoriales recurriremos, de forma habitual, a su expresi´on mediante ecuaciones impl´ ıcitas o a su expresi´on mediante ecuaciones param´ etricas. Una de las cuestiones que trataremos es el n´ umero m´ ınimo de ecuaciones impl´ ıcitas mediante las que se puede caracterizar un subespacio y el n´ umero m´ ınimo de vectores que permiten generar dicho subespacio. En el espacio tridimensional R 3 , los subespacios vectorialesson, adem´as del subespacio nulo {0} y del total R 3 , las rectas y los planos que pasan por el origen de coordenadas. Recordemos que cualquier recta o plano se puede caracterizar mediante ecuaciones impl´ ıcitas y mediante ecuaciones param´ etricas. En R 3 , para caracterizar una recta que pasa por el origen de coordenadas necesitamos dos ecuaciones (no redundantes) o un vector, y para caracterizar un plano que pasa por el origen de coordenadas necesitamos una ecuaci´ on o dos vectores linealmente independientes (una base de dicho plano). 1.1. Subespacios vectoriales. Definici´on. Se llama subespacio vectorial de R n a todo subconjunto no vac´ ıo S R n que verifica: (1) Si un vector est´ a en S, tambi´ en lo est´ a cualquiera de sus m´ ultiplos, es decir, v S = αv S, α R, (2) Si dos vectores est´ an en S, tambi´ en lo est´ a la suma de ambos, es decir, v 1 ,v 2 S = v 1 + v 2 S. 79

Upload: hakien

Post on 04-Jan-2017

227 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Apuntes Matemáticas I

Tema 4.- El espacio vectorial Rn.

1. Subespacios vectoriales de Rn.2. Bases de un subespacio.3. Rango de una matriz.4. Bases de Rn. Cambios de base.5. Ejercicios.

En este tema estudiamos la estructura vectorial del espacio Rn, de las n−uplas ordenadas de numeros reales, esdecir, la estructura relacionada con las operaciones suma (de vectores) y multiplicacion de un numero (real) por unvector. El espacio Rn es uno de los modelos para el estudio de los denominados espacios vectoriales (generales). Sinentrar en mas detalles y definiciones, un espacio vectorial es un conjunto de elementos sobre el que hay definida unaoperacion suma (de dichos elementos) y una operacion producto de un numero por uno de dichos elementos. Porejemplo, son espacios vectoriales:

el conjunto de las matrices de unas dimensiones dadas, con la operacion suma de matrices y producto de unescalar (real, complejo) por una matriz,

el conjunto de todos los polinomios en una variable, con las operaciones suma de polinomios y producto de unescalar por un polinomio,

el conjunto de todos los polinomios en una variable y con grado menor o igual que un cierto valor prefijado. Porejemplo, el conjunto de todos los polinomios de grado menor o igual que 3.

Para finalizar, daremos la definicion formal de base y consideraremos los resultados fundamentales asociados adicho concepto.

1. Subespacios vectoriales de Rn.

Los subespacios vectoriales de Rn seran los subconjuntos de Rn que se pueden caracterizar mediante ecuacioneslineales homogeneas (ecuaciones implıcitas en las n variables dadas por las coordenadas de un vector generico). Comoya hemos visto, cualquier conjunto de vectores descrito como el conjunto de todas las combinaciones lineales de ciertosvectores tambien puede caracterizarse mediante ecuaciones lineales homogeneas. A la hora de manipular subespaciosvectoriales recurriremos, de forma habitual, a su expresion mediante ecuaciones implıcitas o a su expresion medianteecuaciones parametricas. Una de las cuestiones que trataremos es el numero mınimo de ecuaciones implıcitas mediantelas que se puede caracterizar un subespacio y el numero mınimo de vectores que permiten generar dicho subespacio. Enel espacio tridimensional R3, los subespacios vectoriales son, ademas del subespacio nulo {0} y del total R3, las rectasy los planos que pasan por el origen de coordenadas. Recordemos que cualquier recta o plano se puede caracterizarmediante ecuaciones implıcitas y mediante ecuaciones parametricas. En R3, para caracterizar una recta que pasa porel origen de coordenadas necesitamos dos ecuaciones (no redundantes) o un vector, y para caracterizar un plano quepasa por el origen de coordenadas necesitamos una ecuacion o dos vectores linealmente independientes (una base dedicho plano).

1.1. Subespacios vectoriales.

Definicion. Se llama subespacio vectorial de Rn a todo subconjunto no vacıo S ⊂ Rn que verifica:

(1) Si un vector esta en S, tambien lo esta cualquiera de sus multiplos, es decir,

v ∈ S =⇒ αv ∈ S, ∀ α ∈ R,

(2) Si dos vectores estan en S, tambien lo esta la suma de ambos, es decir,

v1, v2 ∈ S =⇒ v1 + v2 ∈ S.

79

Page 2: Apuntes Matemáticas I

La propiedad (1) nos dice que si tenemos un vector no nulo de un subespacio vectorial, la recta determinada pordicho vector esta contenida en el subespacio. La propiedad (2) nos dice que si tenemos dos vectores (no colineales) deun subespacio vectorial, el plano determinado por dichos vectores esta contenido en el subespacio.

Las dos propiedades anteriores se pueden expresar de forma conjunta: Si dos vectores estan en S, tambien loesta cualquiera de sus combinaciones lineales:

∀{

v1, v2 ∈ Sα, β ∈ R

}

=⇒ αv1 + βv2 ∈ S.

En particular el vector nulo pertenece a cualquier subespacio vectorial.

Obviamente S ={

~0}

y S = Rn son subespacios vectoriales (a veces llamados subespacios triviales).

En el espacio bidimensional, R2, ademas de esos dos subespacios triviales, cualquier recta que pase por el origenes un subespacio vectorial. Sin embargo, los vectores de posicion determinados por los puntos de una parabola NOforman un subespacio vectorial.

En el espacio tridimensional, R3, ademas de los dos subespacios triviales ({

~0}

y R3), cualquier recta o plano que

pase por el origen es un subespacio vectorial.

Ejercicio resueltoEncontrar unas ecuaciones implıcitas del subespacio de R4

E = Gen{(1, 1, 1, 0)T , (2, 0, 1, 2)T , (0, 2, 1,−2)T , (0,−2,−1, 2)T , (−1, 1, 0,−2)T}.

Dado un conjunto generador {v1, v2, v3, v4, v5} de un subespacio E ⊂ R4, encontrar las ecuaciones implıcitas de Ees hallar las condiciones que deben verificar las componentes de un vector de R4, x = (x1, x2, x3, x4)

T , para quepertenezca a E, es decir, para que se pueda escribir como combinacion lineal del conjunto generador x = c1v1+ c2v2+c3v3 + c4v4 + c5v5, es decir, para que existan esos escalares ci, o lo que es equivalente, para que el sistema

(v1|v2|v3|v4|v5)c = x, con c = (c1, c2, c3, c4, c5)T

sea compatible. Para exigir esto construimos la matriz ampliada (v1|v2|v3|v4|v5|x):

1 2 0 0 −1 x1

1 0 2 −2 1 x2

1 1 1 −1 0 x3

0 2 −2 2 −2 x4

F2 − F1

F3 − F1-

1 2 0 0 −1 x1

0 −2 2 −2 2 x2 − x1

0 −1 1 −1 1 x3 − x1

0 2 −2 2 −2 x4

F3 − F2/2F4 + F2

-

1 2 0 0 −1 x1

0 −2 2 −2 2 x2 − x1

0 0 0 0 0 x3 − x1/2− x2/20 0 0 0 0 x4 + x2 − x1

,

es decir, el sistema es compatible cuando

{x3 − x1/2− x2/2 = 0,x4 + x2 − x1 = 0,

→{

x1 + x2 − 2x3 = 0,x1 − x2 − x4 = 0,

que son unas ecuaciones implıcitas de E.Observemos que podıamos haber buscado primero una base de E, aplicando eliminacion gaussiana a la matriz

(v1|v2|v3|v4|v5):

1 2 0 0 −11 0 2 −2 11 1 1 −1 00 2 −2 2 −2

F2 − F1

F3 − F1-

1 2 0 0 −10 −2 2 −2 20 −1 1 −1 10 2 −2 2 −2

F3 − F2/2F4 + F2

-

1 2 0 0 −10 −2 2 −2 20 0 0 0 00 0 0 0 0

,

de donde deducimos que E = Gen{v1, v2}, es decir, una base de E es BE = {v1, v2}. Dada una base {v1, v2} deun subespacio E ⊂ R4, encontrar las ecuaciones implıcitas de E es hallar las condiciones que deben verificar lascomponentes de un vector de R4, x = (x1, x2, x3, x4)

T , para que pertenezca a E, es decir, para que se pueda escribircomo combinacion lineal de los vectores de la base x = c1v1 + c2v2, es decir, para que existan esos escalares ci, o loque es equivalente, para que el sistema

(v1|v2)c = x, con c = (c1, c2)T

80

Page 3: Apuntes Matemáticas I

sea compatible. Para exigir esto construimos la matriz ampliada (v1|v2|x):

1 2 x1

1 0 x2

1 1 x3

0 2 x4

F2 − F1

F3 − F1-

1 2 x1

0 −2 x2 − x1

0 −1 x3 − x1

0 2 x4

F3 − F2/2F4 + F2

-

1 2 x1

0 −2 x2 − x1

0 0 x3 − x1/2− x2/20 0 x4 + x2 − x1

,

es decir, el sistema es compatible cuando

{x3 − x1/2− x2/2 = 0,x4 + x2 − x1 = 0,

→{

x1 + x2 − 2x3 = 0,x1 − x2 − x4 = 0,

que son unas ecuaciones implıcitas de E.La garantıa de que el resultado al que hemos llegado es correcto se obtiene comprobando que todos los vectores vi

verifican todas las ecuaciones implıcitas obtenidas.

1.2. Espacio nulo y espacio columna de una matriz.

Asociados a una matriz A,m× n,

A = [v1|v2|...|vn] =

a11 a12 · · · a1na21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

hemos considerado los denominados

Espacio nulo de la matriz A, esto es, el conjunto de vectores reales x ∈ Rn caracterizados por las ecuacionesimplıcitas

Ax = 0 −→

a11x1 + a12x2 + · · ·+ a1nxn = 0a21x1 + a22x2 + · · ·+ a2nxn = 0

......

...am1x1 + am2x2 + · · ·+ amnxn = 0

.

Espacio columna de la matriz A, subespacio generado por las columnas de A, esto es, el conjunto de vectoresy que se pueden escribir como combinacion lineal de dichas columnas

y = α1v1 + α2v2 + · · ·+ αnvn,

caracterizado por las ecuaciones parametricas

y1 = α1a11 + α2a12 + · · ·+ αna1ny2 = α1a21 + α2a22 + · · ·+ αna2n...

......

ym = α1am1 + α2am2 + · · ·+ αnamn

, con α1, α2, . . . , αn ∈ R.

Resolviendo el sistema homogeneo Ax = 0 podemos obtener los vectores del espacio nulo de A como el conjuntode vectores que se pueden expresar como combinacion lineal (arbitraria) de determinados vectores, es decir, como elsubespacio generado por ciertos vectores o como el espacio columna de la matriz que tiene a dichos vectores comovectores columna. Por otra parte, puesto que el espacio columna de una matriz A esta formado por los vectores y talesque el sistema de ecuaciones Ax = y es compatible, obteniendo las condiciones de compatibilidad de este sistema (enfuncion del termino independiente y), tendremos unas ecuaciones lineales homogeneas que permiten expresar el citadoespacio columna como espacio nulo de otra matriz.

Por tanto, hablar de espacio nulo o espacio columna de una matriz (o subespacio generado por ciertos vectores)no es hablar de conjuntos de vectores con caracterısticas distintas, sino que es hablar de un mismo tipo de conjuntode vectores, que son los denominados subespacios vectoriales, pero expresados en forma distinta:

cuando uno de dichos conjuntos de vectores viene dado como espacio nulo de una matriz tenemos una descripcionimplıcita (ecuaciones implıcitas) de dicho conjunto (un vector esta en el conjunto considerado si, y solo si,sus coordenadas verifican el sistema homogeneo asociado a la matriz),

81

Page 4: Apuntes Matemáticas I

cuando uno de dichos conjuntos de vectores viene dado como espacio columna de una matriz tenemos una des-cripcion parametrica (ecuaciones parametricas) de dicho conjunto (un vector esta en el conjunto consideradosi, y solo si, puede expresarse como combinacion lineal de determinados vectores).

Entre las descripciones parametricas de un subespacio vectorial unas seran mejores que otras en el sentido de queunas involucren menos vectores que otras. Es decir, si tenemos el espacio columna de una cierta matriz A,m × n,y los vectores columna de A son linealmente dependientes, suprimiendo vectores que sean combinacion lineal de losque quedan, tendremos que el espacio columna de la matriz original tambien es el espacio columna de la matriz queresulta de la matriz anterior suprimiendo algunas columnas. Si nos quedamos con un conjunto de vectores linealmenteindependiente, tendremos que dichos vectores generan el espacio columna de la matriz original y cada vector dedicho espacio se puede expresar de forma unica como combinacion lineal de los vectores linealmente independientesobtenidos. Dichos vectores constituyen lo que se denomina una base (es decir, un conjunto de vectores linealmenteindependiente que genera el subespacio) del subespacio vectorial considerado, el espacio columna de la matriz original.Si en la representa-cion parametrica eliminamos los parametros, llegaremos a unas ecuaciones homogeneas que daranuna descripcion implıcita del subespacio considerado.

De forma paralela, entre las descripciones implıcitas de un subespacio vectorial tambien habra unas mejores queotras, en el sentido de que una puede tener ecuaciones redundantes y otra no. Si mediante operaciones fila reducimosuna matriz A a forma escalonada y obtenemos la matriz U , las soluciones del sistema Ux = 0 coinciden con las delsistema Ax = 0, es decir los espacios nulos de la matriz A y de la matriz U coinciden. Si de la matriz U eliminamos lasfilas nulas, que proceden de ecuaciones originales redundantes en el sistema Ax = 0, tendremos un sistema de ecuacionessin ecuaciones redundantes y cuyas soluciones forman el espacio nulo de la matriz A original. Si resolvemos elsistema homogeneo tendremos una descripcion parametrica del conjunto solucion, es decir, del subespacio dado.

Podemos caracterizar las matrices invertibles en terminos de sus espacios nulo y columna.Teorema.- Consideremos una matriz cuadrada de orden n.

(1) La matriz A tiene inversa si, y solo si, Col (A) = Rn.

(2) La matriz A tiene inversa si, y solo si, Nul (A) = {0}.

Cuando se consideran las transformaciones lineales sin hacer referencia a la matriz asociada, se suele utilizar lasiguiente terminologıa:

Definicion. Consideremos una aplicacion lineal T : Rn −→ Rm.

(1) Se denomina nucleo de T y se denota por ker(T ) al conjunto (subespacio)

ker(T ) = {x ∈ Rn : T (x) = 0} .

(2) Se denomina conjunto o espacio imagen de T al conjunto de vectores de Rm que tienen anti-imagen, es decir,

Imagen(T ) = T (Rn) = {T (x) : x ∈ Rm} = {y ∈ Rm : ∃x ∈ Rn, y = T (x)} .

Si consideramos la matriz A asociada a T , tenemos

ker(T ) = {x ∈ Rn : Ax = 0} = Nul (A)Imagen(T ) = T (Rn) = {Ax : x ∈ Rm} = {y ∈ Rm : ∃x ∈ Rn, y = Ax} =

= {y ∈ Rm : Ax = y es un S.C.} = Col (A).

Ejemplo.- Consideremos el espacio nulo de la matriz

A =

−1 2 0 33 0 1 −11 4 1 5

,

es decir, estamos considerando el conjunto S de los vectores x ∈ R4 cuyas coordenadas (x1, x2, x3, x4) verifican lasecuaciones (implıcitas)

−x1 + 2x2 + 3x4 = 03x1 + x3 − x4 = 0x1 + 4x2 + x3 + 5x4 = 0

.

Haciendo operaciones fila sobre la matriz A (que se corresponden con operaciones sobre las ecuaciones del sistema)tenemos

A =

−1 2 0 33 0 1 −11 4 1 5

F2 + 3F1

-F3 + F1

−1 2 0 30 6 1 80 6 1 8

F3 − F2

- U =

−1 2 0 30 6 1 80 0 0 0

.

82

Page 5: Apuntes Matemáticas I

De hecho, refiriendonos a la matriz original tenemos que F3(A) = F2(A) + 2F1(A). Equivalentemente, la terceraecuacion del sistema original es combinacion lineal de las dos primeras con lo cual si un vector es solucion de las dosprimeras tambien lo es de la tercera. Resumiendo, tenemos que

S = Nul (A) = Nul

[−1 2 0 33 0 1 −1

]

= Nul (U) = Nul

[−1 2 0 30 6 1 8

]

con lo cual nuestro conjunto S de vectores esta caracterizado por las ecuaciones (no redundantes)

−x1 + 2x2 + 3x4 = 06x2 + x3 + 8x4 = 0

}

o por−x1 + 2x2 + 3x4 = 03x1 + x3 + x4 = 0

.

Resolviendo el sistema Ux = 0 tenemos

-1 2 0 3 0

0 6 1 8 00 0 0 0 0

=⇒

Variables libresx3 y x4.

Variables fijasx1 y x2.

=⇒

x2 = 16 (−x3 − 8x4)

x1 = 2x2 + 3x4 = 26 (−x3 − 8x4) + 3x4 = − 1

3x3 +13x4

x1

x2

x3

x4

= x3

− 13− 1

610

+ x4

13− 4

301

.

Por tanto,

Nul (A) = Gen

v1 =

− 13− 1

610

, v2 =

13− 4

301

= Gen

6v1 =

−2−160

, 3v2 =

1−403

= Col

− 13

13

− 16 − 8

61 00 1

= Col

−2 1−1 −46 00 3

.

Los vectores {v1, v2} forman una base de S = Nul (A). Los vectores de Nul (A) son los que pueden expresarse comocombinacion lineal de v1 y v2 y, como consecuencia de la independencia lineal, cada vector de S solo puede expresarsede una unica forma como combinacion lineal de v1 y v2. Los coeficientes que aparezcan en dicha combinacion linealson las coordenadas del vector de S respecto a la base {v1, v2} (de S). El vector v = [−8 5 18 − 6] esta en S y suscoordenadas respecto a {v1, v2} son la solucion de

v = λv1 + µv2 ≡

v

=

v1 v2

[λµ

]

− 13

13 −8

− 16 − 4

3 51 0 180 1 −6

,

es decir, λ = 18, µ = −6 (v = 18v1 − 6v2).

Ejemplo.- Vamos a utilizar la misma matriz A del ejemplo anterior. El espacio columna de dicha matriz es, pordefinicion de espacio columna, el conjunto de vectores y que se pueden expresar como combinacion lineal de lascolumnas de A, es decir los vectores y (¡con 3 coordenadas!) que se pueden expresar mediante

y =

y1y2y3

= α

−131

+ β

204

+ γ

011

+ δ

3−15

para ciertos α, β, γ, δ ∈ R. Esto es lo mismo que decir que el espacio columna esta formado por los vectores y ∈ R3

para los que el sistema de ecuaciones Ax = y tiene solucion. En dicho caso, cada solucion del sistema Ax = y nosdarıa una forma de expresar y como combinacion lineal de las columnas de A. Obtengamos, para un vector generico

83

Page 6: Apuntes Matemáticas I

y ∈ R3 las condiciones de compatibilidad del sistema Ax = y, reduciendo la matriz ampliada del sistema [A|y] a formaescalonada. Haciendo las mismas operaciones fila que hemos hecho cuando hemos obtenido el espacio nulo tenemos

[A|y] =

−1 2 0 3 y13 0 1 −1 y21 4 1 5 y3

F2 + 3F1

-F3 + F1

−1 2 0 3 y10 6 1 8 y2 + 3y10 6 1 8 y3 + y1

F3 − F2

- U =

-1 2 0 3 y10 6 1 8 y2 + 3y10 0 0 0 y3 − y2 − 2y1

.

Por tanto, el sistema Ax = y es compatible (determinado o indeterminado)⇐⇒ y3− y2− 2y1 = 0. Es decir, el espaciocolumna de A esta formado por los vectores y ∈ R3 cuyas coordenadas verifican la ecuacion (lineal homogenea)y3 − y2 − 2y1 = 0. Se trata, por tanto, de un plano (en R3) que pasa por el origen de coordenadas. Ademas, teniendola forma escalonada U que hemos obtenido, puesto que:

Las columnas 1 y 2 de U son linealmente independientes y

Las columnas 3 y 4 son combinacion lineal de las columnas 1 y 2,

lo mismo sucede con las columnas correspondientes de la matriz A con lo cual, el espacio columna de A (generado porlas 4 columnas) coincide con el espacio generado por las columnas 1 y 2 de A (¡no de U !). Los vectores dados por lascolumnas 1 y 2 de A forman una base de Col (A) puesto que son linealmente independientes y generan dicho espacio.Si denotamos por v1, v2, v3 y v4 a los vectores columna de A, cada vector y ∈ Col (A) se puede expresar de infinitasformas distintas como combinacion lineal de v1, v2, v3 y v4 puesto que el sistema de ecuaciones Ax = y es compatible(puesto que y ∈ Col (A)) indeterminado (puesto que hay 2 variables libres). Sin embargo, dicho vector y ∈ Col (A)solo puede expresarse de una unica forma como combinacion lineal de v1 y v2 puesto que el sistema de ecuaciones

v1 v2

[λµ

]

=

y1y2y3

tendra solucion unica. Para discutir, y resolver, este sistema basta con suprimir las columnas 3 y 4 de la reduccionque hemos hecho del sistema Ax = y con lo cual tenemos

−1 2 y13 0 y21 4 y3

- · · ·

-1 2 y10 6 y2 + 3y10 0 y3 − y2 − 2y1

.

La solucion unica (λ, µ) de este sistema (compatible cuando y ∈ R3) nos dara los coeficientes para los cuales se verifica

y = λv1 + µv2.

Estos coeficientes (λ, µ) (unicos para cada vector y ∈ Col (A)) se denominan coordenadas de y respecto de la base{v1, v2}. Por ejemplo, las coordenadas del vector

y =

113

(∈ Col (A) puesto que y3 − y2 − 2y1 = 3− 1− 2 = 0)

respecto a la base {v1, v2} de Col (A) vienen dadas por la solucion del sistema

v1 v2

[λµ

]

=

113

−→

-1 2 1

0 6 40 0 0

=⇒[

λµ

]

=

[1346

]

.

Ejercicio resueltoDada la matriz

A =

0 1 11 −1 −3−2 0 4−1 2 a

, a ∈ R,

encontrar, segun los valores del parametro a, unas ecuaciones implıcitas del espacio columna de A, Col(A). Paraa = 1, escribir razonadamente, si es que existe, una matriz C, 4× 5, tal que Col(C) = Col(A).

84

Page 7: Apuntes Matemáticas I

Si llamamos vi a las columnas de A, A = [v1|v2|v3], entonces su espacio columna, Col(A) = Gen {v1, v2, v3}, queesta contenido en R4.

Dado un conjunto generador {v1, v2, v3} de un subespacio E ⊂ R4, encontrar las ecuaciones implıcitas de E es hallarlas condiciones que deben verificar las componentes de un vector de R4, x = (x1, x2, x3, x4)

T , para que pertenezca aE, es decir, para que se pueda escribir como combinacion lineal del conjunto generador, x = c1v1 + c2v2 + c3v3, esdecir, para que existan esos escalares ci, o lo que es equivalente, para que el sistema

(v1|v2|v3)c = x, con c = (c1, c2, c3)T

sea compatible. Para exigir esto construimos la matriz ampliada (v1|v2|v3|x):

0 1 1 x1

1 −1 −3 x2

−2 0 4 x3

−1 2 a x4

F2 ↔ F1-

1 −1 −3 x2

0 1 1 x1

−2 0 4 x3

−1 2 a x4

F3 + 2F1

F4 + F1-

1 −1 −3 x2

0 1 1 x1

0 −2 −2 x3 + 2x2

0 1 a− 3 x4 + x2

F3 − 2F2

F4 − F2-

1 −1 −3 x2

0 1 1 x1

0 0 0 x3 + 2x2 + 2x1

0 0 a− 4 x4 + x2 − x1

F4 ↔ F3-

1 −1 −3 x2

0 1 1 x1

0 0 a− 4 x4 + x2 − x1

0 0 0 x3 + 2x2 + 2x1

,

es decir, si a 6= 4 aparecen tres pivotes y el sistema es compatible cuando

2x1 + 2x2 + x3 = 0

(si a 6= 4, Col(A) ⊂ R4 tiene una sola ecuacion implıcita pues al ser las tres columnas linealmente independientes,dim(Col(A)) = 3). Sin embargo, si a = 4, solo aparecen dos pivotes (solo hay dos columnas linealmente independientes,con lo que dim(Col(A)) = 2 y ese subespacio tendra dos ecuaciones implıcitas) y, por tanto, el sistema es compatiblecuando {

2x1 + 2x2 + x3 = 0,x1 − x2 − x4 = 0,

que son unas ecuaciones implıcitas de Col(A) cuando a = 4.La garantıa de que el resultado al que hemos llegado es correcto se tiene comprobando que todos los vectores vi

verifican todas las ecuaciones implıcitas obtenidas (una en el caso a 6= 4 y dos cuando a = 4).Nos piden despues que, para a = 1, encontremos si es posible alguna matriz C, 4 × 5, tal que Col(C) = Col(A).

Es decir, C = [u1|u2|u3|u4|u5] y como los ui ∈ R4, entonces Col(C) ⊂ R4 con lo que sı puede darse Col(C) = Col(A).(Si C no tuviera 4 filas, entonces los ui /∈ R4 y no existirıa C tal que Col(C) = Col(A)).

Para escribir una matriz C, 4 × 5, cuyo espacio columna coincida con Col(A) basta con que sus cinco columnassean combinacion lineal de v1, v2 y v3 (columnas de A) y que tres de ellas sean linealmente independientes (pues lastres columnas de A lo son para a = 1). Por ejemplo, nos sirven las matrices siguientes (por comodidad repetimos lastres primeras columnas de A, aunque basta con que las cinco columnas verifiquen la ecuacion implıcita de Col(A),2x1 + 2x2 + x3 = 0, y que haya tres linealmente independientes):

0 1 1 0 01 −1 −3 0 0−2 0 4 0 0−1 2 1 0 0

,

0 1 1 0 01 −1 −3 1 1−2 0 4 −2 −2−1 2 1 −1 −1

,

0 1 1 1 11 −1 −3 −1 −3−2 0 4 0 4−1 2 1 2 1

,

0 1 1 0 31 −1 −3 2 −3−2 0 4 −4 0−1 2 1 −2 6

,

0 1 1 0 01 −1 −3 1 1−2 0 4 −2 −2−1 2 1 27 0

, ...

Observemos que para las matrices B1 = [v1|v1|v1|v1|v1], B2 = [v1|v2|v1−v2|0|2v1−3v2], B3 = [v2|v2|v3−v2|v3|4v2−5v3], se verifica Col(Bi) ⊂ Col(A) pero no se da la igualdad Col(Bi) = Col(A) (que es lo que nos pide el enunci-ado; por tanto, tres columnas deben ser linealmente independientes) ya que dim(Col(B1)) = 1, dim(Col(B2)) =dim(Col(B3)) = 2, mientras que dim(Col(A)) = 3.

Ejercicio resueltoDada la matriz

B =

1 −1 1 11 2 0 −10 b −1 −2

, b ∈ R,

encontrar, segun los valores del parametro b, un conjunto generador linealmente independiente del espacio nulo deB, Nul(B).

85

Page 8: Apuntes Matemáticas I

El espacio nulo de B esta formado por los vectores x ∈ R4 tales que Bx = 0. Nos piden que encontremos un conjuntogenerador linealmente independiente (una base) de dicho espacio nulo, en funcion del parametro b. Para ello basta conresolver el sistema Bx = 0 (homogeneo, de tres ecuaciones y cuatro incognitas):

1 −1 1 11 2 0 −10 b −1 −2

F2 − F1-

1 −1 1 10 3 −1 −20 b −1 −2

F3 − b3F2

-

1 −1 1 10 3 −1 −20 0 b

3 − 1 2( b3 − 1)

.

Entonces, cuando b = 3, la matriz que representa al sistema es

1 −1 1 10 3 −1 −20 0 0 0

con lo que tomando x3, x4 como variables libres (al ser las columnas tercera y cuarta columnas no pivote) obtenemos

x3, x4 ∈ R

x2 = 13 (x3 + 2x4)

x1 = x2 − x3 − x4 = − 23x3 − 1

3x4

→ x =

x1

x2

x3

x4

= x3

−2/31/310

+ x4

−1/32/301

,

con lo que

Nul(B) = Gen

−2/31/310

,

−1/32/301

= Gen

−2130

,

−1203

y una base de Nul(B), para b = 3, es {(−2, 1, 3, 0)T , (−1, 2, 0, 3)T}. Conviene comprobar que estos vectores verificanel sistema Bx = 0.

Si b 6= 3, la matriz que representa el sistema (hemos dividido la tercera fila por b3 − 1 6= 0) es

1 −1 1 10 3 −1 −20 0 1 2

con lo que, tomando x4 como variable libre (al ser la cuarta columna no pivote), obtenemos

x4 ∈ R

x3 = −2x4

x2 = 13 (x3 + 2x4) = 0

x1 = x2 − x3 − x4 = x4

→ x =

x1

x2

x3

x4

= x4

10−21

→ Nul(B) = Gen

10−21

y una base de Nul(B), para b 6= 3, es {(1, 0,−2, 1)T}. Conviene comprobar que este vector verifica el sistema Bx = 0.

Ejercicio resuelto

Dada la matriz A =

[1 2 1−2 −4 −2

]

, escribir, si es posible, dos matrices cuadradas de orden 3 y dos matrices

3× 4 cuyo espacio columna coincida con el espacio nulo de A, Nul(A).

Vamos a calcular, en primer lugar el espacio nulo de A, Nul(A), es decir vamos a encontrar los vectores x tales queAx = 0. Puesto que A es una matriz 2× 3, para que se pueda hacer el producto Ax, debe verificarse que x ∈ R3. Ası,Ax = 0 nos proporciona las ecuaciones implıcitas de Nul(A):

Nul(A) ≡{

x1 + 2x2 + x3 = 0−2x1 − 4x2 − 2x3 = 0

→ Nul(A) = Gen

v1 =

−210

, v2 =

−101

.

Por tanto, una base de Nul(A) es {v1, v2}. Para escribir matrices 3 × 3 cuyo espacio columna coincida con Nul(A)basta con que sus tres columnas sean combinacion lineal de v1 y v2 (o, equivalentemente, que verifiquen su ecuacionimplıcita x1 + 2x2 + x3 = 0) y que dos sean linealmente independientes:

−2 −1 01 0 00 1 0

,

−2 −1 −21 0 10 1 0

,

−2 −1 −11 0 00 1 1

,

−1 −2 −30 1 11 0 1

,

1 2 40 −1 0−1 0 −4

, ...

86

Page 9: Apuntes Matemáticas I

Observemos que para la matriz B = [v1|v1|v1] se verifica Col(B) ⊂ Nul(A) pero no se da la igualdad Col(B) = Nul(A)(que es lo que nos pide el enunciado). Por tanto, dos columnas deben ser linealmente independientes.

Si las matrices son 3× 4, se aplica el mismo razonamiento sobre las cuatro columnas: todas deben ser combinacionlineal de v1 y v2 y, simultaneamente, dos deben ser linealmente independientes:

−2 −1 0 01 0 0 00 1 0 0

,

−2 −1 −2 −41 0 1 00 1 0 4

,

−2 −1 2 −71 0 −1 00 1 0 7

,

−1 −2 −2 −20 1 1 11 0 0 0

, ...

2. Bases de un subespacio.

Definicion. Dado un subespacio S de Rn distinto del subespacio nulo S 6= {0}, se dice que un conjunto de vectores

{v1, v2, . . . , vr}

de S es una base de S si:

(a) {v1, v2, . . . , vr} es linealmente independiente,

(b) {v1, v2, . . . , vr} genera S,S = Gen {v1, v2, . . . , vr} .

Las anteriores condiciones se pueden expresar de forma matricial: Si denotamos por A a la matriz cuyas columnasson los vectores dados

A =

...... · · ·

...

v1 v2. . . vr

...... · · ·

...

las columnas de A forman una base de un subespacio vectorial S si:

(a) El sistema homogeneo Ax = 0 tiene solucion unica (condicion equivalente a que los vectores sean linealmenteindependientes) y

(b) S = Col (A), es decir S esta formado por los vectores y ∈ Rm para los que el sistema de ecuaciones Ax = y escompatible.

Ejemplo. Los vectores canonicos de Rn,

e1 =

10...0

, e2 =

01...0

, . . . , en =

0...01

forman una base de Rn. Los vectores

{e1, e1 + e2, · · · , e1 + e2 + · · ·+ en}

tambien forman una base de Rn.

Definicion/Teorema. (Coordenadas respecto de una base) Dada una base {v1, v2, . . . , vr} de un subespacio vectorialS, cada vector v de S se puede expresar de forma unica como combinacion lineal de los vectores de la base dada,

v = c1v1 + c2v2 + · · ·+ crvr.

Los coeficientes que aparecen en dicha expresion (c1, . . . , cr) se denominan coordenadas de v respecto a la base dadaB = {v1, v2, . . . , vr} y se suelen denotar por

[v]B =

c1...cr

.

Definicion/Teorema. Consideremos un subespacio vectorial S de Rm distinto del subespacio nulo S 6= {0}. Severifican:

87

Page 10: Apuntes Matemáticas I

(a) S tiene base.

(b) Todas las bases de S tienen el mismo numero de elementos.

Al numero de elementos de una base de S se le denomina dimension de S. Por definicion, la dimension delsubespacio formado por el vector nulo es cero.

Si, al igual que antes, denotamos por A a la matriz cuyas columnas son los vectores dados

A =

...... · · ·

...

v1 v2. . . vr

...... · · ·

...

,

para cada vector v (vector columna) de S se verifica que

v = Ac

para algun vector de coeficientes c.

Teorema (El Teorema de la Base). Consideremos un subespacio vectorial S de Rm de dimension p (p ≤ m) y unconjunto de vectores {u1, . . . , uq} ⊂ S.

(a) Si {u1, . . . , uq} generan S, entonces q ≥ p. Ademas, q = p⇐⇒ {u1, . . . , uq} es una base de S.

(b) Si {u1, . . . , uq} es linealmente independiente, entonces q ≤ p. Ademas, q = p⇐⇒ {u1, . . . , uq} es una base de S.

En particular, si tenemos un conjunto de n vectores de Rm:

Si n > m, los n vectores no pueden ser linealmente independientes,

Si m > n, los n vectores no pueden generar Rm.

3. Rango de una matriz.

Definicion. Dada una matriz A, m × n, se llama rango de A a la dimension de su espacio columna, es decir, a ladimension del subespacio vectorial (de Rm)

Col (A) = {combinaciones lineales de las columnas de A}= {Ax : x ∈ Rn} = {y ∈ Rm : Ax = y es compatible} .

Teniendo en cuenta la relacion entre la dimension del espacio columna de A y la reduccion de A a forma escalonadatenemos que

rango(A) = numero de pivotes de A.

Para una matriz cuadrada A de orden n, teniendo en cuenta los resultados sobre la existencia de la inversaobtenemos que:

A tiene inversa ⇐⇒ rango(A) = n.

Teorema. Consideremos una matriz A, m× n. Se verifican:

(a) rango(A) = rango(AT ). Es decir, la dimension del subespacio vectorial (de Rn) generado por las m filas de Acoincide con la dimension del espacio columna de A (subespacio vectorial de Rm generado por las n columnasde A):

dim (Col (A)) = dim(Col (AT )

).

Es decir, si por un lado reducimos la matriz A a forma escalonada por filas (mediante operaciones fila) y porotro reducimos a forma escalonada por columnas (mediante operaciones columna), el numero de pivotes que setienen en ambas reducciones es el mismo.

88

Page 11: Apuntes Matemáticas I

(b) Teorema del rango.dim (Col (A)) + dim (Nul (A)) = n.

(c) En terminos de la reduccion por filas de A a forma escalonada, el Teorema del rango se puede expresar mediante:

(numero de pivotes) + (numero de variables libres) = n.

Si consideramos la transformacion lineal T : Rn −→ Rm, asociada a una matriz real A,m × n, el espacio imagende la transformacion es el espacio columna de la matriz A,

Imagen(T ) = T (Rn) = {T (x) ∈ Rm : x ∈ Rn} == {y ∈ Rm : y = T (x) para algun x ∈ Rn} = Col (A).

Se trata, por tanto, de un subespacio vectorial de Rm cuya dimension es rango(A).

La imagen, mediante T , de cualquier subespacio vectorial S de Rn sera un subespacio vectorial T (S) de Rm

contenido en el espacio imagen (columna) y por tanto la dimension de dicho subespacio T (S) sera menor o igual queel rango de A (y menor o igual que la dimension del subespacio S original).

Por otra parte, si consideramos un subespacio vectorial H de Rm, el conjunto de los vectores x ∈ Rn cuyostransformados T (x) = Ax pertenecen a H forman un subespacio vectorial de Rn. En particular, si H es el subespacionulo de Rm, es decir, H = {0} ⊆ Rm entonces, obtenemos el nucleo de la transformacion T o lo que es lo mismo, elespacio nulo de A,

ker(T ) = {x ∈ Rn : T (x) = 0} = {x ∈ Rn : Ax = 0} = Nul (A).

Ejercicio resueltoConsidera la transformacion lineal T que verifica

T

120

=

1−1−12

, T

110

=

0−303

, T

101

=

1−4−15

.

(a) Calcula la matriz A tal que T (x) = Ax para todo x ∈ R3.(b) Calcula unas ecuaciones implıcitas del espacio columna de A.(c) Calcula un conjunto linealmente independiente de vectores S que genere el subespacio nulo de A.

(a) La aplicacion lineal T : R3 → R4 tiene asociada, respecto de las bases canonicas, la matriz A en cuyas columnasaparecen los transformados de la base canonica del espacio de partida, es decir, A = [T (e1)|T (e2)|T (e3)].

Una posibilidad es plantear el sistema de ecuaciones vectoriales, donde, por comodidad llamamos a = (1,−1,−1, 2)T ,b = (0,−3, 0,−3)T , c = (1,−4,−1, 5)T ,

T ([1, 2, 0]T ) = T (e1 + 2e2) = T (e1) + 2T (e2) = aT ([1, 1, 0]T ) = T (e1 + e2) = T (e1) + T (e2) = bT ([1, 0, 1]T ) = T (e1 + e3) = T (e1) + T (e3) = c

−→

T (e2) = a− b = (1, 2,−1,−1)TT (e1) = b− T (e2) = (−1,−5, 1, 4)TT (e3) = c− T (e1) = (2, 1,−2, 1)T

que en este caso se resuelve trivialmente (en general, lo resolveremos mediante eliminacion de Gauss).Por tanto,

A = [T (e1)|T (e2)|T (e3)] =

−1 1 2−5 2 11 −1 −24 −1 1

.

Antes de seguir, podemos asegurarnos de que la matriz encontrada es la correcta comprobando que

A[1, 2, 0]T = (1,−1,−1, 2)T , A[1, 1, 0]T = (0,−3, 0,−3)T A[1, 0, 1]T = (1,−4,−1, 5)T .

Otra forma de encontrar A es escribir matricialmente las igualdades que nos dan:

A

120

=

1−1−12

, A

110

=

0−303

, A

101

=

1−4−15

→ A

1 1 12 1 00 0 1

=

1 0 1−1 −3 −4−1 0 −12 3 5

,

89

Page 12: Apuntes Matemáticas I

de donde deducimos

A =

1 0 1−1 −3 −4−1 0 −12 3 5

1 1 12 1 00 0 1

−1

=

1 0 1−1 −3 −4−1 0 −12 3 5

−1 1 12 −1 −20 0 1

=

−1 1 2−5 2 11 −1 −24 −1 1

.

La matriz inversa que aparece la hemos calculado aplicando el metodo de Gauss–Jordan:

1 1 1 1 0 02 1 0 0 1 00 0 1 0 0 1

1 1 1 1 0 00 −1 −2 −2 1 00 0 1 0 0 1

1 1 0 1 0 −10 −1 0 −2 1 20 0 1 0 0 1

1 0 0 −1 1 10 −1 0 −2 1 20 0 1 0 0 1

1 0 0 −1 1 10 1 0 2 −1 −20 0 1 0 0 1

.

(b) Puesto que

Col(A) = Gen

−1−514

,

12−1−1

,

21−21

,

dado un conjunto generador {v1, v2, v3} del subespacio Col(A) ⊂ R4, encontrar las ecuaciones implıcitas de Col(A) eshallar las condiciones que deben verificar las componentes de un vector de R4, x = (x1, x2, x3, x4)

T , para que pertenezcaa Col(A), es decir, para que se pueda escribir como combinacion lineal del conjunto generador x = c1v1 + c2v2 + c3v3,es decir, para que existan esos escalares ci, o lo que es equivalente, para que el sistema

(v1|v2|v3)c = x, con c = (c1, c2, c3)T

sea compatible. Para exigir esto construimos la matriz ampliada (v1|v2|v3|x):

−1 1 2 x1

−5 2 1 x2

1 −1 −2 x3

4 −1 1 x4

−1 1 2 x1

0 −3 −9 x2 − 5x1

0 0 0 x3 + x1

0 3 9 x4 + 4x1

−1 1 2 x1

0 −3 −9 x2 − 5x1

0 0 0 x3 + x1

0 0 0 x4 − x1 + x2

,

es decir, las coordenadas de los vectores que pertenezcan a Col(A) deben verificar

x1 + x3 = 0, x1 − x2 − x4 = 0.

Merece la pena emplear unos segundos, para estar seguros de que el resultado obtenido es correcto, en comprobar quelos tres vectores que generan el espacio columna verifican todas (dos en nuestro caso) las ecuaciones obtenidas.

Observemos que dim(Col(A)) = 2 (pues la tercera columna de A es combinacion lineal de las dos primeras) y alestar ese subespacio en R4 lo definen dos ecuaciones implıcitas.

(c) El espacio nulo de A esta formado por los vectores x ∈ R3 tales que Ax = 0. Al aplicar el metodo de eliminacionpara resolverlo vamos a obtener el mismo resultado (en las tres primeras columnas) que el conseguido al buscar lasecuaciones implıcitas en el apartado anterior:

−1 1 2−5 2 11 −1 −24 −1 1

−1 1 20 −3 −90 0 00 3 9

−1 1 20 −3 −90 0 00 0 0

→{

x1 = x2 + 2x3 = −3x3 + 2x3 = −x3,x2 = −3x3,

con lo que Nul(A) = Gen {v = (−1,−3, 1)T}, es decir, S =

−1−31

. Es facil comprobar que v verifica Av = 0,

es decir, que pertenece a Nul(A). Ademas, sabiendo que, en nuestro caso, T esta definida en R3, la igualdad

dim(Col(A)) + dim(Nul(A)) = 3

nos permitıa saber, antes de comenzar este apartado, que

dim(Nul(A)) = 3− dim(Col(A)) = 3− 2 = 1.

90

Page 13: Apuntes Matemáticas I

4. Bases de Rn. Cambios de base.

4.1. Bases de Rn.

Todas las bases de Rn estan formadas por n vectores. Puesto que en ese caso tendremos n vectores linealmenteindependientes con n coordenadas cada uno, la matriz cuadrada formada por dichos vectores como vectores columnatiene inversa (y los vectores columna de dicha matriz inversa formaran otra base de Rn). Por otra parte, tambien losvectores fila de las dos matrices citadas seran una base de Rn. Para comprobar si n vectores forman una base de Rn

bastara con reducir a forma escalonada la matriz formada por dichos vectores como vectores columna y comprobar sise obtienen n pivotes. Notemos que, el orden de los vectores no influye en si estos forman base o no.

Ejemplo. Siendo e1, e2, . . . , en los vectores de la base canonica de Rn, los vectores

e1, e1 + e2, e1 + e2 + e3, . . . , e1 + e2 + · · ·+ en

forman una base de Rn y para calcular las coordenadas de un vector generico x ∈ Rn respecto de esta base basta conresolver el sistema (con termino independiente x)

1 1 · · · 10 1 · · · 1...

.... . .

...0 0 · · · 1

α1

α2

...αn

=

x1

x2

...xn

.

Resolvemos el sistema

1 1 · · · 1 x1

0 1 · · · 1 x2

......

. . ....

...0 0 · · · 1 xn

−→

1 0 0 · · · 0 x1 − x2

0 1 0 · · · 0 x2 − x3

......

. . .. . .

......

0 0 · · · 1 0 xn−1 − xn

0 0 · · · 0 1 xn

.

Por tanto, las coordenadas de x respecto a la base dada son

α1

α2

...αn−1αn

=

x1 − x2

x2 − x3

...xn−1 − xn

xn

.

4.2. Cambios de base.

Dada una base B = {v1, v2, . . . , vn} de Rn, las coordenadas de un vector x ∈ Rn respecto a dicha base son loscoeficientes (unicos) α1, α2, . . . , αn para los cuales se verifica

α1v1 + α2v2 + · · ·+ αnvn = x ≡

...... · · ·

...

v1 v2. . . vn

...... · · ·

...

α1

α2

...αn

= x =

x1

x2

...xn

con x =

x1

x2

...xn

las coordenadas de x respecto de la base canonica.

Dadas dos basesU = {u1, u2, . . . , un} y B = {v1, v2, . . . , vn}

de Rn se trata de hallar la relacion entre las coordenadas de un vector x ∈ Rn respecto de ambas bases. Hallemosprimero, la relacion entre las coordenadas del vector x en la base U y la base canonica C. Las coordenadas de un vector

91

Page 14: Apuntes Matemáticas I

x ∈ Rn respecto a U vienen dadas por un vector [x]U que verifica que

x =

x1

x2

...xn

, [x]U =

α1

α2

...αn

⇔ x = α1u1 + α2u2 + · · ·+ αnun

x1

x2

...xn

=

...... · · ·

...

u1 u2. . . un

...... · · ·

...

α1

α2

...αn

. (∗)

La matriz

...... · · ·

...

u1 u2. . . un

...... · · ·

...

que relaciona las coordenadas de un mismo vector x respecto a la base canonica con las coordenadas del mismo vectorx respecto a la base U se denomina matriz del cambio de base U −→ C de U a la base canonica C = {e1, e2, . . . , en}y se denota por

PC ← U =

...... · · ·

...

u1 u2. . . un

...... · · ·

...

, x = [x]C = P

C ← U[x]U

Puesto que la igualdad (∗) es equivalente a

α1

α2

...αn

=

...... · · ·

...

u1 u2. . . un

...... · · ·

...

−1

x1

x2

...xn

≡ [x]U =

(P

C ← U

)−1[x]C

la matriz

(P

C ← U

)−1es la matriz del cambio de base C → U con lo cual

PU ← C =

(P

C ← U

)−1.

De forma analoga, si consideramos ahora las bases de Rn,

B = {v1, v2, . . . , vn} y U = {u1, u2, . . . , un}

podrıamos obtener las matrices de cambio de base B −→ U y U −→ B de la misma forma que lo que acabamos dehacer si conocieramos las coordenadas de los vectores de una base respecto a la otra. Si, en cambio, conocemos lascoordenadas de los vectores de ambas bases respecto, por ejemplo, a la base canonica, tenemos un planteamientosimilar.

Denotemos las coordenadas de un vector generico x ∈ Rn respecto de ambas bases B y U mediante

[x]B =

α1

...αn

, [x]U =

β1

...βn

.

Tenemos entonces que x = α1v1 + · · ·+ αnvn = β1u1 + · · ·+ βnun y expresando estas igualdades en forma matricialtenemos que

x =

x1

...x3

=

v1 v2 · · · vn

α1

...αn

=

u1 u2 · · · un

β1

...βn

es decir, siendo B la matriz cuyas columnas son los vectores de la base B en la base canonica y siendo U la matrizcuyas columnas son los vectores de la base U en la base canonica, se verifica que

x = B[x]B = U [x]U .

92

Page 15: Apuntes Matemáticas I

Por tanto,

[x]B = B−1U [x]U =⇒ PB ← U

= B−1U,

[x]U = U−1B[x]B =⇒ PU ← B

= U−1B.

Ejemplos.

(1) Vamos a calcular las matrices de cambio de base entre la base canonica de R3 y la base

B ={

v1 = [−2 1 0]T, v2 = [1 − 2 3]

T, v3 = [−1 0 − 1]

T}

.

Siendo las coordenadas de un vector generico x ∈ R3 respecto a B y respecto a la base canonica

[x]B =

α1

α2

α3

, x =

x1

x2

x3

,

respectivamente, se verifica que

x = α1v1 + α2v2 + α3v3 ≡

x1

x2

x3

=

v1 v2 v3

α1

α2

α3

.

Por tanto, la matriz

P =

v1 v2 v3

=

−2 1 −11 −2 00 3 −1

(cuyas columnas son las coordenadas de los vectores de la base B respecto a la base C es la matrizP

C ← B del

cambio de base B −→ C puesto quex = [x]C = P [x]B, ∀x ∈ R3.

Puesto que la inversa P−1 verifica[x]B = P−1[x]C , ∀x ∈ R3

dicha matriz es la del cambio de base C −→ B. Resumiendo,

PC ← B

= P =

−2 1 −11 −2 00 3 −1

, PB ← C

= P−1 = −1

6

2 −2 −21 2 −13 6 3

.

(2) Calculemos las matrices de cambio de base entre las bases

B =

v1 =

−210

, v2 =

1−23

, v3 =

−10−1

y

U =

u1 =

121

, u2 =

−1−22

, u3 =

−132

.

Denotemos las coordenadas de un vector generico x ∈ R3 respecto de ambas bases B y U mediante

[x]B =

α1

α2

α3

, [x]U =

β1

β2

β3

.

Tenemos entonces que x = α1v1 + α2v2 + α3v3 = β1u1 + β2u2 + β3u3. Escribiendo estas igualdades en formamatricial

x1

x2

x3

=

−2 1 −11 −2 00 3 −1

α1

α2

α3

=

1 −1 −12 −2 31 2 2

β1

β2

β3

93

Page 16: Apuntes Matemáticas I

obtenemos

α1

α2

α3

=

−2 1 −11 −2 00 3 −1

−1

1 −1 −12 −2 31 2 2

β1

β2

β3

y, por tanto,

PB ← U

=

−2 1 −11 −2 00 3 −1

−1

1 −1 −12 −2 31 2 2

= − 16

2 −2 −21 2 −13 6 3

1 −1 −12 −2 31 2 2

= 16

4 2 12−4 7 −3−18 9 −21

.

Analogamente podrıamos obtener

PU ← B

=

PB ← U

−1

=1

15

−20 25 −15−5 22 −615 −12 6

.

Ejercicio resuelto

Dadas las bases de R2, B1 =

{(−52

)

,

(2−1

)}

y B2 =

{(−31

)

,

(−41

)}

, encontrar, con la ayuda

de la matriz correspondiente, las coordenadas en la base B2 del vector v cuyas coordenadas en la base B1 son[v]B1 = (2, 1)B1 .

Sabemos que dada una base de R2, B1 = {v1, v2}, la matriz PB1 = [v1|v2] relaciona las coordenadas que un vector vtiene en la base canonica, [v]BC , y las que tiene en la base B1, [v]B1 , de forma que

[v]BC = PB1 [v]B1 .

Analogamente, dada una base B2 = {u1, u2}, la matriz PB2 = [u1|u2] relaciona las coordenadas que un vector v tieneen la base canonica, [v]BC , y las que tiene en la base B2, [v]B2 , de forma que

[v]BC = PB2 [v]B2 .

Combinando ambas expresiones obtenemos

PB1 [v]B1 = PB2 [v]B2 →{

[v]B2 = P−1B2PB1 [v]B1 = PB2←B1 [v]B1 ,

[v]B1 = P−1B1PB2 [v]B2 = PB1←B2 [v]B2 .

Como el enunciado nos da [v]B1 , usaremos [v]B2 = P−1B2PB1 [v]B1 . Puesto que

PB1 =

[−5 22 −1

]

, PB2 =

[−3 −41 1

]

→ P−1B2PB1 =

[1 4−1 −3

] [−5 22 −1

]

=

[3 −2−1 1

]

obtenemos [v]B2 = P−1B2PB1 [v]B1 =

[3 −2−1 1

] [21

]

=

[4−1

]

.

Es facil comprobar que el resultado es correcto. Teniendo en cuenta las coordenadas obtenidas en ambas basesv = 2v1 + v2 = 4u1 − u2 con lo que debe ser cierto

2

[−52

]

+

[2−1

]

= 4

[−31

]

−[−41

]

.

De aquı deducimos ademas (sin mas que sumar los vectores) que, en la base canonica, v = (−8, 3)T .

Ejercicio resueltoConsideremos una transformacion lineal f : R3 −→ R3.Hallar la matriz A que representa a f cuando se trabaja con la base canonica B = {e1, e2, e3}, sabiendo que A essimetrica, que f(e1) = e2+ e3, f(e1+ e2+ e3) = 2(e1+ e2+ e3) y que f(e2) pertenece al subespacio E de ecuacionx− z = 0.

94

Page 17: Apuntes Matemáticas I

La aplicacion lineal dada f : R3 → R3 tiene asociada, respecto de las bases canonicas, la matriz A en cuyas columnasaparecen los transformados de la base canonica del espacio de partida, es decir,

A = [f(e1)|f(e2)|f(e3)] =

a1 b1 c1a2 b2 c2a3 b3 c3

.

Al ser A simetrica, AT = A, debe ser b1 = a2, c1 = a3 y c2 = b3, con lo que A =

a1 a2 a3a2 b2 b3a3 b3 c3

. Puesto que

f(e1) = Ae1 = e2 + e3 = (0, 1, 1)T la matriz A sera

A =

0 1 11 b2 b31 b3 c3

.

Puesto que f(e2) pertenece al subespacio E de ecuacion x− z = 0, los elementos de la segunda columna de A debenverificar dicha ecuacion, es decir, 1− b3 = 0, con lo que b3 = 1 y tenemos

A =

0 1 11 b2 11 1 c3

.

Finalmente, usando f(e1 + e2 + e3) = f(e1) + f(e2) + f(e3) = (2, 2, 2)T , obtenemos que la tercera columna de A debeverificar

f(e3) = (2, 2, 2)T − f(e1)− f(e2) = (2, 2, 2)T − (0, 1, 1)T − (1, b2, 1)T = (1, 1− b2, 0)

T .

Por tanto, debe ser (1, 1, c3)T = (1, 1− b2, 0)

T , con lo que b2 = 0, c3 = 0, y la matriz pedida es

A =

0 1 11 0 11 1 0

.

Es recomendable emplear un minuto en comprobar que la matriz calculada satisface todas las condiciones del enunciado,es decir, que no nos hemos equivocado al calcularla.

5. Ejercicios.

Ejercicio 1. Determinar si los siguientes conjuntos son subespacios vectoriales de R2 y R3, respectivamente:

(a) H =

{[xy

]

∈ R2 : x ≥ 0, y ≥ 0

}

.

(b) H =

xyz

∈ R3 : x+ y = 0

.

Ejercicio 2. Sea E el conjunto de vectores de R4 cuyas dos primeras coordenadas suman cero.

(a) Probar que E es un subespacio vectorial de R4.

(b) Calcular un sistema generador linealmente independiente para dicho subespacio.

(c) Hallar unas ecuaciones implıcitas del subespacio E.

Ejercicio 3. Probar que el espacio nulo y columna de una matriz A de orden m × n son subespacios vectoriales deRn y Rm respectivamente.

Ejercicio 4. Dados la matriz A y el vector b por

A =

1 21 10 2

, b =

322

.

95

Page 18: Apuntes Matemáticas I

(a) Determinar si el vector b pertenece al espacio columna de la matriz A.

(b) Obtener los vectores pertenecientes al espacio nulo de la matriz A.

Ejercicio 5. Sean las matrices A, B y el vector b dados por

A =

1 0 1 11 1 2 01 0 1 11 1 2 0

, B =

1 1 00 1 21 1 3

, b =

3010

.

(a) Determinar unas ecuaciones implıcitas y parametricas del espacio columna de las matrices A y B.

(b) Determinar unas ecuaciones implıcitas linealmente independientes y unas ecuaciones parametricas del espacionulo de A y B.

(c) Hallar un sistema generador linealmente independiente para el espacio nulo y columna de dichas matrices.

(d) Razonar si el vector b pertenece al espacio nulo de la matriz A. ¿Y al espacio nulo de la matriz B?

Ejercicio 6. (a) Determinar el rango de las siguientes matrices:

A =

0 1 −1 2 00 2 1 2 −20 1 −1 2 00 0 −1 −2 3

, B =

−1 1 −1 23 2 3 22 1 2 20 1 0 −2

.

(b) Sea A una matriz 20× 15 cuyo rango es 12. Determinar la dimension de los siguientes subespacios vectoriales,

Col (A), Nul (A), Col (AT ) y Nul (AT ).

Ejercicio 7. Siendo e1, e2, e3 los vectores de la base canonica de R3 y sabiendo que los vectores de la base B verificane1 = 2u1 + 2u2 + u3, e2 = u1 − 2u2 + 2u3, e3 = −2u1 + u2 + 2u3, senalar la relacion correcta entre las siguientes(considerando a los vectores como vectores-columna)

(a) [e1 e2 e3] =

2 2 11 −2 2−2 1 2

[u1 u2 u3] .

(b) [u1 u2 u3] =

2 2 11 −2 2−2 1 2

−1

= 19

2 1 −22 −2 11 2 2

.

(c) [u1 u2 u3] =

2 1 −22 −2 11 2 2

−1

= 19

2 2 11 −2 2−2 1 2

.

Ejercicio 8. Consideremos la base B = {(2, 1)T , (−3,−1)T} de R2. R4:

(a) Obtener, en dicha base, las ecuaciones implıcitas y las parametricas de los subespacios que, en la base canonica,vienen definidos mediante

E ≡ x1 + x2 = 0, F ≡ x1 − 2x2 = 0, G = Gen {(1, 1)T }, H = Gen {(3, 1)T}.

(b) Obtener, en la base canonica, las ecuaciones implıcitas y las parametricas de los subespacios que, en la base B,vienen definidos mediante

E ≡ y1 + 5y2 = 0, F ≡ y2 = 0, G = Gen {(1, 0)TB}, H = Gen {(2, 4)TB}.

96

Page 19: Apuntes Matemáticas I

Tema 5.- Ortogonalidad. Mınimos cuadrados

1. Producto escalar. Norma, distancia, angulos y ortogonalidad.2. El complemento ortogonal de un subespacio.3. Bases ortonormales de un subespacio. Matrices ortogonales.4. Proyeccion ortogonal sobre un subespacio. El teorema de la mejor aproximacion.5. El metodo de Gram-Schmidt.6. Problemas de mınimos cuadrados. Ecuaciones normales de Gauss.7. Ajuste de curvas, regresion lineal.8. Ejercicios.

En este tema estudiamos la estructura metrica de los espacios Rn, es decir, las cuestiones relacionadas con distanciasy angulos. Al contrario de lo que sucede con el estudio de la resolucion de sistemas de ecuaciones lineales, el algebra dematrices, etc., el hecho de considerar aquı vectores reales es esencial. Para poder considerar conceptos metricos en Cn,es decir, con vectores de coordenadas complejas, habrıa que considerar la definicion apropiada (coherente) de productoescalar de vectores complejos, que se suele denominar producto hermıtico. Al aplicar dicha definicion a vectores realesnos darıa la definicion usual que vemos a continuacion y que los alumnos conocen en dimension 2 y en dimension 3.Finalmente, estudiaremos el problema del ajuste por mınimos cuadrados, de gran interes en las aplicaciones.

1. Producto escalar. Norma, distancia, angulos y ortogonalidad.

Definicion. (Producto escalar, norma, ortogonalidad) Consideremos dos vectores x, y ∈ Rn

Se denomina Producto escalar de dos vectores x, y ∈ Rn al numero real

x · y = xT y = yTx = x1y1 + x2y2 + · · ·+ xnyn ∈ R.

Se denomina Norma de un vector x ∈ Rn al numero real no-negativo

||x|| =√

|x1|2 + · · ·+ |xn|2 =√x · x ≥ 0.

Se denomina Distancia entre dos vectores x, y ∈ Rn al numero real no-negativo

d(x, y) = ||x− y|| .

Ortogonalidad

(a) Se dice que dos vectores x, y ∈ Rn son ortogonales (x ⊥ y) si

x · y = 0.

(b) Se dice que un conjunto de vectores {v1, . . . , vm} de Rn es un conjunto ortogonal si cada uno de losvectores vk es ortogonal a todos los demas,

vk · vj = 0, j 6= k.

(c) Se dice que un conjunto de vectores {v1, . . . , vm} de Rn es un conjunto ortonormal si es un conjuntoortogonal y cada uno de los vectores vk tiene norma igual a 1,

vk · vj = 0, j 6= k; ||v1|| = · · · = ||vm|| = 1.

Las propiedades del producto escalar, la norma, la distancia y la ortogonalidad son conocidas por el alumnopara vectores en R2 y en R3. En los espacios Rn, las propiedades son esencialmente las mismas. Notemos que siconsiderasemos dichos conceptos de forma independiente de un sistema de referencia, en cada uno de ellos apareceninvolucrados uno o dos vectores. Algunas de las propiedades del producto escalar pueden obtenerse directamentedel hecho de que el producto escalar de dos vectores puede expresarse como un producto matricial, vector-fila porvector-columna

x · y = [x1, x2, . . . , xn]

y1...yn

= xT y = yTx = [y1, y2, . . . , yn]

x1

...xn

= y · x.

97

Page 20: Apuntes Matemáticas I

Propiedades. Sean x, y ∈ Rn, α ∈ R.

(1) ||x|| = 0⇐⇒ x = 0.

(2) ||αx|| = |α| ||x||.

(3) Desigualdad triangular: ||x+ y|| ≤ ||x||+ ||y|| , (||x− y|| ≤ ||x||+ ||y||).

(1) Desigualdad de Cauchy-Schwartz: |x · y| ≤ ||x|| ||y||.

(4) Teorema de Pitagoras:

x ⊥ y ⇐⇒ ||x+ y||2 = ||x||2 + ||y||2 .

El angulo (los angulos) determinado por dos vectores no-nulos x, y ∈ Rn puede caracterizarse (definirse) mediantela igualdad

x · y = ||x|| ||y|| cos(θ).

2. El complemento ortogonal de un subespacio.

Definicion. (El complemento ortogonal de un subespacio) Dado un subespacio vectorial S de Rn se denomina com-plemento ortogonal de S al conjunto

S⊥ = {v ∈ Rn : v ⊥ u , ∀u ∈ S} .Es decir, S⊥ esta formado por todos los vectores que son ortogonales a todos los vectores de S. Por tanto, el com-

plemento ortogonal del subespacio nulo{

~0}

es Rn puesto que cualquier vector es ortogonal al vector nulo. Por otra

parte, el complemento ortogonal del espacio total Rn es el subespacio nulo, puesto que el vector nulo (de Rn) es elunico que es ortogonal a todos los vectores de Rn.

Ejemplos. A la hora de trabajar con el complemento ortogonal de un subespacio es conveniente tener presente como sepuede caracterizar, el complemento ortogonal de un subespacio, cuando el subespacio viene dado en forma parametricao cuando viene dado en forma implıcita. En R2, un subespacio vectorial de dimension 1 es una recta que pasa por elorigen y su complemento ortogonal sera (como es natural) la recta que pasa por el origen (es un subespacio vectorial)y es perpendicular a la recta dada. En R3, un subespacio vectorial de dimension 1 es una recta que pasa por el origen.Su complemento ortogonal sera el plano que pasa por el origen (es un subespacio vectorial) y es perpendicular a larecta dada. Un subespacio vectorial de dimension 2 es un plano que pasa por el origen. Su complemento ortogonalsera la recta que pasa por el origen (es un subespacio vectorial) y es perpendicular al plano dado.

(1) Consideremos un subespacio de dimension 1 en R2, dado en forma parametrica, es decir, una recta que pasa por

el origen de coordenadas, dada por un vector direccion v1. Por ejemplo, para v1 = [2,−1]T

S = Gen {v1} = {αv1 : α ∈ R} ≡{

x1 = 2αx2 = −α ,

su complemento ortogonal estara formado por los vectores v = [x1, x2]T ∈ R2 que son ortogonales a todos los

vectores de la forma αv1, α ∈ R

v ∈ S⊥ ⇔ (αv1) · v = 0, ∀α ∈ R⇐⇒ v1 · v = 0⇔ 2x1 − x2 = 0.

Es decir, el complemento ortogonal S⊥ esta formado por todos los vectores v = [x1, x2]T ∈ R2 cuyas coordenadas

verifican la ecuacion2x1 − x2 = 0,

con lo cual S⊥ es un subespacio vectorial (de dimension 1) que viene dado en forma implıcita y los coeficientesde la ecuacion implıcita son las coordenadas del vector direccion de S. Si hubieramos considerado otro vectordireccion de S (que sera un multiplo no-nulo de v1), habrıamos obtenido una ecuacion equivalente.

(2) Si consideramos un subespacio vectorial S de dimension 1 en Rn, es decir una recta que pasa por el origen,generada por un vector no-nulo v1 ∈ Rn

S = Gen

v1 =

a1...an

,

98

Page 21: Apuntes Matemáticas I

su complemento ortogonal estara formado por los vectores v = [x1, . . . , xn]T ∈ Rn cuyas coordenadas verifican

la ecuacionv1 · v = 0 ≡ a1x1 + · · ·+ anxn = 0,

con lo cual S⊥ es un subespacio vectorial (de dimension n− 1) que viene dado mediante una ecuacion implıcitay los coeficientes de dicha ecuacion son las coordenadas del vector direccion de S.

Teorema. Dado un subespacio vectorial S de Rn se verifica:

(1) S⊥ es un subespacio vectorial de Rn.

(2)(S⊥)⊥

= S.

(3) Se verifica la siguiente relacion entre S y S⊥.

(a) S ∩ S⊥ = {0}.

(b) S + S⊥ = Rn.

Por tanto, todo vector v de Rn se puede expresar de forma unica como sumade un vector de S y un vector de S⊥. (Esto sera consecuencia del teorema dela proyeccion ortogonal que veremos mas adelante).

(5) Si S = Gen {v1, . . . , vp}, entoncesv ∈ S⊥ ⇐⇒ v ⊥ v1, . . . , v ⊥ vp.

Ejemplo. Antes hemos obtenido el complemento ortogonal de un subespacio de Rn de dimension 1, que era unsubespacio vectorial de dimension n−1 (estos subespacios se suelen denominar hiperplanos). Las propiedades anteriorespermiten obtener facilmente el complemento ortogonal de un subespacio, de dimension n− 1, cuya ecuacion implıcitaes

W ≡ a1x1 + · · ·+ anxn = 0.

Como hemos visto antes,

W = S⊥, siendo S = Gen

a1...an

,

tenemos que W⊥ =(S⊥)⊥

= S. Es decir, de manera inmediata obtenemos, W⊥, en forma parametrica.

El hecho de expresar el complemento ortogonal de una u otra forma parametrica/implıcita dependiendo de comovenga expresado el subespacio vectorial:

S en forma parametrica −→ S⊥ en forma implıcitaS en forma implıcita −→ S⊥ en forma parametrica

queda reflejado con el siguiente Teorema.

Teorema. (Los cuatro subespacios asociados a una matriz) Sea A una matriz real m× n. Se verifica:

[Col (A)]⊥ = Nul (AT ), [Nul (A)]⊥ = Col (AT )

El espacio Col (AT ) se suele denominar espacio fila de la matriz A.

Notemos que en lo que se refiere a las dimensiones de los complementos ortogonales tenemos

dim(

[Col (A)]⊥)

= dim(Nul (AT )

)= m− pivotes de AT = m− rango (A) = m− dim (Col (A)) .

Puesto que cualquier subespacio vectorial se puede expresar como el espacio columna de una matriz tenemos que paracualquier subespacio vectorial S de Rm, se verifica

dim(S⊥)= m− dim (S).

99

Page 22: Apuntes Matemáticas I

3. Bases ortonormales de un subespacio. Matrices ortogonales.

Proposicion. Si {u1, u2, . . . , ur} es un conjunto de vectores no-nulos ortogonales dos a dos, entonces son linealmenteindependientes.Demostracion.- Si tenemos una combinacion lineal de los vectores dados igual al vector nulo

α1u1 + α2u2 + · · ·+ αpup = ~0 (∗)

al multiplicar escalarmente por el vector u1 tenemos

(α1u1 + α2u2 + · · ·+ αpup) · u1 = ~0 · u1 = 0.

Desarrollando el primer miembro de la igualdad

α1u1 · u1 + α2u2 · u1 + · · ·+ αpup · u1 =

usando lacondicion deortogonalidad

=

= α1 ||u1||2 + α20 + · · ·+ αp0 = 0

[

puestoque u1 6= 0

]

=⇒ α1 = 0.

De manera analoga, al multiplicar escalarmente la igualdad (∗) por un vector

uk, k = 1, 2, . . . , p,

se obtiene

α10 + α20 + · · ·+ αk ||uk||2 + · · ·+ αn0 = 0 ⇒

[

puestoque uk 6= 0

]

⇒ αk = 0.

Por tanto, la unica combinacion lineal que es igual al vector nulo es la combinacion lineal identicamente nula (todos los

coeficientes son nulos). Es decir, los vectores dados son linealmente independientes. 2

Proposicion. Sea {u1, u2, . . . , ur} una base ortogonal de un subespacio S de Rn. Entonces:

Las coordenadas de un vector u ∈ S respecto de dicha base vienen dadas poru · uk

||uk||2, es decir, se verifica que

u =u · u1

||u1||2u1 + · · ·+

u · ur

||ur||2ur.

La expresion anterior se suele denominar desarrollo de Fourier de v respecto a la base {u1, u2, . . . , ur}.Antes de pasar a estudiar la proyeccion ortogonal de un vector sobre un subespacio, vamos a considerar las

propiedades de las matrices cuyas columnas son ortonormales. En particular, vamos a considerar las matrices cuadradascuyas columnas son ortonormales. Cuando se tiene un conjunto ortogonal de vectores no-nulos y se normalizan (sedivide cada uno por su norma), obtenemos un conjunto ortonormal de vectores que formaran una base ortonormal delsubespacio vectorial que generan. En terminos de computacion numerica, las matrices cuyas columnas son ortonormalesjuegan un papel importante por ser matrices que transmiten los errores de redondeo de manera controlada.

Proposicion. Sea U = [u1, . . . , un] una matriz real m× n.

(1) U tiene columnas ortonormales ⇐⇒ UTU = I.

(2) Si U tiene columnas ortonormales, la transformacion lineal asociada

U : x ∈ Rn −→ y = Ux ∈ Rm

conserva angulos y distancias, es decir

(a) ||Ux|| = ||x|| , ∀x ∈ Rn.

(b) (Ux) · (Uy) = x · y, ∀x, y ∈ Rn y en particular,

(c) Ux ⊥ Uy ⇐⇒ x ⊥ y.

Un caso particularmente importante lo constituyen las matrices cuadradas con columnas ortonormales.

Definicion. (Matriz ortogonal) Se denomina matriz ortogonal a toda matriz Q real cuadrada no-singular cuyainversa coincide con su traspuesta, Q−1 = QT .

100

Page 23: Apuntes Matemáticas I

Proposicion. Se verifica:

(1) Si Q es ortogonal =⇒ det(Q) = ±1.

(2) Q es ortogonal ⇐⇒ QT es ortogonal.

(3) Si Q1 y Q2 son ortogonales, entonces Q1Q2 es ortogonal.

Proposicion. Sea Q una matriz real cuadrada n× n. Son equivalentes:

(1) Q es una matriz ortogonal.

(2) Las n columnas de Q son ortonormales (y por tanto forman una base ortonormal de Rn).

(3) Las n filas de Q son ortonormales (y por tanto forman una base ortonormal de Rn).

4. Proyeccion ortogonal sobre un subespacio. El teorema de la mejor

aproximacion.

Si consideramos el subespacio vectorial S, de dimension uno (una recta), generado por un vector, u1, no-nulo,S = Gen {u1}, la proyeccion ortogonal de un vector v ∈ Rn sobre S sera el vector u = αu1 ∈ S que verifica que

v − u = v − αu1

es ortogonal a S, es decir, tenemos que determinar α con la condicion que v − αu1 sea ortogonal a u1,

(v − αu1) · u1 = v · u1 − α ||u1||2 = 0 ⇐⇒ α = v·u1

||u1||2 ⇒

=⇒ u = proy S(v) =v·u1

||u1||2 u1.

Para un subespacio de dimension arbitraria puede darse una expresion de la proyeccion ortogonal de un vector sobredicho subespacio cuando disponemos de una base ortogonal de dicho subespacio. Considerando una base ortonormalpuede darse una expresion comoda de la matriz de la proyeccion ortogonal.

Teorema (de la descomposicion ortogonal). Sea S un subespacio vectorial de Rn. Dado cualquier vector v ∈Rn existe un unico vector u ∈ S (llamado proyeccion ortogonal de v sobre S) tal que v − u ∈ S⊥. De hecho, si{u1, u2, . . . , ur} es una base ortogonal de S, entonces la proyeccion ortogonal de v sobre S es

u := proy S(v) =v · u1

||u1||2u1 + · · ·+

v · ur

||ur||2ur,

y la proyeccion ortogonal de v sobre S⊥ esw = v − u.

Notemos que:

Cada sumando de la expresionv · u1

||u1||2u1 + · · ·+

v · ur

||ur||2ur

nos da la proyeccion ortogonal del vector v sobre el subespacio generado por el correspondiente vector uk.

El vector u = proy S(v) verifica que ||u||2 ≤ ||v||2.

Corolario. (Matriz de una proyeccion ortogonal) Sea S un subespacio vectorial de Rn.

(a) Si {u1, u2, . . . , ur} es una base ortonormal de S, la proyecion ortogonal de un vector v ∈ Rn sobre S es

u := proy S(v) = (v · u1)u1 + · · ·+ (v · ur)ur.

101

Page 24: Apuntes Matemáticas I

(b) Siendo U una matriz cuyas columnas forman una base ortonormal de S, la matriz de la proyeccion ortogonalsobre S es PS = UUT , es decir

proy S(v) = UUT v, ∀v ∈ Rn.

Aunque puedan considerarse distintas matrices U como en el enunciado, la matriz PS = UUT que representaa la proyeccion ortogonal, respecto a la base canonica, es unica. Las propiedades caracterısticas de las matrices deproyeccion ortogonal son

P 2S = PS ,

(UUT

)2= U(UTU)UT = UIUT = UUT , y

PS es simetrica,(UUT

)T= (UT )TUT = UUT .

Teorema (de la mejor aproximacion). Sea S un subespacio vectorial de Rn y consideremos un vector x ∈ Rn yun vector y ∈ S. Son equivalentes:

O

x

y

wS

S⊥(a) y es la proyeccion ortogonal de x sobre S,

es decir,

y ∈ S, x− y ∈ S⊥.

(b) y es la mejor aproximacion de x desde S,es decir,

y ∈ S, ||x− y|| ≤ ||x− w|| para todo w ∈ S.

Sea y = proy S(x) y sea w ∈ S. Puesto que

x−w = (x−y)+(y−w), x−y ∈ S⊥, y−w ∈ S,

aplicando el Teorema de Pitagoras tenemos

||x− w||2 = ||x− y||2 + ||y − w||2 ≥ ||x− y||2 .

5. El metodo de Gram-Schmidt.

En el Tema 4 hemos visto como obtener una base de un subespacio vectorial a partir de un conjunto de vectoresque genera el subespacio vectorial. En los epıgrafes anteriores hemos visto que el calculo de las coordenadas de unvector respecto de una base ortogonal es muy simple (desarrollo de Fourier) y que estas permiten dar la expresionde la proyeccion ortogonal sobre el subespacio que generan dichos vectores. El metodo de ortogonalizacion de Gram-Schmidt, que vamos a describir, permite construir de manera progresiva una base ortogonal de un subespacio vectoriala partir de una base de dicho subespacio e incluso de un conjunto de vectores que genere el subespacio.

Partiendo de una base {v1, v2, . . . , vp} de un subespacio S, el metodo consiste en generar uno a uno vectores queson ortogonales a los construidos. Denotamos por S1, S2, . . . , los subespacios vectoriales definidos por

S1 = Gen {v1} , S2 = Gen {v1, v2} , . . . , Sp = Gen {v1, v2, . . . , vp} = S.

El metodo de Gram-Schmidt consiste en generar los vectores:

u1 = v1 ∈ S1,

u2 = v2 − proy S1(v2) ∈ S2, es decir, u2 es el unico vector de la forma u2 = v2 + αu1 que es ortogonal a u1,

u3 = v3 − proy S2(v3) ∈ S3, es decir, u3 es el unico vector de la forma u3 = v3 + αu1 + βu2 que es ortogonal a

u1 y a u2,

. . .

Notemos que, puesto que los vectores {v1, v2, . . . , vp} son linealmente independientes, necesariamente los subespacios

S1 ⊂ S2 ⊂ · · · ⊂ Sp = S

102

Page 25: Apuntes Matemáticas I

son todos distintos (dim (Sk) = k, k = 1, 2, . . . , p), los vectores u1, u2, . . . , up son todos no-nulos y linealmente inde-pendientes y se verifica que

S1 = Gen {v1} = Gen {u1},S2 = Gen {v1, v2} = Gen {u1, u2} ,S3 = Gen {v1, v2, v3} = Gen {u1, u2, v3} = Gen {u1, u2, u3} ,

......

Sp = Gen {v1, . . . , vp} = . . . = Gen {u1, · · · , up} .

Teorema (Metodo de ortogonalizacion de Gram-Schmidt). Consideremos una base {v1, v2, . . . , vp} de unsubespacio vectorial S de Rn. Entonces, los siguientes vectores estan bien definidos

u1 = v1

u2 = v2 −v2 · u1

||u1||2u1

u3 = v3 −v3 · u1

||u1||2u1 −

v3 · u2

||u2||2u2

...

up = vp −vp · u1

||u1||2u1 − · · ·

vp · up−1

||up−1||2up−1

y son no-nulos y ortogonales dos a dos.

(a) {u1, u2, . . . , up} es una base ortogonal de S = Gen {v1, v2, . . . , vp}.(b) Para cada k = 1, . . . , p, {u1, u2, . . . , uk} es una base ortogonal de Sk = Gen {v1, v2, . . . , vk}.

Observaciones.

(a) Si el objetivo es obtener una base ortonormal de S, una vez que se ha obtenido una base ortogonal basta normalizarlos vectores obtenidos.

(b) En cada paso del metodo de Gram-Schmidt que acabamos de describir podrıamos multiplicar (o dividir) el vectorobtenido por un coeficiente no-nulo y seguir los calculos con dicho vector.

(c) Si el vector vk es combinacion lineal de los anteriores, v1, v2, ..., vk−1, al aplicar el metodo de Gram-Schmidtobtenemos uk = 0. Es decir, el metodo de Gram-Schmidt devuelve el vector nulo cuando se aplica a un conjuntode vectores linealmente dependientes.

Ejercicio resueltoConsideremos la matriz

A =

1 0 b a0 1 a b1 0 b a0 1 a b

, a, b ∈ R.

Si a = 0 y b = 1, la matriz B = 12A es la matriz de la proyeccion ortogonal sobre un cierto subespacio S ⊂ R4.

(a) Encontrar una base ortonormal del subespacio S.

(b) Calcular la proyeccion ortogonal del vector (1, 1, 1, 1)T sobre S⊥.

Si a = 0 y b = 1 la matriz B es

B =1

2A =

1

2

1 0 1 00 1 0 11 0 1 00 1 0 1

.

(a) Nos dicen que B es la matriz PS de la proyeccion ortogonal sobre un cierto subespacio S ⊂ R4, es decir, que laproyeccion ortogonal de cualquier vector x ∈ R4 sobre S es Bx. Los vectores v que pertenecen a S son aquellos quecoinciden con su proyeccion ortogonal sobre S, es decir, los que verifican Bv = v. Resolviendo este sistema

1

2

1 0 1 00 1 0 11 0 1 00 1 0 1

v1v2v3v4

=

v1v2v3v4

→ 1

2

−1 0 1 00 −1 0 11 0 −1 00 1 0 −1

v1v2v3v4

=

0000

→{

v1 − v3 = 0,v2 − v4 = 0,

103

Page 26: Apuntes Matemáticas I

obtenemos

v = α

1010

+ β

0101

, α, β ∈ R → S = Gen

u1 =

1010

, u2 =

0101

.

Como la base encontrada ya es ortogonal (u1 · u2 = 0), basta con dividir por la norma de cada vector para encontraruna base ortonormal de S:

1√2

1010

,1√2

0101

.

(b) Para calcular la proyeccion ortogonal del vector w = (1, 1, 1, 1)T sobre S⊥, usamos que la matriz de la proyeccionortogonal sobre S⊥, PS⊥ , vale

PS⊥ = I − PS =

1 0 0 00 1 0 00 0 1 00 0 0 1

− 1

2

1 0 1 00 1 0 11 0 1 00 1 0 1

=

1

2

1 0 −1 00 1 0 −1−1 0 1 00 −1 0 1

con lo que

ProyS⊥w = PS⊥w =1

2

1 0 −1 00 1 0 −1−1 0 1 00 −1 0 1

1111

=

0000

,

resultado logico ya que w ∈ S, pues verifica sus ecuaciones implıcitas (halladas en el apartado anterior), x1 − x3 = 0,x2 − x4 = 0 (en particular, podemos ver que w = u1 + u2).

Ejercicio resueltoDados el subespacio E de R4 y la matriz A

E = Gen

u1 =

1001

, u2 =

0102

, u3 =

0011

, A =

a1 b1a2 2a3 b2−2 b3

.

(a) Encontrar la matriz de la proyeccion ortogonal sobre E.

(b) Calcular A sabiendo que Col(A) esta contenido en E⊥.

(a) Para calcular la matriz de la proyeccion ortogonal PE sobre un subespacio E necesitamos una base ortonormalde E. Pero teniendo en cuenta que PE + PE⊥ = I, puede ser mas facil calcular primero PE⊥ a partir de una baseortonormal de E⊥. Por tanto, lo mas conveniente es trabajar con el espacio que tenga menor dimension entre E y E⊥.Por un lado, dim(E) = 3 pues los tres vectores que lo generan son linealmente independientes

1 0 00 1 00 0 11 2 1

1 0 00 1 00 0 10 2 1

1 0 00 1 00 0 10 0 1

1 0 00 1 00 0 10 0 0

.

De esta forma, al estar en R4, dim(E⊥) = 4−dim(E) = 4−3 = 1, con lo que es trivial encontrar una base ortonormalde E⊥ y muy tedioso hallarla para E.

Para trabajar con E⊥ podemos escribir sus ecuaciones implıcitas (a partir de un conjunto generador de E; si setrata de una base de E, entonces tenemos garantıa de que no nos sobra ninguna ecuacion en ese conjunto de ecuacionesimplıcitas):

E⊥ ≡

x1 + x4 = 0x2 + 2x4 = 0x3 + x4 = 0

−→

x4 ∈ R

x1 = −x4

x2 = −2x4

x3 = −x4

−→ E⊥ = Gen

121−1

.

Otra forma de encontrar una base de E⊥ es a partir de las ecuaciones implıcitas de E, y estas son faciles de calcular

104

Page 27: Apuntes Matemáticas I

(repetimos la primera eliminacion que hicimos para ver la dimension de E, anadiendo una cuarta columna):

1 0 0 x1

0 1 0 x2

0 0 1 x3

1 2 1 x4

1 0 0 x1

0 1 0 x2

0 0 1 x3

0 2 1 x4 − x1

1 0 0 x1

0 1 0 x2

0 0 1 x3

0 0 1 x4 − x1 − 2x2

1 0 0 x1

0 1 0 x2

0 0 1 x3

0 0 0 x4 − x1

−2x2 − x3

,

de donde deducimos que x1 + 2x2 + x3 − x4 = 0 es una ecuacion implıcita de E (es recomendable emplear unossegundos en comprobar que todos los vectores que generan E satisfacen todas las ecuaciones implıcitas obtenidas;en nuestro caso, que los tres vectores verifican la ecuacion). Observemos que obtenemos una sola ecuacion implıcitapues E tiene dimension 3 y es un subespacio de R4. A partir de dicha ecuacion implıcita de E deducimos queE⊥ = Gen{(1, 2, 1,−1)T}.

La ventaja de trabajar con E⊥ es que la base obtenida ya es ortogonal (al tener un unico vector) y, por tanto, unabase ortonormal es BE⊥ = {v1 = 1√

7(1, 2, 1,−1)T}. Construyendo la matriz U = [v1] podemos ya calcular la matriz

de la proyeccion ortogonal sobre E⊥ que viene dada por

PE⊥ = UUT =1√7

121−1

1√7

[1 2 1 −1

]=

1

7

1 2 1 −12 4 2 −21 2 1 −1−1 −2 −1 1

.

Es muy facil obtener entonces la matriz de la proyeccion ortogonal sobre E

PE = I − PE⊥ =1

7

6 −2 −1 1−2 3 −2 2−1 −2 6 11 2 1 6

.

Para estar seguros de que las matrices encontradas son las correctas es recomendable comprobar que, al proyectar cadavector de la base de ese espacio obtenemos el mismo vector, y que, al proyectar cada vector de la base del subespacioortogonal obtenemos el vector nulo. Ademas, hay dos comprobaciones inmediatas que si no las satisface una matrizde proyeccion seguro que esta mal calculada: es siempre una matriz cuadrada, en este caso al estar el subespacio enR4 es 4× 4 y debe ser simetrica al ser (UUT )T = (UT )TUT = UUT .

Observemos que un camino no recomendable (pues nos puede llevar mucho tiempo y seguramente con errores en loscalculos) para calcular PE consiste en buscar una base de E, {z1, z2, z3}, aplicarle el metodo de Gram–Schmidt paraconseguir una base ortogonal, {t1, t2, t3}, dividir por las normas de los vectores para conseguir una base ortonormal yconstruir la matriz

U =

[t1||t1||

∣∣∣∣

t2||t2||

∣∣∣∣

t3||t3||

]

,

con lo que, finalmente, PE = UUT .

(b) Si Col(A) esta contenido en E⊥, quiere decir que cada columna de A se puede escribir como combinacion linealde los vectores de cualquier base de E⊥. Como una base de E⊥ es {(1, 2, 1,−1)T}, debe verificarse

a1a2a3−2

= α

121−1

α = 2,a1 = 2,a2 = 4,a3 = 2,

;

b12b2b3

= β

121−1

β = 1,b1 = 1,b2 = 1,b3 = −1,

con lo que la matriz A buscada resulta ser A =

a1 b1a2 2a3 b2−2 b3

=

2 14 22 1−2 −1

.

Un planteamiento equivalente consiste en exigir que la matriz siguiente tenga rango uno

r

1 a1 b12 a2 21 a3 b2−1 −2 b3

= r

1 a1 b10 a2 − 2a1 2− 2b10 a3 − a1 b2 − b10 a1 − 2 b3 + b1

= 1 −→

a2 − 2a1 = 0,a3 − a1 = 0,a1 − 2 = 0,2− 2b1 = 0,b2 − b1 = 0,b3 + b1 = 0,

−→

a1 = 2,a2 = 4,a3 = 2,b1 = 1,b2 = 1,b3 = −1.

105

Page 28: Apuntes Matemáticas I

Otra posibilidad es exigir que las columnas de A verifiquen las tres ecuaciones implıcitas de E⊥ obtenidas en el primerapartado.

Ejercicio resueltoConsideremos el subespacio E de R3 definido mediante x− z = 0 y la aplicacion lineal f : R3 −→ R3 representada(en la base canonica de R3) por la matriz

A =

3 −2 10 −1 22 −1 0

.

(a) Hallar la proyeccion ortogonal del vector (−1, 1, 1)T sobre el subespacio f(E).

(b) Encontrar la matriz de la proyeccion ortogonal sobre el subespacio [f(E)]⊥.

(a) A partir de las ecuaciones implıcitas de E, x− z = 0, es inmediato deducir (resolviendo la ecuacion que define aE) que:

E = Gen

v1 =

101

, v2 =

010

.

Si x es un vector de E, x ∈ E, entonces se podra escribir como x = α1v1 + α2v2 y su transformado, mediante latransformacion lineal f , sera f(x) = f(α1v1 + α2v2) = α1f(v1) + α2f(v2) es decir, que si E = Gen {v1, v2} entonces,f(E) = Gen {f(v1), f(v2)}. Calculamos pues

f(v1) = Av1 =

3 −2 10 −1 22 −1 0

101

=

422

,

f(v2) = Av2 =

3 −2 10 −1 22 −1 0

010

=

−2−1−1

,

con lo que f(E) = Gen {(4, 2, 2)T , (−2,−1,−1)T} = Gen {w = (2, 1, 1)T }.Puesto que dim(f(E)) = 1 y se trata de un subespacio de R3, entonces dim([f(E)]⊥) = 2, con lo que es mas facil

proyectar sobre f(E) que sobre [f(E)]⊥.Cuidado, no hay que confundir [f(E)]⊥ con f(E⊥). Este ultimo viene generado por f [(1, 0,−1)T ] = (2,−2, 2)T , ya

que E⊥ = Gen {(1, 0,−1)T}, mientras que una ecuacion implıcita que define [f(E)]⊥ es 2x+ y + z = 0 y, por tanto,resolviendo esta ecuacion, [f(E)]⊥ = Gen {u1 = (1,−2, 0)T , u2 = (0,−1, 1)T}.

Para proyectar sobre un subespacio necesitamos conocer una base ortogonal suya. Puesto que una base de f(E) esw = (2, 1, 1)T (que es ortogonal al estar formada por un unico vector) ya podemos proyectar el vector u = (−1, 1, 1)Tsobre f(E)

Proyf(E)u =u · ww · w w =

0

6w =

000

.

Este resultado indica que el vector u que hemos proyectado sobre f(E) pertenece a [f(E)]⊥.Si preferimos proyectar mediante la matriz de la proyeccion Pf(E), la calculamos construyendo U = (w/||w||) de

forma que

Pf(E) = UUT =

√6

6

211

√6

6

(2 1 1

)=

1

6

4 2 22 1 12 1 1

.

Conviene emplear unos segundos en comprobar que la matriz Pf(E) calculada es correcta (hay dos comprobacionesinmediatas que si no las satisface seguro que esta mal: es siempre una matriz cuadrada, en este caso al estar elsubespacio en R3 es 3× 3; ademas debe ser simetrica al ser (UUT )T = (UT )TUT = UUT ). Para tener garantıa de queesta bien calculada, vemos que Pf(E)w = w (como la proyeccion de cualquier vector de f(E) sobre f(E) es el propiovector, basta con comprobarlo con todos los vectores de su base) y que Pf(E)u1 = Pf(E)u2 = 0 (como la proyeccion de

cualquier vector de [f(E)]⊥ sobre f(E) es el vector nulo, lo verificamos con todos los vectores de la base de [f(E)]⊥).De esta forma

Proyf(E)u = Pf(E)u =1

6

4 2 22 1 12 1 1

−111

=

000

.

106

Page 29: Apuntes Matemáticas I

(b) Por la consideracion de las dimensiones f(E) y de [f(E)]⊥, la manera mas facil de calcular P[f(E)]⊥ es teniendoen cuenta que Pf(E) + P[f(E)]⊥ = I. Puesto que ya hemos calculado Pf(E), es inmediato que

P[f(E)]⊥ = I − Pf(E) =

1 0 00 1 00 0 1

− 1

6

4 2 22 1 12 1 1

=1

6

2 −2 −2−2 5 −1−2 −1 5

.

Veamos que si no recurrimos al subespacio ortogonal, es decir, si trabajamos directamente con [f(E)]⊥ los calculosseran mas engorrosos. Para calcular la matriz de la proyeccion necesitamos una base ortonormal del subespacio. Comouna ecuacion implıcita de [f(E)]⊥ es 2x+ y+ z = 0, resolviendo esta ecuacion, obtenemos una base B[f(E)]⊥ = {u1 =

(1,−2, 0)T , u2 = (0,−1, 1)T}. Para obtener una base ortogonal vamos a aplicar el metodo de Gram–Schmidt a esosdos vectores

w1 = u1 =

1−20

; w2 = u2 −u2 · w1

w1 · w1w1 =

0−11

− 2

5

1−20

=

−2/5−1/51

.

Conviene comprobar, para detectar posibles errores, que w1 y w2 son ortogonales, es decir, que w1 · w2 = 0.Por tanto, una base ortogonal de [f(E)]⊥ viene dada por {w1, w2}. Por comodidad, en vez de w2 podemos tomar

un multiplo suyo para evitar la aparicion de fracciones, obteniendo la base ortogonal

{w1 = (1,−2, 0)T , w′2 = (2, 1,−5)T}.

Dividiendo por su norma conseguimos una base ortonormal de [f(E)]⊥, B[f(E)]⊥ ={

w1

||w1|| ,w′

2

||w′

2||

}

, a partir de la cual

construimos la matriz U =(

w1

||w1||

∣∣∣

w′

2

||w′

2||

)

con lo que

P[f(E)]⊥ = UUT =

√55

√3015

− 2√5

5

√3030

0 −√306

( √55 − 2

√5

5 0√3015

√3030 −

√306

)

=1

6

2 −2 −2−2 5 −1−2 −1 5

.

Observemos que una alternativa a aplicar el metodo de Gram-Schmidt es buscar con cuidado una base ortogonalde [f(E)]⊥. Como su ecuacion implıcita es 2x+ y + z = 0, elegimos un primer vector cualquiera (cuanto mas sencillomejor, pues en la solucion aparecen dos parametros) que verifique esa ecuacion, por ejemplo, z1 = (1,−2, 0)T . Ahoraun segundo vector, z2 = (a, b, c)T , lo determinamos exigiendo que verifique la ecuacion anterior y que sea perpendiculara z1, es decir, debe verificar 2a + b + c = 0, a − 2b = 0. Elegimos un vector cualquiera (en la solucion aparece unparametro) que verifique este sistema, por ejemplo, z2 = (2, 1,−5)T . La base ortogonal encontrada es {z1, z2}.

Ejercicio resueltoHallar la proyeccion ortogonal del vector (3,−4, 5)T sobre el subespacio f(E) siendo f la aplicacion lineal dadapor la matriz

A =

1 0 1−1 1 00 1 −1

y E el subespacio de R3 dado por x− y − z = 0.

A partir de las ecuaciones implıcitas de E, x − y − z = 0, es inmediato deducir (resolviendo la ecuacion que define aE) que:

E = Gen

v1 =

110

, v2 =

101

.

Si x es un vector de E, x ∈ E, entonces se podra escribir como x = α1v1 + α2v2 y su transformado, mediante latransformacion lineal f , sera f(x) = f(α1v1 + α2v2) = α1f(v1) + α2f(v2) es decir, que si E = Gen {v1, v2} entonces,f(E) = Gen {f(v1), f(v2)}. Calculamos pues

f(v1) = Av1 =

1 0 1−1 1 00 1 −1

110

=

101

,

f(v2) = Av2 =

1 0 1−1 1 00 1 −1

101

=

2−1−1

.

107

Page 30: Apuntes Matemáticas I

Puesto que dim(f(E)) = 2 (pues f(v1) y f(v2) son linealmente independientes) y estamos enR3 entonces dim([f(E)]⊥) =1, con lo que es mas facil proyectar sobre [f(E)]⊥. Cuidado, no hay que confundir [f(E)]⊥ con f(E⊥). Este ultimoviene generado por f [(1,−1,−1)T ] = (0,−2, 0)T , ya que E⊥ = Gen {(1,−1,−1)T}.

Si hallamos las ecuaciones implıcitas de f(E) (debe ser una ecuacion, pues es un subespacio de dimension 2 en R3)

1 2 x0 −1 y1 −1 z

1 2 x0 −1 y0 −3 z − x

1 2 x0 −1 y0 0 z − x− 3y

−→ f(E) ≡ x+ 3y − z = 0,

podemos deducir inmediatamente que [f(E)]⊥ = Gen {w = (1, 3,−1)T}. Observemos que, por estar en R3, podemosencontrar un vector de [f(E)]⊥ calculando el producto vectorial de f(v1) con f(v2), f(v1)× f(v2) = (1, 3− 1)T .

Puesto que w es una base ortogonal de [f(E)]⊥, ya podemos proyectar ortogonalmente

Proy[f(E)]⊥u =u · ww · ww = −14

11

13−1

.

De esta forma,

Proyf(E)u = u− Proy[f(E)]⊥u =

3−45

+14

11

13−1

=1

11

47−241

.

Mencionemos otros caminos que podıamos haber seguido, aunque sean menos aconsejables pues son mas largos.Conocida una base ortogonal de f(E), {w1, w2} (para lo que tenemos que aplicar el metodo de Gram–Schmidt

a f(v1), f(v2) o bien, buscar con cuidado, a partir de la ecuacion implıcita de f(E), x + 3y − z = 0, dos vectoresortogonales) podemos aplicar

Proyf(E)u =u · w1

w1 · w1w1 +

u · w2

w2 · w2w2.

Si preferimos proyectar sobre f(E) usando la matriz de la proyeccion, lo mas facil es calcular mediante una baseortonormal de [f(E)]⊥ (como solo tiene un vector, w, basta con dividir por su norma, w/|w|) la matriz P[f(E)]⊥ yluego Pf(E) = I − P[f(E)]⊥ con lo que Proyf(E)u = Pf(E)u. Notemos que si pretendemos calcular la matriz Pf(E)

directamente, necesitamos una base ortonormal de f(E) por lo que tenemos que aplicar el metodo de Gram–Schmidta f(v1), f(v2) o bien, buscaremos con cuidado, a partir de la ecuacion implıcita de f(E), x+ 3y− z = 0, dos vectoresortogonales.

Ejercicio resueltoConsidera el siguiente subespacio de R4:

F ≡ x1 + x3 + x4 = 0.

(a) Determina las matrices de la proyeccion ortogonal sobre F y sobre F⊥.(b) Sea v = [5 3 4 − 6]T . Halla unos vectores u1 ∈ F y u2 ∈ F⊥ tales que v = u1 + u2.

(a) Para calcular las matrices de la proyeccion ortogonal sobre F , PF , y sobre F⊥, PF⊥ , lo mas conveniente es trabajarcon el espacio de menor dimension. Por un lado, dim(F ) = 3 pues F ⊂ R4 y esta definido por una ecuacion implıcita.De esta forma, dim(F⊥) = 4− dim(F ) = 4− 3 = 1. Con lo que es trivial encontrar una base ortonormal de F⊥ y muymuy tedioso hallarla para F .

Como F ≡ x1 + x2 + x4 = 0 entonces

F⊥ = Gen

1011

= Gen

1/√3

0

1/√3

1/√3

.

Usando esta base ortonormal, la matriz de la proyeccion ortogonal sobre F⊥ viene dada por

PF⊥ =

1/√3

0

1/√3

1/√3

(1/√3 0 1/

√3 1/

√3)=

1/3 0 1/3 1/30 0 0 01/3 0 1/3 1/31/3 0 1/3 1/3

=

1

3

1 0 1 10 0 0 01 0 1 11 0 1 1

.

Es muy facil obtener entonces la matriz de la proyeccion ortogonal sobre F

PF = I − PF⊥ =

2/3 0 −1/3 −1/30 1 0 0−1/3 0 2/3 −1/3−1/3 0 −1/3 2/3

=

1

3

2 0 −1 −10 3 0 0−1 0 2 −1−1 0 −1 2

.

108

Page 31: Apuntes Matemáticas I

Para estar seguros de que las matrices encontradas son correctas es recomendable comprobar que, al proyectar cadavector de la base de ese espacio obtenemos el mismo vector, y que, al proyectar cada vector del subespacio ortogonalobtenemos el vector nulo.

Observemos que un camino no recomendable (pues nos puede llevar mucho tiempo y seguramente con errores en loscalculos) para calcular PF consiste en buscar una base de F , {z1, z2, z3}, aplicarle el metodo de Gram–Schmidt paraconseguir una base ortogonal, {t1, t2, t3}, dividir por las normas de los vectores para conseguir una base ortonormal yconstruir la matriz

U =

[t1||t1||

∣∣∣∣

t2||t2||

∣∣∣∣

t3||t3||

]

,

con lo que, finalmente, PF = UUT .

(b) Dado el vector v, pedirnos unos vectores u1 ∈ F y u2 ∈ F⊥ tales que v = u1+u2, es demandarnos las proyeccionesortogonales de v sobre F y F⊥:

v = u1 + u2 = ProyF v + ProyF⊥v.

Estas proyecciones las calculamos facilmente

u1 = PF v =1

3

2 0 −1 −10 3 0 0−1 0 2 −1−1 0 −1 2

534−6

=

433−7

; u2 = ProyF⊥v =v · s1s1 · s1

s1 =3

3s1 =

1011

.

Obviamente, podemos calcular primero ProyF v o ProyF⊥v y despues encontrar el otro vector aplicando que v =ProyF v + ProyF⊥v.

Ejercicio resueltoSiendo α ∈ R, consideremos el subespacio H ≡ αx1 + x2 + 4αx3 = 0 de R3 y los vectores

v1 =

112

y v2 =

102

.

Determina α para que la proyeccion ortogonal de v1 sobre H sea perpendicular a v2.

Nos piden que hallemos α exigiendo que ProyHv1 · v2 = 0. Necesitamos pues calcular la proyeccion ortogonal de v1sobre el subespacio H , ProyHv1. Como dim(H) = 2 y H ⊂ R3, entonces dim(H⊥) = 1, con lo que es mas sencillocalcular la proyeccion sobre H⊥ = Gen{u = (α, 1, 4α)T }:

ProyH⊥v1 =v1 · uu · u u =

9α+ 1

17α2 + 1

α14α

=1

17α2 + 1

9α2 + α9α+ 1

36α2 + 4α

.

Ası,

ProyHv1 = v1 − ProyH⊥v1 =1

17α2 + 1

8α2 − α+ 117α2 − 9α−2α2 − 4α+ 2

,

con lo que podemos hallar los valores de α pedidos exigiendo

ProyHv1 · v2 =1

17α2 + 1

8α2 − α+ 117α2 − 9α−2α2 − 4α+ 2

·

102

= 0 → 4α2 − 9α+ 5 = 0 → α = 1,5

4.

Vamos a comentar un procedimiento alternativo y menos engorroso que el anterior. Como H⊥ = Gen{u}, entoncesProyH⊥v1 = ku siendo k un numero que desconocemos. Con esto

ProyHv1 = v1 − ProyH⊥v1 = v1 − ku =

1− kα1− k

2− 4kα

,

y como ProyHv1 ∈ H debe verificar su ecuacion implıcita, lo que nos proporciona la siguiente condicion para k y α:

α(1 − kα) + (1− k) + 4α(2 − 4kα) = 0 → 17kα2 − 9α+ k − 1 = 0. (7)

Esta ecuacion junto con la que obtenemos al exigir

ProyHv1 · v2 = 0 →

1− kα1− k

2− 4kα

·

102

= 5− 9kα = 0,

109

Page 32: Apuntes Matemáticas I

forma un sistema de dos ecuaciones con dos incognitas

17kα2 − 9α+ k − 1 = 09kα = 5

}

que podemos resolver despejando k de la segunda ecuacion, k = 5/9α (notemos que α no puede anularse porque lasegunda ecuacion serıa incompatible, 0 = 5) y sustituyendo en la primera con lo que llegamos a la misma ecuacion desegundo grado para α

4α2 − 9α+ 5 = 0 → α = 1,5

4.

Ejercicio resueltoDado el subespacio

E = Gen{(a, 0, 0, 0)T , (a, a, b, 0)T , (a, b,−a, 1)T}, a, b ∈ R.

(a) Hallar una base ortonormal del subespacio E segun los valores de los parametros a y b.

(b) Para a = 0, hallar la matriz de la proyeccion ortogonal sobre E, segun los valores de b.

(c) Dado el subespacio F ≡

x1 = 0,5x1 + x2 + 3x3 = 0,−2x1 + 3x2 − x3 + x4 = 0,

determinar los valores de a y b para que F sea

ortogonal a E, F = E⊥.

(a) Como nos piden una base ortonormal, primero buscamos una base de E, luego encontramos una base ortogonalaplicando el metodo de Gram–Schmidt y, finalmente, dividiendo por la norma de cada vector, una base ortonormal.

Al darnos un conjunto generador de E, para encontrar una base debemos estudiar que vectores son linealmenteindependientes. Ası, para a 6= 0 obtenemos

a a a0 a b0 b −a0 0 1

F3 − baF2

-

a a a0 a b

0 0 −a− b2

a0 0 1

a a a0 a b0 0 10 0 0

es decir, los tres vectores son linealmente independientes para cualquier valor de b, con lo que una base de E, en estecaso, es {(a, 0, 0, 0)T , (a, a, b, 0)T , (a, b,−a, 1)T}.

Observemos que si lo preferimos, en el primer paso del proceso de eliminacion podemos dividir por a 6= 0 las

tres primeras filas y trabajar con la matriz

1 1 10 1 b/a0 b/a −10 0 1

. Podemos entonces, si queremos, tomar como base

{(1, 0, 0, 0)T , (1, 1, b/a, 0)T , (1, b/a,−1, 1)T}.

Cuando a = 0, formamos, con los vectores que generanE, la siguiente matriz

0 0 00 0 b0 b 00 0 1

, con lo que es inmediato

obtener que {(0, 0, b, 0)T , (0, b, 0, 1)T} es una base si b 6= 0 (las dos ultimas columnas son linealmente independientes)y que {(0, 0, 0, 1)T} forma una base cuando b = 0 (el unico vector no nulo es el tercero).

Hemos visto pues que: si a 6= 0 la dimension de E es tres, independientemente del valor de b; si a = 0 y b 6= 0 Etiene dimension dos; si a = b = 0, la dimension de E es uno.

Comenzamos con el caso mas sencillo. Si a = b = 0 la base {(0, 0, 0, 1)T} ya es ortogonal (pues solo tiene un vector)y casualmente tambien es ortonormal (pues el vector tiene norma uno).

La segunda situacion aparece cuando a = 0 y b 6= 0. La base encontrada, {(0, 0, b, 0)T , (0, b, 0, 1)T}, coincideque es ortogonal (el producto escalar de sus dos vectores es nulo) pero no es ortonormal. Basta con dividir ca-da vector por su norma. La del primero es |b| y la del segundo

√b2 + 1. Una base ortonormal es, por ejemplo,

{(0, 0, 1, 0)T , 1√b2+1

(0, b, 0, 1)T}. Observemos, como anecdota, que para obtener el primer vector (0, 0, 1, 0)T tenemos

que dividir por |b| si b > 0 y por −|b| si b < 0.La ultima posibilidad aparece cuando a 6= 0 (y cualquier valor de b). En este caso la base obtenida, {v1 =

(a, 0, 0, 0)T , v2 = (a, a, b, 0)T , v3 = (a, b,−a, 1)T}, no es ortogonal. Aplicamos el metodo de Gram–Schmidt para en-contrar una base ortogonal:

x1 = v1 =

a000

, x2 = v2 −v2 · x1

x1 · x1x1 =

aab0

− a2

a2

a000

=

0ab0

,

110

Page 33: Apuntes Matemáticas I

x3 = v3 −v3 · x1

x1 · x1x1 −

v3 · x2

x2 · x2x2 =

ab−a1

− a2

a2

a000

− 0

a2 + b2

0ab0

=

0b−a1

.

Recordemos que siempre que se aplica el metodo de Gram–Schmidt conviene comprobar, en cada paso, que el vectorobtenido es ortogonal a todos los anteriores. Ası, tras el primer paso comprobamos que x2 · x1 = 0 y tras el segundoque x3 · x1 = 0 y x3 · x2 = 0. Hemos encontrado una base ortogonal de E cuando a 6= 0, {x1, x2, x3}. Normalizandocada vector llegamos a la base ortonormal

{(1, 0, 0, 0)T , 1√a2 + b2

(0, a, b, 0)T ,1√

a2 + b2 + 1(0, b,−a, 1)T}.

(b) Para calcular la matriz de la proyeccion sobre un subespacio necesitamos una base ortonormal suya (que hemoscalculado en el apartado anterior), formamos una matriz U colocando en sus columnas los vectores de dicha base y lamatriz de la proyeccion buscada se obtiene multiplicando UUT .

Nos piden en el caso a = 0, con lo que hay que distinguir entre b = 0 y b 6= 0. Ası, para b = 0 obtenemos

U =

0001

→ PE = UUT =

0001

(0 0 0 1

)=

0 0 0 00 0 0 00 0 0 00 0 0 1

,

mientras que para b 6= 0 llegamos a

U=

0 00 b√

b2+1

1 00 1√

b2+1

→ PE = UUT =

0 00 b√

b2+1

1 00 1√

b2+1

(0 0 1 00 b√

b2+10 1√

b2+1

)

=

0 0 0 0

0 b2

b2+1 0 bb2+1

0 0 1 00 b

b2+1 0 1b2+1

.

Una comprobacion inmediata que permite detectar errores en los calculos es verificar que la matriz de la proyeccionortogonal obtenida es simetrica, pues PT

E = (UUT )T = UTU = PE .

(c) Una forma de resolver este apartado es buscar una base de F y exigir que todos los vectores de dicha base seanperpendiculares a todos los de cualquier base de E. Resolviendo el sistema de ecuaciones implıcitas obtenemos

F ≡

x1 = 0,5x1 + x2 + 3x3 = 0,−2x1 + 3x2 − x3 + x4 = 0,

−→

x1

x2

x3

x4

= x3

0−3110

, x3 ∈ R −→ u ∼

0−3110

,

con lo que el vector u es una base de F , BF = {u}. Por tanto, exigiendo perpendicularidad entre todos los vectoresde las bases, BF y BE = {v1, v2, v3}, llegamos a

u ⊥ v1 = 0u ⊥ v2 = 0u ⊥ v3 = 0

−→

u · v1 = 0u · v2 = 0u · v3 = 0

−→

0 = 0−3a+ b = 0

−3b− a+ 10 = 0

−→

{a = 1,b = 3.

Ejercicio resueltoSea V ⊂ R5 el subespacio formado por los vectores cuyas componentes suman cero. Encontrar el vector de V masproximo a w = (1, 2, 3, 4, 5)T .

Del enunciado deducimos que V viene definido por la ecuacion implıcita x1 + x2 + x3 + x4 + x5 = 0. Sabemos que elvector de V mas proximo a w es la proyeccion ortogonal de w sobre V , ProyV w. Como V ⊂ R5 y viene definido poruna ecuacion implıcita, deducimos que dim(V ) = 4 y que dim(V ⊥) = 5 − dim(V ) = 5 − 4 = 1. Ante esta diferenciaentre las dimensiones de V y V ⊥, es obvio que resulta mucho mas facil proyectar ortogonalmente sobre V ⊥ que sobreV .

Recordemos que para proyectar ortogonalmente sobre un subespacio necesitamos una base ortogonal suya. Ennuestro caso, de la ecuacion implıcita de V deducimos que

V ⊥ = Gen {u = (1, 1, 1, 1, 1)T},

es decir, ya tenemos una base ortogonal (pues solo tiene un vector) de V ⊥, BV ⊥ = {u}. Por tanto,

ProyV ⊥w =w · uu · u u =

15

5u = 3u = (3, 3, 3, 3, 3)T ,

111

Page 34: Apuntes Matemáticas I

es decir, el vector que nos piden es

ProyV w = w − ProyV ⊥w = (1, 2, 3, 4, 5)T − (3, 3, 3, 3, 3)T = (−2,−1, 0, 1, 2)T .

Conviene comprobar que el vector encontrado pertenece a V , es decir, que verifica su ecuacion implıcita: −2− 1+ 0+1 + 2 = 0.

Si elegimos el camino de proyectar directamente sobre V (cosa totalmente desaconsejable, como podemos ver acontinuacion, por los calculos tan tediosos que aparecen) procederemos de la siguiente forma. Primero encontramosuna base de V resolviendo su ecuacion implıcita, con lo que llegamos a

V = Gen {v1 = (−1, 1, 0, 0, 0)T , v2 = (−1, 0, 1, 0, 0)T , v3 = (−1, 0, 0, 1, 0)T , v4 = (−1, 0, 0, 0, 1)T}.

Como esta base no es ortogonal, aplicamos el metodo de Gram–Schmidt a esos cuatro vectores:

x1 = v1 =

−11000

,

x2 = v2 −v2 · x1

x1 · x1x1 = v2 −

1

2x1 =

−1/2−1/2100

∼ x′2 =

−1−1200

,

x3 = v3 −v3 · x1

x1 · x1x1 −

v3 · x′2x′2 · x′2

x′2 = v3 −1

2x1 −

1

6x′2 =

−1/3−1/3−1/310

∼ x′3 =

−1−1−130

,

x4 = v4 −v4 · x1

x1 · x1x1 −

v4 · x′2x′2 · x′2

x′2 −v4 · x′3x′3 · x′3

x′3 = v4 −1

2x1 −

1

6x′2 −

1

12x′3 =

−1/4−1/4−1/4−1/41

∼ x′4 =

−1−1−1−14

.

Notese que hemos introducido el vector x′2 (multiplo de x2) para evitar la aparicion de fracciones en los calculosposteriores. El mismo comentario justifica la introduccion de x′3 y x′4.

Para detectar posibles errores, comprobamos: despues del primer paso que x′2 es perpendicular a x1 (x1 · x′2 = 0)y que pertenece a V (que verifica su ecuacion implıcita, x1 + x2 + x3 + x4 + x5 = 0); despues del segundo paso, quex′3 es perpendicular a x1 y a x′2 y que pertenece a V ; despues del tercer y ultimo paso, que x′4 es perpendicular a x1,a x′2 y a x′3 y que pertenece a V .

Con la base ortogonal de V encontrada llegamos a

ProyV w =w · x1

x1 · x1x1 +

w · x′2x′2 · x′2

x′2 +w · x′3x′3 · x′3

x′3 +w · x′4x′4 · x′4

x′4 =1

2x1 +

3

6x′2 +

6

12x′3 +

10

20x′4 = (−2,−1, 0, 1, 2)T .

Observemos que una alternativa a aplicar el metodo de Gram-Schmidt es buscar con cuidado una base ortogonal deV . Como su ecuacion implıcita es x1+x2+x3+x4+x5 = 0, elegimos un primer vector cualquiera (cuanto mas sencillomejor, pues en la solucion aparecen cuatro parametros) que verifique esa ecuacion, por ejemplo, w1 = (1,−1, 0, 0, 0)T .Ahora un segundo vector, w2 = (a, b, c, d, e)T , lo determinamos exigiendo que verifique la ecuacion anterior y quesea perpendicular a w1, es decir, debe verificar a + b + c + d + e = 0, a − b = 0. Elegimos un vector cualquiera(cuanto mas sencillo mejor, pues en la solucion aparecen tres parametros) que verifique este sistema, por ejemplo,w2 = (1, 1,−2, 0, 0)T . Un tercer vector, w3 = (a, b, c, d, e)T , lo determinamos exigiendo que verifique la ecuacion de Vy que sea perpendicular a w1 y a w2, es decir, debe verificar a+b+c+d+e = 0, a−b = 0, a+b−2c = 0. Elegimos unvector cualquiera (cuanto mas sencillo mejor, pues en la solucion aparecen dos parametros) que verifique este sistema,por ejemplo, w3 = (1, 1, 1,−3, 0)T . Por ultimo, un cuarto vector, w4 = (a, b, c, d, e)T , lo determinamos exigiendo queverifique la ecuacion de V y que sea perpendicular a w1, a w2 y a w3, es decir, debe verificar a + b + c + d + e =0, a− b = 0, a+ b− 2c = 0, a+ b+ c− 3d = 0. Elegimos un vector cualquiera (en la solucion aparecen los multiplosde (1, 1, 1, 1,−4)T ) que verifique este sistema, por ejemplo, w4 = (1, 1, 1, 1,−4)T . De esta forma, una base ortogonalde V sera {w1, w2, w3, w4}.

Notemos que si queremos calcular las matrices de la proyeccion ortogonal sobre V , PV , y sobre V ⊥, PV ⊥ , conviene

112

Page 35: Apuntes Matemáticas I

calcular primero PV ⊥ (usando una base ortonormal de V ⊥):

PV ⊥ =

1/√5

1/√5

1/√5

1/√5

1/√5

(1/√5 1/

√5 1/

√5 1/

√5 1/

√5)=

1

5

1 1 1 1 11 1 1 1 11 1 1 1 11 1 1 1 11 1 1 1 1

,

y luego, trivialmente que

PV = I − PV ⊥ =1

5

4 −1 −1 −1 −1−1 4 −1 −1 −1−1 −1 4 −1 −1−1 −1 −1 4 −1−1 −1 −1 −1 4

.

Con PV ⊥ ya podemos calcular ProyV ⊥w: ProyV ⊥w = PV ⊥w = (3, 3, 3, 3, 3)T y, por tanto, obtenemos ProyV w =w − ProyV ⊥w = (−2,−1, 0, 1, 2)T .

Si trabajamos con PV , entonces ProyV w = PV w = (−2,−1, 0, 1, 2)T .

Ejercicio resuelto

Consideremos la base B =

123

,

112

,

126

.

(a) Determinar las matrices de cambio de base entre B y la base canonica.

(b) Calcular todos los vectores de R3 cuyas coordenadas son las mismas en la base B que en la base canonica.

(c) Calcular la proyeccion ortogonal del vector [3 0 1 2 1]T sobre el subespacio de R5 cuyas ecuaciones implıcitas

son

{x1+x2 + x4−x5=0,

2x1 +x3+2x4 =0.

(d) Demostrar que Nul (M) ⊂ Nul (M2) para cualquier matriz cuadrada M .

(a) Tenemos que encontrar dos matrices. La primera de ellas, correspondiente al paso de la base B a la base canonica(que denotaremos por E), no es mas que

PB = PE←B

=

1 1 12 1 23 2 6

,

donde hemos situado, por columnas, los vectores de la base B. La matriz de paso de la base canonica a la base B esla inversa de la anterior, es decir,

PB←E

= P−1E←B

=

1 1 12 1 23 2 6

−1

=1

3

−2 4 −16 −3 0−1 −1 1

.

Esta inversa se puede calcular, por ejemplo, por el metodo de Gauss-Jordan:

1 1 1 1 0 02 1 2 0 1 03 2 6 0 0 1

1 1 1 1 0 00 −1 0 −2 1 00 −1 3 −3 0 1

1 1 1 1 0 00 −1 0 −2 1 00 0 3 −1 −1 1

1 1 1 1 0 00 1 0 2 −1 00 0 1 −1/3 −1/3 1/3

1 1 0 4/3 1/3 −1/30 1 0 2 −1 00 0 1 −1/3 −1/3 1/3

1 0 0 −2/3 4/3 −1/30 1 0 2 −1 00 0 1 −1/3 −1/3 1/3

.

(b) Queremos aquellos vectores de R3 cuyas coordenadas coinciden en la base canonica y en B, es decir, aquellosvectores v = [x y z]T , tales que PBv = v. Escrito en forma de sistema queda

1 1 12 1 23 2 6

xyz

=

xyz

,

113

Page 36: Apuntes Matemáticas I

o, equivalentemente,

0 1 12 0 23 2 5

xyz

=

000

,

ya que este ultimo sistema no es mas que (PB − I)v = 0.Una simple eliminacion de Gauss transforma este sistema en otro equivalente,

0 1 12 0 23 2 5

2 0 20 1 13 2 5

1 0 10 1 13 2 5

1 0 10 1 10 2 2

1 0 10 1 10 0 0

,

que, una vez resuelto, tiene como solucion

xyz

= z

−1−11

, siendo z ∈ R, una variable libre.

(c) Para simplificar, llamemos S al subespacio y u al vector que nos dan. Ya que la dimension de S es 3 (viene definidopor dos ecuaciones implıcitas independientes en R5) y estamos trabajando en R5, es conveniente calcular la proyeccionortogonal sobre S⊥, que tiene menor dimension (en concreto su dimension es 2).

Una base de S⊥ se obtiene directamente de los coeficientes de las ecuaciones implıcitas de S, ya que dan lugar ados vectores linealmente independientes:

v1 =

1101−1

, v2 =

20120

.

Estos vectores no son ortogonales, ası que vamos a aplicarles el metodo de Gram-Schmidt:

w1 = v1 =

1101−1

; w2 = v2 −v2 · w1

w1 · w1w1 =

20120

− 1

1101−1

=

1−1111

.

De este modo, hemos obtenido una base ortogonal de S⊥:

BS⊥ =

w1 =

1101−1

, w2 =

1−1111

.

Si nos pidiesen la matriz de la proyeccion ortogonal, necesitarıamos normalizar los vectores y despues multiplicar lamatriz que se obtuviese a partir de ellos, colocandolos por columnas, por su traspuesta. Esto nos llevarıa a trabajar confracciones y radicales hasta llegar a una matriz 5× 5, que en este caso, no es necesaria. Para proyectar ortogonalmenteun vector sobre un subespacio basta con tener una base ortogonal de este:

ProyS⊥u =u · w1

w1 · w1w1 +

u · w2

w2 · w2w2 = 1

1101−1

+7

5

1−1111

=

12/5−2/57/512/52/5

.

Volviendo al subespacio original, S, el vector pedido no es mas que

ProySu = u− ProyS⊥u =

30121

12/5−2/57/512/52/5

=

3/52/5−2/5−2/53/5

.

(d) Si un vector v pertenece a Nul (M) significa que Mv = 0. Si multiplicamos esta expresion por M quedara M2v =M0 = 0, por lo que v tambien pertenece a Nul (M2).

114

Page 37: Apuntes Matemáticas I

6. Problemas de mınimos cuadrados. Ecuaciones normales de Gauss.

En terminos generales, resolver un problema en el sentido de los mınimos cuadrados es sustituir un problema enel que hay que resolver un sistema de ecuaciones (que no tiene solucion) por el problema de minimizar una suma decuadrados.

Ejemplo. El problema de la regresion lineal. Si consideramos dos magnitudes, x e y, de las que suponemosque estan relacionadas mediante una igualdad del tipo y = ax + b, donde tenemos que determinar a y b mediante laobtencion de resultados experimentales, y dichos resultados son

x x1 x2 · · · xn

y y1 y2 · · · yn

los valores a y b los obtendremos de la resolucion del sistema de ecuaciones lineales

ax1 + b = y1ax2 + b = y2

· · ·axn + b = yn

x1 1x2 1...

...xn 1

[ab

]

=

y1y2...yn

,

pero lo habitual es que un sistema de ecuaciones como el anterior no tenga solucion. Resolver el sistema anterior en elsentido de los mınimos cuadrados consiste en determinar los valores a y b para los cuales la suma de cuadrados

(ax1 + b− y1)2+ (ax2 + b− y2)

2+ · · ·+ (axn + b− yn)

2

es mınima (si hubiera solucion, del sistema dado, dicho valor mınimo serıa cero). Puesto que esta suma de cuadradoses el cuadrado de la norma del vector

x1 1x2 1...

...xn 1

[ab

]

y1y2...yn

,

y los vectores de la forma

x1 1x2 1...

...xn 1

[ab

]

, ∀ a, b ∈ R,

forman el espacio columna S de la matriz considerada, resolver el sistema en mınimos cuadrados es determinar elvector de S mas cercano al termino independiente considerado y resolver el sistema (que sera compatible) con esenuevo termino independiente.

Para un sistema generico de ecuaciones lineales Ax = b, resolverlo en el sentido de los mınimos cuadrados esdeterminar el vector (o vectores) x ∈ Rn para los cuales

||Ax− b|| es mınima.

Puesto que los vectores Ax recorren el espacio columna de A (cuando x recorre Rn), ||Ax− b|| sera mınima para losvectores x ∈ Rn tales que Ax es igual a la proyeccion ortogonal de b sobre el espacio Col (A).

Rn

Rm

O

Ox

b

proyS(b)

A

AxCol (A)

Teorema. Consideremos un sistema de ecuaciones Ax = b, A matriz real m× n, b ∈ Rm, S = Col (A) y sea x ∈ Rn.Son equivalentes:

(a) x es solucion en mınimos cuadrados del sistema Ax = b, es decir,

||Ax− b|| ≤ ||Ax− b|| , ∀x ∈ Rn.

115

Page 38: Apuntes Matemáticas I

(b) x verifica Ax = proy S(b).

(c) x verifica las ecuaciones normales de Gauss: ATAx = AT b.

Observaciones.

(a) El sistema de ecuaciones Ax = proy S(b) (sistema m× n) y el sistema ATAx = AT b (sistema n× n) son siemprecompatibles y tienen el mismo conjunto de soluciones.

(b) El sistema Ax = proy S(b) sera compatible determinado (es decir, el problema en mınimos cuadrados tendra solu-cion unica) si y solo si el sistema homogeneo asociado Ax = 0 tiene solucion unica. Por tanto,

el sistema Ax = b tiene solucion unicaen mınimos cuadrados

⇐⇒ las columnas de A son linealmente inde-pendientes (rango(A) = n).

7. Ajuste de curvas, regresion lineal.

En el epıgrafe anterior hemos planteado el problema de la regresion lineal. Resolviendo en mınimos cuadrados elsistema planteado se obtiene la recta de regresion de y sobre x (en el planteamiento del sistema, la variabley esta expresada en funcion de x) para la nube de puntos dada. Notemos que la resolucion en mınimos cuadradosconsiderada consiste en determinar la recta que hace mınima la suma de cuadrados de las distancias sobre la vertical

de los puntos dados a la recta.

X

Y

xk

yk

axk + b

y = ax+ b

De forma similar (y resultado distinto, por lo general) podrıamos haber planteado el problema de determinar unarecta x = αy + β que pase por los puntos (xk, yk), k = 1, . . . , n dados. Por lo general, el sistema resultante

αy1 + β = x1

αy2 + β = x2

· · ·αyn + β = xn

y1 1y2 1...

...yn 1

[αβ

]

=

x1

x2

...xn

no tiene solucion y su resolucion en el sentido de los mınimos cuadrados permite determinar la recta que hace mınimala suma de cuadrados de las distancias sobre la horizontal de los puntos dados a la recta. La recta que se obtienemediante la resolucion en mınimos cuadrados del sistema anterior se denomina recta de regresion de x sobre ypara la nube de puntos dada. Notemos que cualquier recta que no sea paralela a ninguno de los ejes coordenados puedeexpresarse mediante y = ax + b y mediante x = αy + β. Sin embargo, no es equivalente resolver en el sentido de losmınimos cuadrados el sistema asociado a una u otra expresion.

116

Page 39: Apuntes Matemáticas I

X

Y

xk

yk

αyk + β

x = αy + β

Desde un punto de vista mas generico que el de la regresion lineal (ajustar una recta a una nube de puntos), puedeconsiderarse el problema de ajustar, a una nube de puntos del plano (x1, y1), . . . , (xn, yn), una curva de un cierto tipo(dada por un tipo de ecuacion explıcita y = f(x) o implıcita F (x, y) = 0). Ası, podemos considerar el problema dedeterminar

la parabola (de eje principal vertical) y = ax2 + bx+ c,

la circunferencia x2 + y2 + ax+ by + c = 0

. . .

que mejor se ajusta, en el sentido de los mınimos cuadrados, a una nube de puntos dada. En cualquiercaso, se trata de problemas que llevan a sistemas de ecuaciones lineales que no tienen solucion y se resuelven en elsentido de los mınimos cuadrados.

Un planteamiento similar al de ajustar una curva a una nube de puntos es valido para ajustar una superficie enR3 de un tipo prefijado a una determinada nube de puntos

(x1, y1, z1), . . . , (xn, yn, zn).

Por ejemplo, puede considerarse el problema de ajustar, en el sentido de los mınimos cuadrados,

un plano dado por la ecuacion z = ax+ by + c (regresion lineal z sobre (x, y)),

una esfera de ecuacion x2 + y2 + z2 + ax+ by + cz + d = 0,

. . .

a los puntos dados.

Ejercicio resueltoEncontrar la recta y = αx+β que mejor ajusta, en el sentido de los mınimos cuadrados, a la nube de puntos (0, 2),(1, 6) y (3, 0).

Queremos ajustar la nube de puntos (0, 2), (1, 6) y (3, 0) por una recta del tipo y = αx+β. En primer lugar escribimosel sistema correspondiente Ax = b, despues calculamos las ecuaciones normales de Gauss, ATAx = ATb, y finalmentelas resolvemos.

Ası, cada punto da lugar a una ecuacion, y podemos identificar A, x y b:

(0, 2) → 2 = 0 · α+ β(1, 6) → 6 = 1 · α+ β(3, 0) → 0 = 3 · α+ β

0 11 13 1

[αβ

]

=

260

→ A =

0 11 13 1

,x =

[αβ

]

,b =

260

.

Las ecuaciones normales de Gauss, ATAx = ATb, son pues

[0 1 31 1 1

]

0 11 13 1

[αβ

]

=

[0 1 31 1 1

]

260

→[

10 44 3

][αβ

]

=

[68

]

→[

5 24 3

][αβ

]

=

[38

]

117

Page 40: Apuntes Matemáticas I

y resolviendolas obtenemos

[5 2 34 3 8

]

∼[

20 8 1220 15 40

]

∼[

20 8 120 7 28

]

∼[

5 2 30 1 4

]

→{

α = −1,β = 4,

con lo que la recta que mejor ajusta a la nube de puntos en el sentido de los mınimos cuadrados es

y = −x+ 4.

Ejercicio resueltoPor el metodo de los mınimos cuadrados, ajustar una parabola y = ax2 + bx + c a los puntos (1,−3), (1, 1),(−1, 2), (−1,−1).

Si exigimos que los puntos pertenezcan a la parabola, obtenemos el siguiente sistema (una ecuacion por cada punto):

−3 = 12a+ 1 · b+ c1 = 12a+ 1 · b+ c2 = (−1)2a+ (−1)b+ c−1 = (−1)2a+ (−1)b+ c

a+ b+ c = −3a+ b+ c = 1a− b+ c = 2a− b+ c = −1

1 1 1 −31 1 1 11 −1 1 21 −1 1 −1

1 1 1 −30 0 0 40 −2 0 50 −2 0 2

que obviamente es incompatible (comparense, por ejemplo, las dos primeras ecuaciones). Escribimos y resolvemos lasecuaciones normales de Gauss, ATAx = AT b,

4 0 40 4 04 0 4

abc

=

−1−3−1

4 0 4 −10 4 0 −34 0 4 −1

4 0 4 −10 4 0 −30 0 0 0

abc

=

− 14 − c− 3

4c

que resultan ser un sistema compatible indeterminado (c ∈ R). Es decir, las parabolas

y = −(1

4+ c

)

x2 − 3

4x+ c, c ∈ R

son la solucion al problema planteado.

Ejercicio resueltoEncontrar la circunferencia de la familia

x2 + y2 + ax+ by + c = 0

que mejor se ajuste, en el sentido de los mınimos cuadrados, a los puntos (0, 0), (1, 0), (0, 1) y (1, 1), indicando lascoordenadas del centro y el radio de la misma.

Exigimos que cada punto pertenezca a la circunferencia ax+ by+ c = −x2 − y2, con lo que obtenemos el sistema, decuatro ecuaciones y tres incognitas,

(0, 0) : 0 · a+ 0 · b+ c = −02 − 02 = 0

(1, 0) : 1 · a+ 0 · b+ c = −12 − 02 = −1(0, 1) : 0 · a+ 1 · b+ c = −02 − 12 = −1(1, 1) : 1 · a+ 1 · b+ c = −12 − 12 = −2

que matricialmente se puede escribir como Ax = b

0 0 11 0 10 1 11 1 1

abc

=

0−1−1−2

.

El sistema que debemos resolver para encontrar la solucion en el sentido de los mınimos cuadrados es el que nosproporcionan las ecuaciones normales de Gauss, ATAb = AT b,

0 1 0 10 0 1 11 1 1 1

0 0 11 0 10 1 11 1 1

abc

=

0 1 0 10 0 1 11 1 1 1

0−1−1−2

2 1 21 2 22 2 4

abc

=

−3−3−4

118

Page 41: Apuntes Matemáticas I

que resolvemos facilmente

2 1 2 −31 2 2 −32 2 4 −4

1 2 2 −32 1 2 −31 1 2 −2

1 2 2 −30 −3 −2 30 −1 0 1

1 2 2 −30 1 0 −10 0 −2 0

,

con lo que obtenemos c = 0, b = −1 y a = −1. Es decir, la circunferencia que mejor ajusta en el sentido de los mınimoscuadrados es

x2 + y2 − x− y = 0 →(

x− 1

2

)2

− 1

4+

(

y − 1

2

)2

− 1

4= 0 →

(

x− 1

2

)2

+

(

y − 1

2

)2

=

(√2

2

)2

,

con centro en (12 ,12 ) y de radio

√22 .

Observemos que, casualmente, el sistema Ax = b que obtenemos es compatible (ya que los cuatro puntos que nosdan son los vertices de un cuadrado de lado unidad y con centro en (12 ,

12 )). Sabemos entonces que la solucion en el

sentido de los mınimos cuadrados coincide con la solucion del sistema original.

Ejercicio resueltoDeterminar la conica de la familia

ax2 + 4axy + ay2 + bx− by + 1 = 0

que mejor se ajusta, en el sentido de los mınimos cuadrados, a los puntos (1, 0), (−1, 0), (−1, 1) y (0, 2).

Exigimos que cada punto pertenezca a la conica a(x2 +4xy+ y2)+ b(x− y)+ 1 = 0, con lo que obtenemos el sistema,de cuatro ecuaciones y dos incognitas,

(1, 0) : (12 + 4 · 1 · 0 + 02)a+ (1− 0)b+ 1 = 0 → a+ b = −1,(−1, 0) : ((−1)2 + 4(−1) · 0 + 02)a+ (−1− 0)b+ 1 = 0 → a− b = −1,(−1, 1) : ((−1)2 + 4(−1) · 1 + 12)a+ (−1− 1)b+ 1 = 0 → −2a− 2b = −1,(0, 2) : (02 + 4 · 0 · 2 + 22)a+ (0− 2)b+ 1 = 0 → 4a− 2b = −1,

que matricialmente se puede escribir como Ax = b

1 11 −1−2 −24 −2

[ab

]

=

−1−1−1−1

.

El sistema que debemos resolver para encontrar la solucion en el sentido de los mınimos cuadrados es el que nosproporcionan las ecuaciones normales de Gauss, ATAb = AT b,

[1 1 −2 41 −1 −2 −2

]

1 11 −1−2 −24 −2

[ab

]

=

[1 1 −2 41 −1 −2 −2

]

−1−1−1−1

→[

22 −4−4 10

][ab

]

=

[−44

]

que resolvemos facilmente[

22 −4 −4−4 10 4

]

∼[

22 −4 −4−22 55 22

]

∼[

22 −4 −40 51 18

]

,

con lo que obtenemos b = 617 y a = − 2

17 . Es decir, la conica que mejor ajusta, en el sentido de los mınimos cuadrados,a la nube de puntos dada es

− 2

17(x2 + 4xy + y2) +

6

17(x− y) + 1 = 0 → 2(x2 + 4xy + y2)− 6(x− y) = 17.

Ejercicio resuelto

Consideremos la matriz A =

2 2 02 2 02 0 2

.

(a) Determinar una base y unas ecuaciones implıcitas de Col(A) y (Nul(A))⊥.

(b) Obtener una base ortonormal de Col(A) y calcular la matriz de la proyeccion ortogonal sobre dicho subespacio.

(c) Siendo b = [0 2 2]T , encontrar las soluciones en el sentido de los mınimos cuadrados de Ax = b. Determinar,

entre ellas, las que tengan norma√

5/4.

(d) Sea S = {v1, . . . , vp} un conjunto ortonormal en Rn. Probar que S es linealmente independiente.

119

Page 42: Apuntes Matemáticas I

(a) Comentamos una de las diversas formas que hay para resolver este apartado.• Ecuaciones implıcitas de Col(A): Como sabemos, para encontrar unas ecuaciones implıcitas de un subespacio gene-

rado por varios vectores (en este caso los vectores columna de A) basta considerar un vector generico [x1 x2 x3]T e

imponer que sea combinacion lineal de dichos vectores.

2 2 0 x1

2 2 0 x2

2 0 2 x3

2 2 0 x1

0 0 0 x2 − x1

0 -2 2 x3 − x1

.

Comprobamos que la ecuacion implıcitax2 = x1 (8)

define a Col(A) y una base viene dada por

BCol(A) =

222

,

220

.

• Ecuaciones implıcitas de (Nul(A))⊥: Comenzamos hallando una base de Nul(A), lo que se consigue sin mas queresolver Ax = 0. De la eliminacion de Gauss anterior se desprende que unas ecuaciones equivalentes al sistema son

{2x1+2x2 =0,−2x2+2x3=0,

las cuales, una vez resueltas nos dan la siguiente base

BNul(A) =

−111

.

Para obtener unas ecuaciones implıcitas de (Nul(A))⊥ simplemente hemos de utilizar las componentes de los vectores(solo uno en este caso) de la base como coeficientes en dichas ecuaciones. Ası tenemos que

−x1 + x2 + x3 = 0 (9)

es una ecuacion implıcita de (Nul(A))⊥.(b) Como ya hemos hecho una eliminacion de Gauss con la matriz A, sabemos que una base del espacio Col(A) puedeestar formada por las dos primeras columnas de la matriz. Sin embargo, estos dos vectores no son ortogonales, ası quetendrıamos que ortogonalizar los vectores mediante el metodo de Gram-Schmidt.

Para evitar esos calculos solo tenemos que darnos cuenta (por simple inspeccion) de que las dos ultimas columnasde A tambien forman una base de Col(A) y, ademas, es ortogonal. Dividiendo los dos vectores por su norma tendremosla base ortonormal que pide el enunciado:

BCol(A) =

1/√2

1/√2

0

,

001

.

Siendo ahora

Q =

1/√2 0

1/√2 0

0 1

,

la matriz de la proyeccion ortogonal sobre Col(A) se puede calcular como

P = QQT =

1/√2 0

1/√2 0

0 1

[1/√2 1/

√2 0

0 0 1

]

=

1/2 1/2 01/2 1/2 00 0 1

.

Nota: Esta matriz es siempre la misma, independientemente de la base ortonormal escogida.(c) Podemos resolver el problema usando las ecuaciones normales de Gauss, pero ya que tenemos, del apartado anterior,la matriz P de la proyeccion ortogonal sobre Col(A), es mas corto calcular la proyeccion del vector b sobre Col(A) ydespues resolver

Ax = ProyCol(A)b.

Entonces, como

ProyCol(A)b = Pb =

112

,

120

Page 43: Apuntes Matemáticas I

el sistema que hemos de resolver es

2 2 02 2 02 0 2

x1

x2

x3

=

112

.

Realizamos ahora una eliminacion de Gauss, que es analoga a la que hicimos en el primer apartado,

2 2 0 12 2 0 12 0 2 2

2 2 0 10 0 0 00 −2 2 1

2 2 0 1

0 -2 2 10 0 0 0

,

llegando a la forma escalonada reducida

1 1 0 1/2

0 1 −1 −1/20 0 0 0

1 0 1 1

0 1 −1 −1/20 0 0 0

.

Es inmediato, tomando como variable libre x3 ∈ R, que la solucion del sistema es

x1

x2

x3

=

1−1/20

+ x3

−111

=

1− x3

−1/2 + x3

x3

.

Veamos ahora cual de esas soluciones verifica que su norma es√

5/4.∥∥∥∥∥∥

1− x3

−1/2 + x3

x3

∥∥∥∥∥∥

=

(1− x3)2 + (−1/2 + x3)

2 + x23 =

3x23 − 3x3 +

5

4.

Imponiendo que la norma sea√

5/4 queda la condicion

3x23 − 3x3 = 0,

que nos da los valores x3 = 0 y x3 = 1. Sustituyendo en la solucion del sistema de mınimos cuadrados tenemos las dossoluciones que pide el enunciado:

1−1/20

y

01/21

.

(d) Escribamos una combinacion lineal de los vectores de S igualada a cero:

α1v1 + . . .+ αpvp = 0.

En caso de que probemos que todos los coeficientes han de ser nulos tendremos que S es linealmente independiente.Multiplicando escalarmente la expresion anterior por cualquiera de los vectores de S (digamos vi) tendremos

α1(vi · v1) + . . .+ αi−1(vi · vi−1) + αi(vi · vi) + αi+1(vi · vi+1) + . . .+ αp(vi · vp) = 0.

Por ser S ortonormal, vi · vj = 0 siempre que j 6= i y ademas vi · vi = 1. Llevando todo esto a la expresion anteriortendremos

α1

=0︷ ︸︸ ︷

(vi · v1)+ . . .+ αi−1

=0︷ ︸︸ ︷

(vi · vi−1)+αi

=1︷ ︸︸ ︷

(vi · vi)+αi+1

=0︷ ︸︸ ︷

(vi · vi+1)+ . . .+ αp

=0︷ ︸︸ ︷

(vi · vp) = 0,

quedando, por tanto,αi = 0.

Como el razonamiento no depende del subındice i escogido, acabamos de probar que todos los coeficientes de lacombinacion lineal son nulos y, de ese modo, S es linealmente independiente.

8. Ejercicios.

Ejercicio 1. Dados los subespacios

E = Gen

1021

,

2123

,

01−21

y F ≡

2x+ y + 3z − t = 0,3x+ 2y − 2t = 0,

3x+ y + 9z − t = 0,

obtener una base y unas ecuaciones implıcitas de E⊥ y de F⊥.

121

Page 44: Apuntes Matemáticas I

Ejercicio 2. Descomponer el vector (1, 3,−1, 4)T en suma de dos vectores u+ v siendo u proporcional a (2, 1, 0, 1)T

y v ⊥ u.

Ejercicio 3. Hallar la proyeccion ortogonal de los siguientes vectores sobre los subespacios que se indican:

(a) (4, 1, 3,−2)T sobre el subespacio definido por x1 + x2 + x3 + x4 = 0.

(b) (1, 1, 1, 1)T sobre el subespacio de R4 dado por:

E ≡{

x− y + z − 2t = 0,y + z = 0.

(c) (3,−4, 5)T sobre el subespacio f(E) siendo f la aplicacion lineal dada por la matriz

A =

1 0 1−1 1 00 1 −1

y E el subespacio de R3 dado por x− y − z = 0.

Ejercicio 4. Dados los subespacios de R3,

E ≡ {3x+ y − 2z = 0} y F ≡ {x+ 7y + z = 0, x− y − z = 0},

obtener una base de (E + F )⊥.

Ejercicio 5. Dadas las bases ortonormales de R2

B1 =

{

u1 =(

1/√2, 1/√2)T

, u2 =(

−1/√2, 1/√2)T}

y

B2 =

{

w1 =(

1/2,√3/2)T

, w2 =(

−√3/2, 1/2

)T}

hallar la matriz correspondiente al cambio de una de esas bases a la otra. Comprobar que la matriz de paso es ortogonal.

Ejercicio 6. Hallar el vector perteneciente al subespacio de R4 generado por los vectores

(2, 0,−1, 2)T , (1, 2,−2, 0)T y (−1, 2, 0,−2)T

que esta mas cerca del vector (1, 1, 1, 1)T .

Ejercicio 7. Hallar la matriz de la proyeccion ortogonal sobre cada uno de los siguientes subespacios de R4:

(a) el subespacio generado por (0, 2, 1, 0)T y (1, 1, 0, 1)T .

(b) el subespacio generado por (0, 0, 2, 1)T y (1, 1,−1, 0)T .

(c) Sobre E y E⊥, siendo E ≡{

x− 3y + z + t = 02x− 5y + z + 2t = 0

Comprobar que, como debe ser, la suma de ambas matrices

vale I.

Ejercicio 8. Dado el subespacio S ⊂ R3 definido por x1 − 2x2 + 2x3 = 0, se pide:

(a) Hallar la matriz de la proyeccion ortogonal sobre S. ¿Cual es la matriz de la proyeccion ortogonal sobre S⊥?

(b) Obtener una base de S⊥.

(c) Demostrar que Col (A) = S, siendo

A =

2 00 1−1 1

.

122

Page 45: Apuntes Matemáticas I

(d) Dado el vector v = (1, 1, 1)T , calcular el vector de S que dista menos de v.

Ejercicio 9. Aplicar el metodo de Gram-Schmidt a la siguiente base de R4:

{(1, 0, 1, 0)T , (1, 1, 0, 0)T , (0, 1, 1, 1)T , (0, 1, 1, 0)T

}.

Ejercicio 10. La proyeccion ortogonal del vector v = (5,−2, 3)T sobre la recta x = y, y = z es:

(−1,−1,−1)T .

(3, 3, 3)T.

(2, 2, 2)T.

Ejercicio 11. Halla una base ortonormal de Col (A) y otra de Nul (A) siendo

A =

1 1 00 −1 11 1 −11 1 1

.

Ejercicio 12. Dado el subespacio

E = Gen{(a, 0, 0, 0)T , (a, a, b, 0)T , (a, b,−a, 1)T

}con a, b ∈ R.

(1) Hallar una base ortonormal del subespacio E segun los valores de a y b.

(2) Hallar la matriz de la proyeccion ortogonal sobre E, cuando a = 0.

(3) Calcular los valores de los parametros a y b tales que el subespacio dado por las ecuaciones

x1 = 05x1 + x2 + 3x3 = 0−2x1 + 3x2 − x3 + x4 = 0

sea ortogonal a E.

Ejercicio 13. Sea A una matriz cuadrada de orden 25 cuyo rango es 21. ¿Que sucede al aplicar el metodo deGram-Schmidt a los vectores columna de A? ¿Cuantas veces? ¿Por que?

Ejercicio 14. Resolver en el sentido de los mınimos cuadrados los siguientes sistemas de ecuaciones

(a) x = 1, x = 7, x = −3, x = 12.

(b) x = a1, x = a2, ..., x = an, siendo a1, a2, ..., an numeros reales. ¿Que se obtiene cuando alguno de los valores akaparece repetido?

(c) Ax = b siendo

A =

[1 11 1

]

y b =

[24

]

.

Ejercicio 15. Resuelve en el sentido de los mınimos cuadrados los dos sistemas equivalentes siguientes (que tendrıanlas mismas soluciones exactas si fueran compatibles)

{x1 + x2 = 3

2x1 + 2x2 = 4

{x1 + x2 = 3x1 + x2 = 1

123

Page 46: Apuntes Matemáticas I

Ejercicio 16. Dados el subespacio E = Gen{

[1, 0, 0, 1]T, [0, 1, 0, 2]

T, [0, 0, 1, 1]

T}

y la matriz

A =

a1 b1a2 2a3 b2−2 b3

.

(a) Calcular una base de E⊥.

(b) Hallar la matriz de la proyeccion ortogonal sobre E.

(c) Calcular A sabiendo que Col (A)) esta contenido en E⊥.

(d) Resolver en el sentido de los mınimos cuadrados, el sistema Ax = b con b = (1,−1, 0, 0)t.

Ejercicio 17. Calcular las rectas de regresion y = ax+ b y x = αy + β para los datos:

x 1 2 3 4 5 6 7y 2 3 1 4 6 7 5

Ejercicio 18. Se supone que el numero de horas de autonomıa de un avion esta relacionada con las cantidades dedos tipos de combustible x1 y x2 (que se pueden utilizar de manera indistinta o mezclados) mediante y = c1x1 + c2x2.Despues de realizar un experimento se obtienen los siguientes datos.

x1 1 0 1 2 1x2 0 1 1 1 2y 4 5 6 5 4

¿Cuales son los mejores coeficientes c1 y c2 en el sentido de los mınimos cuadrados?

Ejercicio 19. Consideremos el sistema

0 11 1−1 12 1

(xy

)

=

1133

.

Sus ecuaciones normales de Gauss son:[6 11 4

][xy

]

=

[48

]

.

[6 22 4

][xy

]

=

[24

]

.

[6 22 4

][xy

]

=

[48

]

.

Ejercicio 20. Consideremos los vectores v1, v2, v3 y v4 de R4 y la matriz C dados por

v1 =

1−120

, v2 =

0122

, v3 =

1−123

, v4 =

−1−812

; C =

v1 v2

.

(a) Calcular la matriz de la proyeccion ortogonal sobre S = Gen {v1, v2, v3}, el vector de S mas cercano a v4 y ladistancia de v4 a S.

(b) Resolver, en el sentido de los mınimos cuadrados, el sistema Cx = v3.

124