Álgebra lineal tema 8. valores y vectores propios...

24
`lgebra Lineal Tema 8. Valores y vectores propios Grado en Ingeniera InformÆtica Doble Grado en Ingeniera InformÆtica y Administracin de Empresas AUTORES: J. S ALAS , A. T ORRENTE Y E.J.S. V ILLASE OR

Upload: trinhkiet

Post on 06-Oct-2018

259 views

Category:

Documents


0 download

TRANSCRIPT

Álgebra Lineal

Tema 8. Valores y vectores propios

Grado en Ingeniería Informática

Doble Grado en Ingeniería Informática y Administraciónde Empresas

AUTORES: J. SALAS, A. TORRENTE Y E.J.S. VILLASEÑOR

Índice general

8. Valores y vectores propios 1

8.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

8.2. La ecuación característica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

8.3. El problema de la diagonalización . . . . . . . . . . . . . . . . . . . . . . . . 11

8.3.1. El polinomio característico . . . . . . . . . . . . . . . . . . . . . . . . 14

8.4. Valores y vectores propios de aplicaciones lineales . . . . . . . . . . . . . . . 16

I

Tema 8

Valores y vectores propios

8.1. Introducción

En este capítulo continuamos con el estudio de matrices cuadradas y las transformaciones

lineales que representan. Los principales conceptos que abordaremos, valores y vectores

propios, poseen muchas aplicaciones prácticas y desempeñan un papel fundamental en

muchos campos de las matemáticas.

Una transformación x 7→ A x, con A cuadrada, puede transformar los vectores x de muy

diversas maneras, pero para cada matriz existen algunos vectores “especiales” en los que

la “acción” de la transformación es particularmente simple.

Ejemplo

Consideremos la matriz

A =

3 −2

1 0

1

y los vectores u = (−1, 1)t y v = (2, 1)t. Sus imágenes son T(u) = Au = (−5,−1)t y

T(v) = A v = (4, 2)t = 2v; es decir, a diferencia con u, A dilata el vector v un factor

2.

1

2

−1

1 2 3 4 5−1−2−3−4−5−6

y

x

Av

Au

u

v

Este ejemplo ilustra el concepto de vector propio.

Diremos que v es un vector propio (o autovector) de la matriz cuadrada A ∈ Kn×n si

es un vector no nulo tal que

A v = λ v , para algún escalar λ ∈ R.

Dicho escalar se denomina valor propio (o autovalor) de A.

El conjunto de valores propios de una matriz A recibe el nombre de espectro de A y

se representa por σ(A).

En otros términos, los valores propios de la matriz A son los escalares para los que existe

una solución no trivial v de A v = λv y nos referiremos a v como el vector propio correspon-

diente al valor propio λ. Obsérvese que v proporciona las “direcciones” en las que la acción

de la matriz produce un “estiramiento puro” y que nos estamos restringiendo al caso en

el que λ ∈ R.

Es fácil VERIFICAR si un vector dado es o no un vector propio de A: basta con calcular

2

A v y comprobar si es un múltiplo de v. En cambio, para CALCULAR todos los posibles

vectores propios de una matriz dada A, tendremos que resolver el siguiente sistema:

A v = λv ⇒ A v = λ In v ⇒ A v− λ In v = 0 ⇒ (A− λ In) v = 0.

Así, λ es un valor propio de A si y sólo si el sistema homogéneo (A− λ In) v = 0 tiene

una solución no trivial. El conjunto de todas las soluciones de este sistema es simplemente

el espacio nulo de la matriz A− λ In, que es un subespacio de Rn, y se denomina espacio

propio (o autoespacio) de A asociado a λ. Por tanto, el espacio propio está formado por el

vector cero y el conjunto de todos los vectores propios correspondientes a λ.

Ejemplo

Consideremos de nuevo la matriz

A =

3 −2

1 0

.

Ya sabemos que λ1 = 2 es un valor propio de A; el correspondiente espacio propio

es

N(A− 2 I2) ={(v1, v2)

t ∈ R2 : v1 − 2v2 = 0}={(2v2, v2)

t, v2 ∈ R}= Gen

((2, 1)t

).

Es decir, obviamente, cualquier múltiplo no nulo de v = (2, 1)t es vector propio de A

asociado al mismo valor propio λ1 = 2.

También sabemos que (−1, 1)t (o cualquier múltiplo suyo) no es un vector propio

de A.

3

1

2

−1

−2

1 2 3 4 5−1−2−3−4−5

y

x

v

Ejemplo

Sea A la matriz

A =

4 −1 6

2 1 6

2 −1 8

.

Verifiquemos que λ1 = 2 es también un valor propio de A y encontremos una ba-

se para el correspondiente espacio propio. Nótese que, a diferencia con el ejemplo

anterior, en este caso NO conocemos ningún vector propio. Entonces, para compro-

bar que λ1 = 2 es un valor propio, tendremos que comprobar que efectivamente

(A− λ1I3)v = 0. Es decir, el sistema2 −1 6

2 −1 6

2 −1 6

v1

v2

v3

=

0

0

0

,

debe tener solución no trivial, lo cual implica que rg(A−2 I3) < 3, como obviamente

es el caso. Por tanto, concluimos que λ1 = 2 es un valor propio.

Por otra parte, toda solución del sistema cumple 2v1 − v2 + 6v3 = 0, es decir:

4

N(A− 2 I3) =

{v =

(12v2 − 3v3, v2, v3

)t∈ R3 : v2, v3 ∈ R

}

=

{v = v2

(12

, 1, 0)t

+ v3 (−3, 0, 1)t ∈ R3 : v2, v3 ∈ R

}

= Gen

((12

, 1, 0)t

, (−3, 0, 1)t)

.

Tras estos ejemplos es inmediato formularse la pregunta de cuántos valores propios tiene

una matriz dada. En la siguiente sección responderemos a esta cuestión y aprenderemos

a calcularlos todos.

8.2. La ecuación característica

Acabamos de ver que los valores propios son aquellos escalares que hacen que el sistema

homogéneo (A − λIn)v = 0 tenga solución no trivial. Para ello, la matriz A − λIn debe

ser singular y consecuentemente, su determinante ha de ser 0; esto conduce a la siguiente

definición:

Llamaremos ecuación característica de A ∈ Rn×n a la ecuación:

det(A− λ In) = 0.

Obsérvese que det(A − λ In) es un polinomio (en λ) de grado n, cuyo coeficiente del

término en λn es (−1)n. En cambio, el polinomio det(λ In − A) tiene el coeficiente del

término en λn igual a 1.

Llamamos polinomio característico de A al polinomio cA(λ) = det(λIn −A).

5

Obviamente, las soluciones de la ecuación característica (o las raíces del polinomio carac-

terístico) son los valores propios de A y su multiplicidad recibe el nombre de multiplici-

dad algebraica del valor propio.

Ejemplo

Sea

A =

2 −3 1

1 −2 1

1 −3 2

.

Vamos a encontrar los valores propios y los correspondientes espacios propios.

En primer lugar, calculamos la ecuación característica:

det(A− λ I3) = 0 ⇒

∣∣∣∣∣∣∣∣∣∣2 − λ −3 1

1 −2 − λ 1

1 −3 2 − λ

∣∣∣∣∣∣∣∣∣∣= −λ(λ− 1)2 = 0 ,

cuyas raíces son:

λ1 = 0, con multiplicidad algebraica 1, y

λ2 = 1, con multiplicidad algebraica 2.

El espacio propio correspondiente a λ1 = 0 coincide con el espacio nulo de A, por lo

que si calculamos la forma escalonada de A resulta

A ≡

2 −3 1

0 1 −1

0 0 0

,

y el espacio propio será:

N(A) ={x = x3(1, 1, 1)t ∈ R : x3 ∈ R

},

6

que es un espacio vectorial de dimensión 1. Finalmente, para obtener el espacio

propio correspondiente a λ2 = 1 calculamos el espacio nulo de la matriz2 − 1 −3 1

1 −2 − 1 1

1 −3 2 − 1

=

1 −3 1

1 −3 1

1 −3 1

,

que es {x = x2(3, 1, 0)t + x3(−1, 0, 1)t ∈ R3 : x2, x3 ∈ R

},

y tiene dimensión 2.

Obsérvese que los tres vectores propios encontrados en el ejemplo anterior son linealmen-

te independientes y por ello forman una base de R3.

El siguiente resultado es fundamental:

Dada la matriz cuadrada A ∈ Rn×n, su traza es igual a la suma de sus valores

propios, λi, i = 1, . . . ,n (incluyendo multiplicidades algebraicas mayores que 1):

tr(A) =

n∑i=1

λi.

Ejemplo

Es inmediato comprobar que en el ejemplo anterior, la traza de

A =

2 −3 1

1 −2 1

1 −3 2

coincide con la suma de sus valores propios: 0 + 1 + 1 = 2.

7

Ejemplo

Consideremos la matriz

A =

1 4 6

0 2 5

0 0 3

.

Los valores propios son las raíces de

det

1 − λ 4 6

0 2 − λ 5

0 0 3 − λ

= 0 ⇒ (1 − λ)(2 − λ)(3 − λ) = 0 .

Por tanto, los valores propios son λ1 = 1, λ2 = 2 y λ3 = 3, todos con multiplicidad

algebraica 1. Se observa que los valores propios de la matriz A vienen dados por los

términos de la diagonal principal (por lo que obviamente la traza coincide con la

suma de éstos). Es inmediato probar que este hecho es cierto para todas las matrices

triangulares.

Ejemplo

Consideremos ahora la matriz

A =

2 −1 0

1 0 0

0 0 3

.

Sus valores propios son las raíces de la ecuación característica:

det

2 − λ −1 0

1 −λ 0

0 0 3 − λ

= 0 ⇒ (3 − λ)(λ− 1)2 = 0 .

Así los valores propios son λ1 = 3, con multiplicidad algebraica 1, y λ2 = 1, con

8

multiplicidad algebraica 2. Obsérvese que la traza de A coincide con la suma de los

valores propios. Vamos a determinar los espacios propios.

Para λ = 3 tenemos:

A− 3 I3 =

−1 −1 0

1 −3 0

0 0 0

≡↑Gauss

−1 −1 0

0 −4 0

0 0 0

,

y por tanto:

N(A− 3 I3) ={v = (0, 0, v3)

t ∈ R3 : v3 ∈ R}

,

es decir, de dimensión 1 y con base Bλ=3 = ((0, 0, 1)t).

Para λ = 1 calculamos el espacio nulo de

A− I3 =

1 −1 0

1 −1 0

0 0 2

≡↑Gauss

1 −1 0

0 0 2

0 0 0

,

que es {v = (v1, v1, 0)t ∈ R3 : v1 ∈ R

},

que tiene una base dada por Bλ=1 = ((1, 1, 0)t), también de dimensión 1.

En resumen, ambos espacios propios son de dimensión 1 y por tanto sólo podemos

encontrar dos vectores propios linealmente independientes, por lo que R3 no tendrá

una base formada por vectores propios linealmente independientes de la matriz A.

Además tenemos el siguiente resultado, que relaciona los valores propios con otra carac-

terística de las matrices cuadradas: su determinante.

9

Dada una matriz cuadrada A, de dimensión n × n, se tiene que el producto de sus

valores propios coincide con su determinante (incluyendo multiplicidades algebrai-

cas mayores que 1):

det(A) =

n∏i=1

λi.

Ejemplo

Consideremos de nuevo la matriz

A =

1 4 6

0 2 5

0 0 3

,

con valores propios λ1 = 1, λ2 = 2 y λ3 = 3. Es trivial comprobar que su determi-

nante es 6, que coincide con el producto de sus valores propios.

Los resultados que enunciamos a continuación (sin demostración) son fundamentales pa-

ra comprender en profundidad las secciones siguientes.

Dadas las matrices semejantes A,B ∈ Rn×n, se tiene que:

1. A y B tienen los mismos valores propios. En consecuencia:

tr(A) = tr(B).

det(A) = det(B).

2. A y B tienen el mismo polinomio característico.

3. Ak y Bk son semejantes.

10

8.3. El problema de la diagonalización

Hemos visto que existen casos en los que el número de vectores propios linealmente inde-

pendientes no coincide con la multiplicidad algebraica del correspondiente valor propio.

Nos referiremos al número de vectores propios linealmente independientes asociados a

un valor propio como la multiplicidad geométrica de tal valor propio. Si la multiplicidad

geométrica de algún valor propio es menor que su multiplicidad algebraica, diremos que

la matriz es defectiva.

Ejemplo

Consideremos de nuevo la matriz

A =

3 −2

1 0

.

Sabemos que un valor propio es λ1 = 2, con vector propio v1 = (2, 1)t, y fácilmente

se obtiene que λ2 = 1 es el otro valor propio, con vector propio v2 = (1, 1)t. También

podemos probar de manera sencilla que B = ((2, 1)t, (1, 1)t) es una base de R2. En-

tonces, cada vector u ∈ R2 puede ser escrito como combinación lineal de v1 y v2 de

la forma

c1v1 + c2v2 = (v1, v2)

c1

c2

= u

︸ ︷︷ ︸sistema lineal

, c1, c2 ∈ R

y

Au = A (c1v1 + c2v2) = c1A v1 + c2A v2 = 2c1v1 + c2v2 = (v1, v2)

2c1

c2

= (v1, v2)

2 0

0 1

c1

c2

.

11

Esto implica que

A (v1, v2)

c1

c2

= (v1, v2)

2 0

0 1

c1

c2

, ∀c1, c2 ∈ R

o equivalentemente

A (v1, v2)

c1

c2

− (v1, v2)

2 0

0 1

c1

c2

= 0 , ∀c1, c2 ∈ R ,

A (v1, v2) − (v1, v2)

2 0

0 1

c1

c2

= 0 , ∀c1, c2 ∈ R .

Por tanto, debe ser

A (v1, v2) − (v1, v2)

2 0

0 1

= 0 ⇒ A (v1, v2) = (v1, v2)

2 0

0 1

.

Si escribimos P = (v1, v2), puesto que v1 y v2 forman una base, las columnas de P son

linealmente independientes, P tiene rango 2 y es invertible. Así, podemos escribir

D =

2 0

0 1

= P−1AP .

Obsérvese que los elementos de la diagonal principal de D son los valores propios

de A y que las columnas de P son los correspondientes vectores propios asociados.

El ejemplo anterior ilustra el siguiente teorema:

Teorema

Si A es una matriz n × n, con valores propios λ1, . . . , λn ∈ R, no necesariamente

distintos, y con vectores propios correspondientes v1, . . . , vn ∈ Rn linealmente inde-

12

pendientes, entonces

P−1AP = D ,

donde

P = (v1, . . . , vn) , D =

λ1

. . .

λn

.

Este resultado motiva la siguiente definición:

Una matriz A de dimensión n× n es diagonalizable si existe una matriz invertible

P tal que P−1AP es una matriz diagonal.

En otras palabras, si A es diagonalizable es semejante a una matriz diagonal.

Teorema

Si A ∈ Rn×n es diagonalizable, entonces A tiene n vectores propios linealmente

independientes en Rn.

Teorema

SiA ∈ Rn×n tiene valores propios distintos λ1, . . . , λn ∈ R y vectores propios corres-

pondientes v1, . . . , vn ∈ Rn, entonces v1, . . . , vn son linealmente independientes.

Además, tenemos el siguiente resultado:

Si A ∈ Rn×n es diagonalizable de la forma A = PDP−1 y B ∈ Rn×n es una matriz

semejante a A, entonces B es diagonalizable de la forma B = QDQ−1.

Demostración. Si B es semejante a A, existe una matriz invertible R tal que B = RAR−1;

13

además, si A = PDP−1, tendremos:

B = RPDP−1 R−1 = (RP)︸ ︷︷ ︸Q

D (RP)−1 = QDQ−1 .

Así, aunque dos matrices semejantes tienen los mismos valores propios, en general, sus

vectores propios no son los mismos.

8.3.1. El polinomio característico

Sea A una matriz n× n. Como sabemos, el polinomio característico de A es el polinomio

de grado n dado por

cA(x) = det(x In −A)

y las raíces del polinomio característico de A son los valores propios de A. (Nótese que

hemos cambiado la variable de λ a x.) Además de permitir el cálculo de valores propios,

el polinomio característico tiene otras aplicaciones. El siguiente teorema indica una de

éstas.

Teorema de Caley-Hamilton

Dada una matriz A, de dimensión n × n y polinomio característico cA(x), se tiene

que

cA(A) = 0n×n.

Ilustremos este resultado con el siguiente ejemplo:

14

Ejemplo

Consideremos la matriz

A =

a b

c d

.

Su polinomio característico es

cA(x) = det

x− a −b

−c x− d

= x2 − (a+ d)x+ ad− bc .

Si “evaluamos” cA enA –introduciendo convenientemente la matriz identidad para

el término independiente– resulta:

cA(A) = A2 − (a+ d)A+ (ad− bc) I2

=

a b

c d

2

− (a+ d)

a b

c d

+ (ad− bc)

1 0

0 1

=

a2 + bc ab+ bd

ac+ cd bc+ d2

a2 + ad ab+ bd

ac+ cd ad+ d2

+

ad− bc 0

0 ad− bc

=

0 0

0 0

= 02×2 ,

tal y como indica el teorema de Caley-Hamilton.

También se puede usar el teorema para calcular A2, pues sabemos que

A2 − (a+ d)A+ (ad− bc) I2 = 0

y por tanto

A2 = (a+ d)A− (ad− bc) I2 =

a2 + ad ab+ bd

ac+ cd ad+ d2

.

15

Del mismo modo, podemos usar el teorema de Caley-Hamilton para calcular la in-

versa deA, ya que si multiplicamos ambos miembros deA2−(a+d)A+(ad−bc) I2 =

02×2 por A−1, resulta:

A2A−1 − (a+ d)AA−1 + (ad− bc)A−1 = 0

⇒ A−1 =1

ad− bc[(a+ d) I−A] =

1ad− bc

d −b

−c a

,

como es bien sabido.

8.4. Valores y vectores propios de aplicaciones lineales

Hasta ahora nos hemos centrado en el estudio de los valores y vectores propios de una

matriz A ∈ Rn×n. En esta sección vamos a relacionar los resultados que hemos obtenido

con las aplicaciones lineales.

Como las matrices semejantes comparten, entre otras características, el polinomio caracte-

rístico y los valores propios, podemos trasladar las definiciones y los resultados anteriores

a las transformaciones lineales.

Dada una trasformación lineal T del espacio vectorial V en sí mismo, diremos que un

vector no nulo v de V es un vector propio de T , con valor propio λ si T(v) = λ v. El

conjunto de los vectores propios de T asociados a λ, junto con el vector cero, forman

el espacio propio de T asociado a λ.

Obviamente, los valores propios de la transformación T son los de cualquier matriz cua-

drada AT que la represente. Del mismo modo:

16

La traza tr(T) de una transformación lineal T : V → V es la traza de cualquier

matriz AT que la represente.

El determinante det(T) de una transformación lineal T : V → V es el determinante

de cualquier matriz AT que la represente.

El polinomio característico cT (x) de una transformación lineal T es el polinomio

característico de cualquier matriz AT que la represente.

Una transformación lineal T sobre el espacio vectorial V se dice diagonalizable si

existe una base de V relativa a la cual la matriz que representa a T es una matriz

diagonal.

Obsérvese que aunque dos matrices semejantes, que representan la misma transforma-

ción T , en general tienen vectores propios diferentes, los vectores propios de T se obtienen

de forma única a partir de cualquiera de sus representaciones. Veámoslo en el siguiente

ejemplo:

Ejemplo

Consideremos la transformación lineal T : P2 → P2 dada por

T(p(x)) = T(a0 + a1x+ a2x2) = a2 + 2a1x+ (a0 + a1)x

2 .

Si fijamos, por ejemplo, la base B = (1, x, x2), la matriz que representa dicha trans-

17

formación respecto a la base B es:

AT ,B =([T(1)]B , [T(x)]B , [T(x2)]B

)=

0 0 1

0 2 0

1 1 0

.

Los valores propios de AT ,B (y por tanto los de T ) se calculan mediante la ecuación

característica:

det

−λ 0 1

0 2 − λ 0

1 1 −λ

= 0 ⇒ (2 − λ)(λ− 1)(λ+ 1) = 0 .

Así, el espectro de T será

σ(T) = {−1, 1, 2}

y su determinante viene dado por

det(T) = −2 .

Calculemos los vectores propios de AT ,B.

Para λ = −1:

N(AT ,B − λ I) = N

1 0 1

0 3 0

1 1 1

= Gen

((−1, 0, 1)t

).

Para λ = 1:

N(AT ,B − λ I) = N

−1 0 1

0 1 0

1 1 −1

= Gen

((1, 0, 1)t

).

18

Para λ = 2:

N(AT ,B − λ I) = N

−2 0 1

0 0 0

1 1 −2

= Gen

((1, 3, 2)t

).

Cada uno de estos vectores propios de la matrizAT ,B corresponde a un vector propio

de T . Las coordenadas (−1, 0, 1)t en la base B hacen referencia al vector

p1(x) = x2 − 1; cuya imagen es T(p1) = −(x2 − 1) ;

análogamente, para (1, 0, 1)t tenemos

p2(x) = x2 + 1; con T(p2) = x

2 + 1

y para (1, 3, 2)t será:

p3(x) = 2x2 + 3x+ 1; con T(p3) = 4x2 + 6x+ 2 = 2(2x2 + 3x+ 1) .

Si consideramos una base distinta de P2, por ejemplo B1 = (1, 1 + x, 1 + x + x2), la

matriz que representa a T respecto a esta base será:

AT ,B1 =([T(1)]B1 , [T(1 + x)]B1 , [T(1 + x+ x2)]B1

)=

0 −2 −1

−1 0 0

1 2 2

,

como es fácil comprobar. Esta matriz también tiene valores propios −1, 1 y 2. Si

calculamos los vectores propios (de la matriz) asociados, resulta que:

N(AT ,B1 + I) = Gen((−1,−1, 1)t

),

N(AT ,B1 − I) = Gen((1,−1, 1)t

),

N(AT ,B1 − 2 I) = Gen((−2, 1, 2)t

)19

y se observa que los espacios propios de AT ,B1 no coinciden con los de AT ,B. No

obstante, sí representan los mismos vectores propios de T , ya que de las correspon-

dientes coordenadas se obtiene

[p1]B1 = (−1,−1, 1)t , pues − 1 − (1 + x) + (1 + x+ x2) = x2 − 1 = p1(x)

y también

[p2]B1 = (1,−1, 1)t , [p3]B1 = (−2, 1, 2)t .

Obviamente T es diagonalizable, ya que B ′ = (p1,p2,p3) es una base de P2 y la

matriz que representa a T con respecto a dicha base es

AT ,B ′ = ([T(p1)]B ′ , [T(p2)]B ′ , [T(p3)]B ′) =

−1 0 0

0 1 0

0 0 2

.

Ahora, el siguiente resultado es fácil de entender:

Proposición

Una transformación lineal T sobre V es diagonalizable si y sólo si existe una base de

V que consiste en vectores propios de T .

Así, diagonalizar una transformación lineal T : V → V consiste en encontrar una base Bd

de V en la que la matriz asociada AT ,Bd sea diagonal. AT ,Bd será semejante a cualquier otra

matriz AT ,B1 que represente a T . En efecto, si T es diagonalizable existe una base Bd de V

formada por vectores propios de T .

Para cualquier otra base B1, la matriz AT ,B1 puede escribirse como AT ,B1 = PDP−1,

donde las columnas de P = TB1Bd representan tales vectores propios en la base B1. Así,

P = TB1Bd es la matriz de cambio de base para pasar de la base B1 a la base Bd yD = AT ,Bd

20

es la matriz de la transformación T cuando los vectores de V están expresados en términos

de la base Bd, como se indica en el siguiente diagrama:

[v]B1 [T(v)]B1

[v]Bd[T(v)]Bd

TB1Bd= P

AT ,B1

D

TBdB1

D = AT ,Bd= T−1

B1BdAT ,B1 TB1Bd

Ejemplo

Sabemos que la matriz

A =

3 −2

1 0

(que representa una transformación lineal S respecto a la base canónica B0 de R2)

puede ser diagonalizada de la forma:

A = PDP−1

donde

D =

2 0

0 1

, P = TB0Bd =

2 1

1 1

, P−1 = TBdB0 =

1 −1

−1 2

donde Bd es la base de R2 con respecto a la cual la matriz asociada a S es D.

Si consideramos, por ejemplo, el vector u = (5,−3)t, la transformación lineal S lo

transforma en w = S(u), cuyas coordenadas son w = (21, 5)t.

21

Por otra parte, sabemos que las columnas de P son vectores propios linealmente

independientes de A y que forman una base Bd de R2. Si expresamos u y S(u) en

términos de tales vectores se obtiene:

[u]Bd = (8,−11)t , [S(u)]Bd = (16,−11)t .

Es fácil comprobar que

[u]Bd = TBdB0 u = P−1 u ,

[S(u)]Bd = TBdB0 [S(u)]B0 = P−1 [S(u)]B0 ,

[S(u)]Bd = D [u]Bd .

Teorema

Una transformación lineal T sobre V es diagonalizable si y sólo T se puede escribir

de la forma

T = λ1 T1 + · · ·+ λn Tn

donde λi son los valores propios de T y las Ti son transformaciones que verifican

Ti ◦ Ti = Ti, T1 + · · · + Tn = I (aplicación identidad) y Ti ◦ Tj = 0 (aplicación nula)

para todo i 6= j.

22