trabajo algebra

27
UNIVERSIDAD DE CUENCA Facultad de Ingeniería ALGEBRA LINEAL EIGENVALORES Y EIGENVECTORES PEDRO ZHINDÓN S. CUENCA, 10 ENERO 2014

Upload: darkbalder

Post on 22-Oct-2015

17 views

Category:

Documents


3 download

TRANSCRIPT

Page 1: Trabajo Algebra

UNIVERSIDAD DE CUENCA

Facultad de Ingeniería

ALGEBRA LINEAL

EIGENVALORES Y EIGENVECTORES

PEDRO ZHINDÓN S.

CUENCA, 10 ENERO 2014

EIGENVALORES Y EIGENVECTORES

Page 2: Trabajo Algebra

INTRODUCCIÓN:

En álgebra lineal, los vectores propios, autovectores o eigenvectores de un operador lineal son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar λ recibe el nombre valor propio, autovalor, valor característico o eigenvalor.

A menudo, una transformación queda completamente determinada por sus vectores propios y valores propios. Un espacio propio, autoespacio o eigenespacio es el conjunto de vectores propios con un valor propio común.

La palabra alemana eigen, que se traduce en español como propio se usó por primera vez en este contexto por David Hilbert en 1904 (aunque Helmholtz la usó previamente con un significado parecido). Eigen se ha traducido también como inherente, característico o el prefijo auto-, donde se aprecia el énfasis en la importancia de los valores propios para definir la naturaleza única de una determinada transformación lineal. Las denominaciones vector y valor característicos también se utilizan habitualmente.

EIGENVALORES Y EIGENVECTORES

Page 3: Trabajo Algebra

En diversos campos de la ingeniería y las matemáticas surge el problema de calcular los valores escalares l y los vectores x¹0 tales que para la matriz cuadrada A se cumple Ax = lx (1)Algunos de estos campos de aplicación son:

- Ecuaciones diferenciales- Estabilidad de sistemas lineales- Sistemas eléctricos (componentes simétricas)- Polos y ceros de funciones transferencia- Diagonalización de matrices

Podemos averiguar si el problema planteado por (1) tiene solución si la reescribimos como sigue(A - lI)x = 0 (2)

- Así el problema se transforma en el ya conocidosistema lineal homogéneo Bx=0, el cual ya sabemosque tiene solución única x=0 cuando det(B)¹0. Justamente este es el caso que no nos interesa.- El número l se dice valor propio de A (matriz cuadrada) si y sólo si det(A - lI)

= 0 (3) esta es la ecuación característica de la matriz A.- El determinante que aparece en (3) resulta ser un

polinomio en potencias de l. Por ello a la expresión a(l)=det(A - lI) (4)se le llama polinomio característico de la matriz A.

Observación: El polinomio característico de una matriz de dimensión n´n es de grado n, por lo cual tendrá n posibles valores propios l que satisfacen (3)

- Si l es un valor propio de A y si x es el vector no nulo tal que Ax = lx entonces x se dice vector propio de A correspondiente al valor propio l

Las transformaciones lineales del espacio —como la rotación, la reflexión, el ensanchamiento, o cualquier combinación de las anteriores; en esta lista podrían incluirse otras transformaciones— pueden interpretarse mediante el efecto que producen en los vectores. Los vectores pueden visualizarse como flechas de una cierta longitud apuntando en una dirección y sentido determinados.

Los vectores propios de las transformaciones lineales son vectores que, o no se ven afectados por la transformación o se ven multiplicados por un escalar, y por tanto no varían su dirección.

El valor propio de un vector propio es el factor de escala por el que ha sido multiplicado.

Un espacio propio es un espacio formado por todos los vectores propios del mismo valor propio, además del vector nulo, que no es un vector propio.

La multiplicidad geométrica de un valor propio es la dimensión del espacio propio asociado.

El espectro de una transformación en espacios vectoriales finitos es el conjunto de todos sus valores propios.

Page 4: Trabajo Algebra

Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector situado en el eje de rotación sobre el cual se realiza la rotación. El valor propio correspondiente es 1 y el espacio propio contiene a todos los vectores paralelos al eje. Como es un espacio de una dimensión, su multiplicidad geométrica es uno. Es el único valor propio del espectro (de esta rotación) que es un número real.

Formalmente, se definen los vectores propios y valores propios de la siguiente manera: Si A: V → V es un operador lineal en un cierto espacio vectorial V, v es un vector diferente de cero en V y c es un escalar tales que Av= cv

Entonces decimos que v es un vector propio del operador A, y su valor propio asociado es c. Observe que si v es un vector propio con el valor propio c entonces cualquier múltiplo diferente de cero de v es también un vector propio con el valor propio c. De hecho, todos los vectores propios con el valor propio asociado c junto con 0, forman un subespacio de V, el espacio propio para el valor propio c. Observe además que un espacio propio Z es un subespacio invariante de A, es decir dado w un vector en Z, el vector Aw también pertenece a Z.

Valores Característicos y Vectores Característicos:

En muchos problemas científicos y matemáticos, se conoce un operador lineal T: V→V, y se requiere encontrar todos aquellos escalares para los cuales la ecuación Tx=x tenga soluciones diferentes de cero.

DEFINICIÓN: Si A es una matriz cuadrada, entonces un escalar es un valor ک característico de A si satisface la ecuación det(کI – A)=0

A esta ecuación se le denomina ecuación característica. El término valor característico se deriva del alemán “eigen” que entre otras cosas significa propio, algunos autores prefieren utilizar el término valores propios ó raíces latentes en lugar de valores característicos.

Si la ecuación característica es muy grande, tenemos el siguiente teorema:

TEOREMA : Si A es una matriz de orden nxn entonces las siguientes afirmaciones son equivalentes:

(a) es un valor característico de A ک(b) El sistema de ecuaciones (کI – A)x=0 tiene soluciones no triviales(c) Existe un vector x en Rn diferente de cero, tal que Ax = کx

Si es un valor característico de A entonces el espacio solución del sistema de ک ecuaciones (کI – A)x=0 se denomina el espacio característico de A correspondiente a ک , y los vectores diferentes de cero en el espacio se denominan los vectores característicos de A correspondientes a ک

Page 5: Trabajo Algebra

EJEMPLO:

1) Encuentre los valores característicos de la matriz A= [ 3 2−1 0 ]

Dado que: کI –A= 1]ک 00 1]- [ 3 2

−1 0 3−ک]=[ −21 ک ]

det(کI – A)=det[3−ک −21 ک ]= 0=2ک + 3 - 2ک luego

=1ک= 2ک

Luego estos valores son los valores característicos de la matriz A.

DIAGONALIZACIÓN

En álgebra lineal una matriz cuadrada A se dice que es diagonalizable si es semejante a una matriz diagonal, es decir, si mediante un cambio de base puede reducirse a una forma diagonal. En este caso, la matriz podrá descomponerse de la forma A = PDP − 1 donde P es una matriz invertible cuyos vectores columna son vectores propios de A y D es una matriz diagonal formada por los valores propios de A.

Sea A€Mnxn(K) una matriz cuadrada con valores en un cuerpo K , decimos que la matriz A es diagonalizable si, y sólo si, A se puede descomponer de la forma: A=PDP-1

Donde:

D es una matriz diagonal cuya diagonal principal está formada por los elementos de Sp(A), apareciendo cada uno tantas veces como indique su multiplicidad algebraica, siendo o(A) el espectro de A , es decir, el conjunto de autovalores de la matriz A :

O(A)={ iک € K∨Av=کi v ∀ i=1,2, ... , n}

P es la matriz cuyas columnas son los vectores que constituyen una base del subespacio propio asociado a cada کisiguiendo el orden establecido en D, esto es, los vectores que forman el núcleo de la matriz (A-کiI):

P=(v1|v2|…|vn)/vj€ker(A-کiI) ∀ i , j=1 ,... , n

Page 6: Trabajo Algebra

DEFINICIÓN: Se dice que una matriz cuadrada A es diagonalizable si existe una matriz inversible P tal que P-1AP sea diagonal; se dice entonces que la matriz P diagonaliza a A.

Si existe una matriz ortogonal P tal que P-1AP(=PtAP) es diagonal, entonces A es diagonalizable ortogonalmente, y se dice que P diagonaliza ortogonalmente a A.

El siguiente teorema es básico para el estudio de la diagonalizabilidad:

TEOREMA: Si A es una matriz de orden nxn, entonces las siguientes afirmaciones son equivalentes:

(a) A es diagonalizable(b) A tiene n vectores característicos linealmente independientes

DEMOSTRACIÓN:

De (a)→(b):

Como A es diagonalizable, entonces existe una matriz inversible:

P= [ p11 p12… p1n

p21...

p22...

… p2n...

pn1 pn2… pnn

] tal que P-1AP es diagonal; sea D= P-1AP, donde:

D= [ک 1 0… 00.

.

.

2ک...

… 0...

0 0… ک n

] por consiguiente AP=PD

AP=[ p11 p12… p1n

p21...

p22...

… p2n...

pn1 pn2… pnn

][ 1ک 0… 00 .

.

.

ک 2...

… 0 ...

0 0… nک

]=[ ک 1 p11 2ک p12… ک n p1n1ک p21...

2ک p22...

… ک n p2n..ک. 1 pn1 ک 2 pn2… nک pnn

] Si p1, p2,…,pn denotan los vectores columna de P entonces se tiene que:

A p1=1ک p1, A p2=2ک p2, … ,Apn=کn pn

Page 7: Trabajo Algebra

Dado que es inversible sus vectores columna son diferentes de cero, entonces se deduce que 1ک , ک 2 n son valores característicos de A y p1, p2,…,pnک ,…, son los vectores característicos correspondientes, puesto que P es inversible, p1, p2,…,pn

son linealmente independientes, luego entonces A tien n vectores linealmente independientes.

De (b) →(a)

Suponemos que A tiene n vectores característicos linealmente independientes p1, p2,…,pn, correspondientes a los valores característicos 1ک , ک 2 n, y seaک ,…,

P= [ p11 p12… p1n

p21...

p22...

… p2n...

pn1 pn2… pnn

] la matriz cuyos vectores columna son: p1, p2,…,pn, las

columnas del producto AP son: Ap1, Ap2,…,Apn pero A p1=1ک p1, A p2=2ک p2, … ,Apn=کn pn

Por lo que: AP=[ ک 1 p11 2ک p12… ک n p1n1ک p21...

2ک p22...

… ک n p2n..ک. 1 pn1 ک 2 pn2… nک pnn

]=[ p11 p12… p1n

p21...

p22...

… p2n...

pn1 pn2… pnn

][ 1ک 0… 00 .

.

.

ک 2...

… 0 ...

0 0… nک

]=PD

Donde D es la matriz diagonal que tiene como elementos en la diagonal principal a 1ک , ک 2 n, dado que los vectores columna de P son linealmente independientesک ,…,P es inversible y por consecuencia se puede expresar como P-1AP=D, es decir A es diagonalizable.

OBSERVACIÓN: se sugiere el siguiente proceso para diagonalizar una matriz diagonalizable A de nxn.

1. Encuentre n vectores característicos linealmente independientes p1, p2,…,pn

2. Forme la matriz P que tenga a p1, p2,…,pn como sus vectores columna.3. Entonces la matriz P-1AP será diagonal, y 1ک , ک 2 nserán los elementosک ,…,

sucesivos en su diagonal principal, donde کi es el valor correspondiente a pi , i=1,2,…,n

TEOREMA: Los vectores característicos correspondientes a valores característicos diferentes son linealmente independientes.

Page 8: Trabajo Algebra

TEOREMA: Si una matriz A de orden nxn tiene n valores característicos diferentes, entonces la matriz A es diagonalizable.

EJEMPLO:

1) Determine una matriz P que diagonalice a A= [ 3 −2 0−2 3 00 0 5]

Los valores característicos de A son 1ک = y 5ک = además se sabe que los vectores

p1=[−110 ] p2=[001] forman una base del espacio característico correspondiente a

5ک =

Y que p3=[110] es una base del espacio característico correspondiente a = 1ک

Luego tenemos que P=[−1 0 11 0 10 1 0]

luego P-1AP=[−1/2 1/2 00 0 11/2 1/2 0][

3 −2 0−2 3 00 0 5] [

−1 0 11 0 10 1 0]=[5 0 0

0 5 00 0 1 ]

El orden de las columnas de P es totalmente arbitrario, luego si P=[−1 1 01 1 00 0 1]

Se tendría que P-1AP=[5 0 00 1 00 0 5 ]

MATRICES SIMÉTRICAS Y DIAGONALIZACIÓN ORTOGONAL:

Diagonalización de matrices simétricas y diagonalización ortogonal:

Page 9: Trabajo Algebra

Teorema 1. Sea A una matriz simétrica real de n x n. Entonces los valores característicos de A son reales.

Teorema 2. Sea A una matriz simétrica real de n x n. Si λ1 y λ2 son valores característicos distintos con correspondientes vectores característicos reales v1 y v2, entonces v1 y v2 son ortogonales.

Teorema 3.Sea A una matriz simétrica real de n x n. Resulta entonces que A tiene n vectores característicos reales ortonormales.

Observación. Se concluye de este teorema que la multiplicidad geométrica de cada valor característico de A es igual a su multiplicidad algebraica.

El Teorema 3 nos dice que si A es simétrica entonces Rn tiene una base B = {u1, u2, ... un} que consiste de vectores característicos ortonormales de A. Sea Q la matriz cuyas columnas u1, u2, ... un. Entonces Q es una matriz ortogonal. Esto nos conduce hacia la siguiente definición.

Definición: Matriz ortogonalmente diagonizable. Una matriz A de n x n se dice que es diagonalizable ortogonalmente si existe una matriz ortogonal Q tal que

Q'AQ = D (1) donde D = diag(λ1, λ2, ..., λn) y λ1, λ2, ..., λn son los valores característicos de A.

Nota. Recuerde que Q es ortogonal si Q' = Q-1; Por lo tanto (1) podría ser escrita como Q-1AQ = D.

Teorema 4. Sea A una matriz real de n x n. Entonces A es diagonalizable ortogonalmente si y sólo si A es simétrica.

Procedimiento para encontrar una matriz diagonalizante Q:i. Encuentre una base para cada espacio característico de A.ii. Encuentre una base ortonormal para cada espacio característico de A, usando el procedimiento Gram-Schmidt.iii. Establezca a Q como la matriz cuyas columnas son los vectores característicos ortonormales obtenidos en el paso (ii)

Diagonalizar ortogonalmente una matriz:

Ortogonal significa ortogonal con respecto al producto interior euclidiano en Rn.

TEOREMA: Si A es una matriz de orden nxn entonces las siguientes afirmaciones son equivalentes:

Page 10: Trabajo Algebra

(c) A es diagonalizable ortogonalmente(d) A tiene un conjunto de n vectores característicos ortonormales.

DEMOSTRACIÓN:

D e (a) →(b):

Dado que A es diagonalizable ortogonalmente, existe una matriz ortogonal P tal que P-1AP es diagonal. Los n vectores columna de P son vectores característicos de A. Dado que P es ortogonal estos vectores columna son ortonormales, por lo que A tiene n vectores característicos ortonormales.

De (b) → (a):

Suponemos que A tiene un conjunto ortonormal de n vectores característicos {p1,p2,…,pn}, la matriz P que tiene estos vectores característicos como columna, diagonaliza a A. Puesto que estos vectores son ortonormales, P es ortogonal y por consiguiente, diagonaliza ortogonalmente a A.

Una matriz A que sea diagonalizable ortogonalmente debe satisfacer la condición: A=At, a una matriz con esta propiedad se le denomina MATRIZ SIMÉTRICA.

TEOREMA: Toda matriz simétrica es diagonalizable ortogonalmente. Recíprocamente toda matriz diagonalizable ortogonalmente es simétrica.

TEOREMA: Si A es una matriz simétrica, entonces los vectores característicos que pertenecen a espacios característicos diferentes son ortogonales.

DEMOSTRACIÓN:

Sean 1ک y 2ک dos valores característicos y diferentes entre sí, de una matriz

simétrica A de orden nxn, y sean v1=[v1v2

.

.

.

.

.

vn

] y v2=[v '1v '2

.

.

.

.

.

v 'n] los vectores característicos

correspondientes. Se requiere demostrar que:

<v1,v2>=v1v’1+v2v’2+…+vnv’n=0

Dado que v1tv2 es una matriz de orden 1x1, que tiene a <v1,v2> como su único

elemento, la demostración se completará probando que v1tv2=0

Page 11: Trabajo Algebra

Dado que v1tAv2 es una matriz de 1x1, y es obvio que toda matriz de 1x1 es

simétrica,

v1tAv2=(v1

tAv2)t

= v2tAtv1 (por una propiedad de la matriz transpuesta)

= v2tAv1 (dado que A es simétrica)

Además:

v1tAv2= v1

t 2ک v2 = 2ک v1tv2 y v2

tAv1= v2t 1ک v1= 1ک v2

tv1

1ک = (v2tv1)t= 1ک v1

tv2

Por consiguiente:

1ک v1tv2= 2ک v1

tv2

Es decir:

( 2ک- 1ک ) v1tv2=0

Como 2ک ≠ 1ک , se deduce que v1tv2=0

TEOREMA: (a) La ecuación característica de una matriz simétrica solamente tiene raíces reales.

(b) Si un valor característico ک de una matriz simétrica A es una raíz de multiplicidad k de la ecuación característica, entonces el espacio característico correspondiente a ک es de dimensión k.

EJEMPLO:

1) La matriz A=[ 1 −4 5−4 3 05 0 7] es simétrica

Page 12: Trabajo Algebra

Debido a un teorema indicado anterior que dice que una matriz A de nxn diagonalizable ortogonalmente queda diagonalizada ortogonalmente por una matriz P de orden nxn cuyas columnas forman un conjunto ortonormal de vectores característicos de A. Sea D la matriz diagonal: D= P −1AP, por lo que:

A= PDP-1

Ó dado que P es ortogonal, A=PDPt

Por tanto, At=(PDPt)t=PDtPt=PDPt=A

Esto muestra que una matriz diagonalizable ortogonalmente es simétrica. La afirmación recíproca también es cierta.

APLICACIONES: CRECIMIENTO DE UNA POBLACIÓN

El modelo discreto más simplista de crecimiento es el denominado modelo geométrico escalar, que básicamente consiste en suponer que la población de la especie varía con velocidad constante, digamos r>0. Su formulación matemática corresponde al término general de una progresión geométrica

Pn= rpn-1 n = 1,2,… (2)

P0=p(0)

Donde Pn denota el tamaño de la población en el instante n. Aquí el término instante corresponde a un período temporal discreto (n=1,2,…) segundos, días, meses, años, …, según convenga. El término de arranque o inicio, P0, tiene un valor conocido, p(0), que representa la población de la especie en el inicio del estudio. El modelo (2) es poco manejable desde el punto de vista numérico ya que para conocer por ejemplo qué población hay en el instante n=100 necesitamos saber qué población hay en n=99 que a su vez requiere de la población cuando n=98 , y así sucesivamente. Por lo cual se llega a la fórmula equivalente siguiente:

Pn= rnp0

n = 1,2,… (3)

P0=p(0)

Que permite determinar la población en cualquier instante en términos únicamente de la población inicial. Desde (2) ó (3) puede observarse que si 0<r<1, entonces la población disminuye; si r=1, la población permanece constante en tamaño y si r>1, la población crece. Y desde (3) se deduce a largo plazo (n→+∞), la especie se

Page 13: Trabajo Algebra

extinguirá si 0<r<1; se mantendrá exactamente igual que al principio si r=1 y aumentará indefinidamente si r>1.

La información anterior puede recogerse en el siguiente modelo discreto basado en un sistema de ecuaciones diferenciales en orden uno:

p j , n = k p a , n -1

p j, 0 = p , p a , o = q (4)

p a , n = ∝ p j , n -1 + β p a , n -1

Ó matricialmente escrito p⃗n = A p⃗n−1 donde p⃗n = [ p j ,n

pa ,n] , A=[ 0 k

∝ β ] , p⃗0 = [ pq ] (5)

Obsérvese que estamos suponiendo que inicialmente hay p individuos jóvenes y q individuos adultos.

Aplicando en (5) el proceso recurrente que se aplicó para pasar de(2) a (3) se obtiene:

p⃗n = An p⃗0

n= 1,2, … (6)

p⃗0=[ pq ]Obsérvese que la única diferencia entre (3) y (6) es la dimensión de ambas expresiones matemáticas, y esto ha servido para refinar el modelo, haciendo de esta suerte que ahora sí contemple las tasas de supervivencia de especies jóvenes y adultas.

Aumentando la dimensión, es como se consigue que el modelo sea más fino, es decir, contemple más descriptores. A (6), se le denomina modelo geométrico matricial.

Lo que sigue es el tratamiento matemático para extraer conclusiones generales de este modelo.

Como k ≠ 0, calculamos los valores propios de A. Calculamos el espectro de A:

Page 14: Trabajo Algebra

Km2 –βm - ∝ = 0 ⟹ ¿ (7)

σ (A) ={β ±√β2+4 k∝2 }

Como 0<∝,β<1 y k>0 entero, entonces, β2+4 k∝>β2>0, y podemos asegurar que los valores propios de A son números reales y distinto (de signo opuesto), por lo

que la matriz A es diagonalizable. Además A=PDP-1 siendo P=[ 1 1m1 m2] y

D=[ک 1 00 [2ک

Y por tanto An=PDnP-1= 1

m2−m1 [ 1 1m1 m2][ 1ک

n 0

0 ک 2n] [ m2 −1

−m1 1 ]Sustituyendo esta expresión en (6) y separando componentes obtenemos cómo evolucionan las poblaciones de jóvenes y adultos de la especie en cada instante

p j , n = 1

m2−m1{p (m2 ک 1

n−m1 ک 2n)+q ( ک 2

n−1کn )} (8)

p a , n =1

m2−m1{−q (m1 ک 1

n−m2 2nک )−pm1m2 ( ک 2n−1کn ) }

donde m1, m2, ,1ک han sido antes calculados en términos de los datos, según 2ک (7)

La población total (jóvenes y adultos), p n en un instante genérico n será:

p n =1

m2−m1{( pm2−q ) (m1+1 ) ک 1

n−( pm1−q ) (m2+1 ) 2nک } (9)

Pn=AnP0 donde Po es el vector de las poblaciones iniciales de hembras jóvenes y adultas.

APLICACIONES: FORMAS CUDRÁTICAS

Una forma cuadrática o forma bilineal simétrica es una aplicación matemática que asigna a cada elemento de un espacio vectorial un número real, de una manera que generaliza la operación un espacio vectorial de dimensión superior a 1.

Page 15: Trabajo Algebra

Una forma cuadrática es una aplicación w del espacio vectorial E en el cuerpo K, que cumple las siguientes condiciones equivalentes:

a) Existe una forma bilineal simétrica f(-.-) de ExE en el cuerpo K tal que w(x)=f(x,x). A f(-.-) se le llama forma polar de w.

b)w(Ix)=I2w(x), ∀I∈K, ∀x∈E. Además f(x,y)=(w(x+y)-w(x)-w(y))/2 es una forma bilineal simétrica definida en ExEy con valores en K. A w se la llama forma cuadrática asociada a f(-,-).

Una forma cuadrática es por tanto un aplicación f(x,x)=x B x que es un polinomio de segundo grado con varias variables. Se le puede considerar un caso específico de forma bilineal.

PROPIEDADES:

Cuando K=R se dice que la forma cuadrática es real. Dos formas cuadráticas pueden ser:

o Linealmente equivalentes en R si las signaturas de ambas formas cuadráticas coinciden.

o Linealmente equivalentes en C si los rangos de las matrices de las formas cuadráticas coinciden.

o Métricamente equivalentes si poseen el mismo polinomio característico.

Una forma cuadrática define un espacio vectorial euclídeo si y sólo si es definida positiva, lo cual se puede comprobar utilizando el criterio de Sylvester.

La signatura de una forma cuadrática q:V→R se llama al par (p,m) donde p es el número de lementos positivos que posee la diagonal de la matriz diagonal asociada a q y m los negativos. Se designa sg(q) y se verifica: p – m = sg(q)

REPRESENTACIÓN GRÁFICA:

El el caso de que V=R2, una forma cuadrática, puede representarse por un conjunto de cónicas. Si la signatura de la forma cuadrática es 2, entonces las curvas serán un conjunto de elipses, si la signatura es 1 será un conjunto de parábola y si la signatura es 0 entonces será un conjunto de hipérbolas.

A todos los vectores cuyo extremo caiga sobre la misma curva cuadrática se les asignará el mismo valor numérico.

ACOTACIÓN DE UNA FORMA CUADRÁTICA:

Page 16: Trabajo Algebra

Sea la forma cuadrática Q:Rn→R definida por Q(x)=xTAx, con A∈Rnxn simétrica. Esta matriz es diagonalizable ortogonalmente siempre.

Si pensamos en la factorización A=P∆PT con P∈Rnxn una matriz ortogonal compuesta por autovectores de A y ∆ ∈Rnxn una matriz diagonal compuesta por los autovalores de A en su diagonal, vemos que la forma cuadrática se reduce a: Q(x)= xT P∆PTxSi llamamos y= PTx , entonces tenemos que yT=( PTx)T=xTP . Reemplazando en la ecuación anterior tenemos que: Q(x)=Q’(y)=yT ∆yY sabemos que ∆=diag[ ک…1ک n ]T , con i, 1≤i≤n autovalor de A. Por lo que si el ک cambio de variables propuesto es tal que y=[y1 … yn]T tenemos que:

Q’(y)=∑i=1

n ک i y i2

A este tipo de forma cuadrática se la llama "forma cuadrática sin productos cruzados".

Sean, ک ≤ …≤1ک n los autovalores de A ordenados de forma decreciente. Es decir, ک max= ک ∧ 1ک min= ک n. Entonces tenemos que:

Q’(y)=∑i=1

n ک i y i∑maxک ≥ 2

i=1

n

yi2

Q’(y)=∑i=1

n ک i y i∑minک ≤ 2

i=1

n

yi2

Por otro lado, observando bien el siguiente término, nos damos cuenta de que

∑i=1

n

yi2=∥y∥2 Por lo tanto: min∥y∥2 ≤ Q´(y) ک ≤ : max∥y∥2 ک

Pero una de las propiedades fundamentales de las matrices ortogonales es que conservan el producto interno, pues en particular

∥y∥2 =(y,y)=( PTx, PTx)=( PTx)T PTx=xTP PTx=xTx=∥x∥2

Entonces, finalmente tenemos que

max=∥x∥2 ک ≥ =min=∥x∥2 ≤ Q(x ک

Y ocurre que Q(x)= ک min=∥x∥2 cuando el vector x ∈ Sکmin y también Q(x)= ک max=∥x∥2

cuando el vector x ∈ Sکmax , siendo Sکmax y Sکmin los autoespacios asociados a los autovalores máximo y mínimo respectivamente.

Las formas cuadráticas surgen de una gran variedad de problemas importantes relacionados con vibraciones, relatividad, geometría, estadística, etc.

Page 17: Trabajo Algebra

Se dice que la ecuación de la forma ax2+2bxy+cy2+dx+ey+f=0 , donde a,b,c…..,f son números reales y al menos uno de los números a,b y c es diferente de cero, es una ecuación cuadrática en x y y; la expresión ax2+2bxy + cy2 se denomina forma cuadrática asociada.

TEOREMA: (teorema de los ejes principales para R2) Sea ax2+2bxy+cy2+dx+ey+f=0 la ecuación de una cónica C, y sea xtAx= ax2+2bxy + cy2 la forma cuadrática asociada. Entonces, los ejes coordenados se pueden rotar de tal manera que la ecuación de C con respecto al nuevo sistema de coordenadas x’ – y’ tiene la forma 1ک x’2 + 2ک y’2 d’x’ + e’y’ + f=0

Donde 1ک y 2ک son los valores característicos de A. La rotación se puede efectuar mediante la sustitución x= Px’

Donde P diagonaliza ortogonalmente a A y, det(P)= 1

Las gráficas de las secciones cuadráticas se llaman cónicas ó secciones cónicas. Las cónicas más importantes son la elipse, la circunferencia, la hipérbola y la parábola; a éstas se les conoce como cónicas no degeneradas. Las cónicas restantes se les llaman degeneradas e incluyen puntos aislados y pares de rectas. Se dice que una cónica no degenerada tiene una posición normal relativa a los ejes de coordenadas si su ecuación se puede expresar en una forma parecida o igual a:

X2=ky

SUPERFICIES CUADRÁTICAS:

Se dice que una ecuación de la forma ax2+by2+cz2+2dxy+2exz+2fyz+gx+hy+iz+j=0 , donde al menos uno de los términos a,b,…,f es diferente de 0, es una ecuación cuadrática en x, y y z; la expresión

ax2+by2+cz2+2dxy+2exz+2fyz se llama la forma cuadrática asociada.

También la ecuación se puede escribir en la forma matricial:

[ x y z ][ a d ed b fe f c ][ x

yz ]+ [ g h i ] [ xyz ]+j=0 o sea xtAx + kx + j = 0

donde x=[ xyz ] A=[a d ed b fe f c ] K=[ g h i ]

La matriz A se denomina matriz de la forma cuadrática

Page 18: Trabajo Algebra

xtAx = ax2+by2+cz2+2dxy+2exz+2fyz

TEOREMA: (teorema de los ejes principales para R3)

Sea ax2+by2+cz2+2dxy+2exz+2fyz+gx+hy+iz+j=0 la ecuación de una cuadrática Q, y sea

xtAx= ax2+by2+cz2+2dxy+2exz+2fyz la forma cuadrática asociada.

Entonces los ejes de coordenadas se pueden girar de tal manera que la ecuación de Q con respecto al sistema de coordenadas x’-y’-z’ tiene la forma:

1ک x’2 + 2ک y’2 + 3ک z’2 +g’x’ + h’y’ + i’z’ + j =0 (1)

Donde 3ک, 2ک, 1ک son los valores característicos de A. la rotación se puede llevar a efecto mediante la sustitución x =Px’ donde P diagonaliza ortogonalmente a A y det(P)=1.

Este teorema sugiere el siguiente procedimiento para eliminar el término de producto cruz de una ecuación cuadrática en x, y, y z

Encuentre una matriz que diagonalice ortogonalmente a A. Sea P la matriz En caso necesario, intercambie dos columnas de P, de tal forma que

det(P)=1. Esto garantiza que la transformación ortogonal de coordenadas

[ xyz ]=P[ x 'y 'z ' ] es una rotación (2)

Substituir (2) en (1)

Page 19: Trabajo Algebra

BIBLIOGRAFÍA:

LIBRO: INTRODUCCIÓN AL ÁLGEBRA LINEAL, HOWARD ANTON. LIBRO: ÁLGEBRA LINEAL, 5ta edición, STANLEY I. GROSSMAN. http://es.wikipedia.org/wiki/Vector_propio_y_valor_propio#Definiciones http://es.wikipedia.org/wiki/David_Hilbert http://lc.fie.umich.mx/~jrincon/apuntes%20intro%20valores%20propios.pdf http://es.wikipedia.org/wiki/Matriz_diagonalizable http://sistemas.itlp.edu.mx/tutoriales/matematicas4/t65.htm http://es.scribd.com/doc/305838/Coleccion-De-Problemas--Aplicadas-A-La-

Ingenieria http://es.wikipedia.org/wiki/Forma_cuadr%C3%A1tica http://dialnet.unirioja.es http://es.wikipedia.org/wiki/Joseph-Louis_de_Lagrange http://www.biografiasyvidas.com/biografia/c/cauchy.htm http://sauce.pntic.mec.es/~rmarti9/euler1.html http://matematicas.unex.es/~mamulero/biologos/temaV.pdf http://www.biografiasyvidas.com/biografia/c/cayley.htm http://es.wikipedia.org/wiki/Carl_Friedrich_Gauss