algebra ii

36
UNIVERSIDAD DE BUENOS AIRES FACULTAD DE I NGENIER ´ IA no 2015 - 1 er Cuatrimestre ´ ALGEBRA II A (61.08) Resumen de ´ Algebra II INTEGRANTE: Maria In´ es Parnisari - 92235 h[email protected]i Men´ endez, Mart´ ın Nicol´ as - 92830 h[email protected]i

Upload: pipo-sanfilippo

Post on 16-Sep-2015

21 views

Category:

Documents


1 download

DESCRIPTION

ALgebra

TRANSCRIPT

  • UNIVERSIDAD DE BUENOS AIRESFACULTAD DE INGENIERIA

    Ano 2015 - 1er Cuatrimestre

    ALGEBRA II A (61.08)

    Resumen de Algebra II

    INTEGRANTE:Maria Ines Parnisari - [email protected]

    Menendez, Martn Nicolas - [email protected]

  • INDICE

    Indice1. Matrices 3

    1.1. Propiedades generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2. Propiedades de la inversa, la traza y la traspuesta . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3. Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.4. Subespacios fila, columna y null . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

    2. Espacios vectoriales 62.1. Propiedades de los subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.2. Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.3. Operaciones con subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.4. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.5. Coordenadas de un vector en una base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.6. Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.7. Teorema de la dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

    3. Producto interno 83.1. Axiomas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83.2. Producto interno canonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83.3. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83.4. Matriz asociada al producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    4. Proyecciones y matrices de proyeccion 114.1. Propiedades de la proyeccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114.2. Proyeccion y reflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

    4.2.1. Proyeccion y transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 124.2.2. Reflexion y transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

    4.3. Matriz de Householder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134.4. Rotaciones en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134.5. Proceso de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134.6. Matrices de proyeccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144.7. Inversas y pseudoinversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144.8. Cuadrados mnimos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

    4.8.1. Norma mnima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154.9. Regresion lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

    5. Transformaciones lineales 165.1. Condiciones para las Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 165.2. Nucleo e Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165.3. Clasificacion de las Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

    5.3.1. Monomorfismo(Inyectividad) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175.3.2. Epimorfismo(Sobreyectividad) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175.3.3. Isomorfismo(Biyectividad) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

    5.4. Matriz asociada a una Transformacion lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185.5. Teorema fundamental de las Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 195.6. Composicion de Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195.7. Operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

    6. Autovalores y Autovectores 206.1. Definiciones basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206.2. Autovalores complejos de matriz real . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206.3. Multiplicidad geometrica y algebraica de un Autovalor . . . . . . . . . . . . . . . . . . . . . . . 206.4. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216.5. Autovalores y Autovectores de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . 21

    Algebra II (61.08) Pagina 1 de 35

  • INDICE

    6.6. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226.6.1. Matrices trivialmente diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226.6.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236.6.3. Diagonalizacion de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 23

    7. Matrices hermticas y simetricas 237.1. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237.2. Descomposicion espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257.3. Subespacios invariantes por una transformacion lineal . . . . . . . . . . . . . . . . . . . . . . . . 25

    8. Formas cuadraticas 258.1. Clasificacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268.2. Optimizacion restringida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

    9. Descomposicion en Valores Singulares (DVS) 279.1. Definicion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279.2. Subespacios de las DVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289.3. Propiedades de las DVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299.4. DVS reducida y Pseudoinversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

    10. Ecuaciones diferenciales 3010.1. Wronskiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3010.2. Identidad de Abel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3110.3. Existencia y unicidad de Problemas de Valores Iniciales (PVI) . . . . . . . . . . . . . . . . . . . 3110.4. Variables separables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3110.5. Lineales de 1er orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3110.6. Diferencial exacta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3210.7. Lineales homogeneas de orden superior con coeficientes constantes . . . . . . . . . . . . . . . . 3210.8. Lineales no homogeneas de orden superior con coeficientes constantes . . . . . . . . . . . . . . . 33

    11. Sistemas de Ecuaciones diferenciales lineales 3311.1. Sistemas homogeneos con A diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3311.2. Sistemas no homogeneos con A diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . 3411.3. Sistemas homogeneos con A no diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

    Algebra II (61.08) Pagina 2 de 35

  • 1 Matrices

    1. Matrices

    1.1. Propiedades generales

    Dadas las matrices A,B,C se tiene que:

    A+B = B +A

    A+ (B + C) = (A+B) + C

    (A+B) = A+ B

    (+ )A = A+ A

    (A) = ()A

    A+ 0n = A

    A+ (A) = 0nA(B + C) = AB +AC

    (A+B)C = AC +BC

    A(BC) = (AB)C

    (AB) = (A)B = A(B)

    A0n = 0n

    Propiedades de matrices

    1.2. Propiedades de la inversa, la traza y la traspuesta

    Dadas las matrices A,B,C se tiene que:

    Propiedades de la inversa:(A1

    )1(AB)

    1= B1A1

    (A)1

    =A1

    , 6= 0

    (An)1

    =(A1

    )nA1 =

    adj(A)|A|

    Propiedades de la traza:

    tr(A+B) = tr(A)+tr(B)

    tr(AB) = tr(BA)

    tr(A) = tr(A)

    tr(AT ) = tr(A)

    Propiedades de la traspuesta:

    (A+B)T

    = AT +BT

    (AB)T

    = BTAT(AT)T

    = A

    (A)T

    = AT(AT)1

    =(A1

    )T

    Propiedades de matrices

    Algebra II (61.08) Pagina 3 de 35

  • 1.3 Propiedades de los determinantes

    1.3. Propiedades de los determinantes

    Sean A,B Rnm AT = |A| (1.1)|AB| = |A| |B| (1.2)

    Si B la obtengo de sumar k veces una fila de A sobre otra:

    |B| = |A| (1.3)

    Si B la obtengo de intercambiar k veces las fila de A:

    |B| = (1)k |A| (1.4)

    Si B la obtengo de multiplicar por k, n veces las filas de A:

    |B| = kn |A| (1.5)

    Si A es una matriz triangular:

    |A| =ni=1

    aii (1.6)

    Propiedades de determinantes

    1.4. Subespacios fila, columna y null

    Sean A Rnm , B Rrn, se define:Espacio Fila: Fif(A) = {x Rm|x es combinacion lineal de las filas de A}Espacio Columna: Col(A) = {b Rn|Ax = b para alguna x}Espacio nulo: Nul(A) = {x Rm|Ax = 0}

    Espacio fila,columna y nulo de matrices

    Algebra II (61.08) Pagina 4 de 35

  • 1.4 Subespacios fila, columna y null

    Propiedades:

    Nul(A) = Nul(ATA) = Fil(A) (1.7)

    Nul(AT ) = Nul(AAT ) = Col(A) (1.8)

    rango (A) = rango(ATA

    ) ATA (1.9)Dim(Col(A)) = Dim(Fil(A)) (1.10)

    Col(A)

    Col(A) = Rn (1.11)

    Fil(A)

    Fil(A) = Rm (1.12)

    rango (A) + dim Nul(A) = m (1.13)Col(BA) Col(B), Iguales si rango (A) = n (1.14)Nul(A) Nul(BA), Iguales si rango (B) = n (1.15)Si rango (A) = n rango (BA) = rango (B) (1.16)Si rango (B) = n rango (BA) = rango (A) (1.17)

    Col(A)Col(B) ATB = 0 (1.18)

    De (1.15) se ve que ATA invertible A invertible

    Propiedades de los espacios definidos

    Dos matrices A y B son equivalentes si existen otras dos matrices E y F regulares tal que:

    A = EBF (1.19)

    Dos matrices equivalentes pueden pensarse como dos descripciones de una misma Transformacion Lineal,pero con respecto a bases distintas.

    Matrices equivalentes

    Dos matrices cuadradas A y B son semejantes (notamos A B) si y solo si existe una matriz P inversibletal que:

    B = P1AP ,o (1.20)

    A = PBP1 (1.21)

    Matrices semejantes

    Dos matrices semejantes pueden pensarse como dos descripciones de un mismo operador lineal, pero conrespecto a bases distintas. Estas dos matrices cumplen que:

    |A| = |B| (1.22)tr(A) = tr(B) (1.23)

    rango (A) = rango (B) (1.24)pA() = pB() (A) = (B) (1.25)

    Propiedades de matrices semejantes

    Algebra II (61.08) Pagina 5 de 35

  • 2 Espacios vectoriales

    2. Espacios vectoriales

    2.1. Propiedades de los subespacios

    S es un subespacio vectorial del espacio VK si y solo si:

    0V S (2.1)(X + Y ) S, X,Y V y K (2.2)

    Propiedades de los subespacios

    2.2. Independencia lineal

    El vector x es una combinacion lineal de v1, v2, . . . , vn si:

    x =ni=1

    ivi (2.3)

    Y si a1, . . . , an no son todos nulos.

    Combinacion lineal

    x es linealmente independiente si:

    ni=1

    ivi = 0 , y (2.4)

    ai = 0i (2.5)

    Dos vectores son linealmente dependientes si son proporcionales. Un subconjunto de un conjunto lineal-mente dependiente sigue siendo linealmente dependiente

    Independencia lineal

    2.3. Operaciones con subespacios

    Interseccion: S =ni=1

    Si = {x V |x Si , i = 1, . . . , n}

    Suma: S =ni=1

    Si = gen

    {mi=1

    Bi

    }, donde Bi es una base de Si

    Union: S = S1 S2 es un subespacio cuando S1 S2 o S2 S1Suma directa: S1, . . . , Sk estan en suma directa la union de sus bases es base de V

    Dos subespacios son suplementarios cuando estan en suma directa y su suma es todo el espacio.

    Operaciones con subespacios

    Algebra II (61.08) Pagina 6 de 35

  • 2.4 Bases

    2.4. Bases

    Si Dim(V ) = n, {v1, . . . , vn} es base de V si y solo si:

    {v1, . . . , vn} genera V (2.6){v1, . . . , vn} son linealmente independientes (2.7)

    Bases

    2.5. Coordenadas de un vector en una base

    Si {v1, . . . , vn} es base de un espacio vectorial B y x =ni=1

    ivi, entonces CB(x) = (1, . . . , n)

    Dado un vector y una base, las coordenadas de ese vector en esa base son unicas.

    v,w V y k K:

    CB(v + w) = CB(v) + CB(w) (2.8)CB(k v) = k CB(v) (2.9)

    Finalmente {v1, . . . , vn} son linealmente independientes {CB(v1), . . . , CB(vn)} lo son para cualquierbase de B.

    Coordenadas de un vector en una base

    2.6. Matriz de cambio de base

    Sean B = {v1, . . . , vn} y C = {w1, . . . ,wn} bases del espacio V . Las matrices de cambio de base son:

    CBC =

    | | |CC(v1) CC(v2) . . . CC(vn)| | |

    (2.10)CCB =

    | | |CB(w1) CB(w2) . . . CB(wn)| | |

    = C1BC (2.11)Si B y C son bases ortonormales, entonces CBC es una matriz ortogonal.

    Matriz de cambio de base

    2.7. Teorema de la dimension

    Dados los subespacios S,H y T :

    Dim(S +H) = Dim(S) + Dim(H) Dim(S H) (2.12)Dim(S +H + T ) = Dim(S) + Dim(H) + Dim(T ) Dim(S (H + T )) Dim(H T ) (2.13)

    Teorema de la dimension

    Algebra II (61.08) Pagina 7 de 35

  • 3 Producto interno

    3. Producto interno

    3.1. Axiomas

    Sea : VK VK R un producto interno:1. (x, y) K y x, y V2. (x, y) = (y, x) , x, y V3. (x, y) = (x, y) , x, y V y K4. (x, y) = (x, y) , x, y V y K5. (x, y + z) = (x, y) + (x, z) , x, y, z V6. (x, x) 0, (x, y) = 0 x = 0

    Axiomas del producto interno

    3.2. Producto interno canonico

    Se definen los siguientes productos internos para los siguientes espacios vectoriales:

    Vectores reales: Rn : (x, y) = xT y

    Vectores complejos: Cn : (x, y) = xHy

    Matrices reales: Rnm : (A,B) = tr(ATB)

    Matrices complejas: Cnm : (A,B) = tr(AHB)

    Funciones reales: PR[a, b] : (p, q) = ba

    p(t)q(t)dt

    Funciones complejas: PC [a, b] : (p, q) = ba

    p(t)q(t)dt

    Producto interno canonico

    3.3. Definiciones

    Dados x, y:

    (x, y) = 0 xy (3.1)

    Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.

    Ortogonalidad

    Algebra II (61.08) Pagina 8 de 35

  • 3.3 Definiciones

    Se define la norma de un vector como:

    |x|2 = (x, x) (3.2)

    La norma de un vector depende del producto interno, pero cumple las siguientes propiedades:

    |x| Rx V|x| 0 (|x| = 0 x = 0)|k x| = |k| |x|Desigualdad de Cauchy-Schwarz:

    |(x, y)| |x| |y| , x, y VK (3.3)

    La igualdad se cumple si x yDesigualdad triangular:

    |x + y| |x|+ |y| (3.4)

    Teorema de pitagoras: Si xy entonces:

    |x + y|2 = |x|2 + |y|2 (3.5)

    La recproca solo vale para R

    Identidad del paralelogramo:

    |x + y|2 + |x y|2 = 2(|x|2 + |y|2

    ),x, y V (3.6)

    Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.

    norma de un vector

    Dado x, y:

    cos() =(x, y)|x| |y| (3.7)

    Con [0, pi],x, y 6= 0 para espacios vectoriales reales con producto interno.

    Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.

    Angulo entre dos vectores

    Sea A VK A = {x VK |(x, y) = 0,y A}

    Para el calculo del complemento ortogonal a un subespacio de dimension finita, alcanza con exigir laortogonalidad a un sistema de generadores

    Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.

    Complemento ortogonal

    Algebra II (61.08) Pagina 9 de 35

  • 3.4 Matriz asociada al producto interno

    Dados x,y, se define la funcion distancia como:

    d : VR VR R+ : d(x, y) = |x y| = |y x| (3.8)

    Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.

    Distancia entre vectores

    3.4. Matriz asociada al producto interno

    Sea B = {v1, . . . , vk} base de VK . Entonces G Kkk, gij = (vi, vj) es la matriz de producto interno:

    G =

    |v1|2

    . . . (v1, vk)...

    . . ....

    (vk, v1) . . . |vk|2

    (3.9)Si B es base de VK y G es la matriz del producto interno en esa base, entonces x, y V :

    (x, y) = CHB (x) G CB(y) (3.10)

    Matriz de producto interno

    Dada la matriz G de producto interno se tiene que:

    gii 0,i = 1, . . . , k (3.11)GH = H (3.12)

    G es definida positiva (3.13)

    G1 (3.14)G de una Base Ortogonal (BOG) es una matriz diagonal (3.15)G de una Base Ortonornal (BON) es una matriz identidad (3.16)

    Propiedades de la matriz de producto interno

    Algebra II (61.08) Pagina 10 de 35

  • 4 Proyecciones y matrices de proyeccion

    4. Proyecciones y matrices de proyeccion

    4.1. Propiedades de la proyeccion

    Sea S V yS su complemento ortogonal, entonces x V :

    x = uS

    + vS

    = PS(x) + PS (x) (4.1)

    Se definen las siguientes propiedades:

    PS(x) es el vector de S mas proximo a x

    PS(v) = v v S y ademas PS(w) = 0 w S

    Por pitagoras: |x|2 = |PS(x)|2 +PS (x)2 ,x V

    |PS(x)| |x|. Si |PS(x)| = |x| entonces x Sd(x, S) =

    PS (x)d(x, S) = |PS(x)|

    Propiedades de la proyeccion

    4.2. Proyeccion y reflexion

    Sea S un subespacio de V , y B = {v1, . . . , vk} una base ortogonal (BOG) de S. Entonces x V :

    PS(x) =ki=1

    (vi, x)(vi, vi)

    vi (4.2)

    RS(x) = 2PS(x) x = 2PS(x)(PS(x) + PS (x)

    )= PS(x) PS (x) = x 2PS (x) (4.3)

    Proyeccion y reflexion

    Algebra II (61.08) Pagina 11 de 35

  • 4.2 Proyeccion y reflexion

    4.2.1. Proyeccion y transformaciones lineales

    Sea T : VK VK una transformacion lineal tal que:

    Im(PS) = S (4.4)

    Nul(PS) = S (4.5)

    Y sea B = {v1, . . . , vq S

    , vq+1, . . . , vn S

    } una base de V, entonces la matriz de la transformacion lineal es:

    [PS ]B =

    1 . . . 0. . .

    ...1

    0...

    . . .0 . . . 0

    (4.6)

    Tantos 1 como la dimension del espacio sobre el cual proyecto, y tantos 0 como la dimension del comple-mento ortogonal.

    Nota: La matriz de un operador proyeccion en una Base Ortonormal (BON) es una matriz de proyeccion. Encualquiera otra base, no lo es.

    Proyecciones y Transformaciones lineales

    4.2.2. Reflexion y transformaciones lineales

    Sea T : VK VK una transformacion lineal tal que:

    T (v) = v,v S (4.7)T (v) = v,v S (4.8)

    Y sea B = {v1, . . . , vq S

    , vq+1, . . . , vn S

    } una base de V, entonces la matriz

    de la transformacion lineal es:

    [T ]B =

    1 . . . 0. . .

    ...11

    .... . .

    0 . . . 1

    (4.9)

    Tantos 1 como la dimension del espacio sobre el cual proyecto, y tantos-1 como la dimension del complemento ortogonal.

    Nota: La matriz de un operador proyeccion en una Base Ortonormal(BON) es una matriz de proyeccion. En cualquiera otra base, no lo es.

    Proyecciones y Transformaciones lineales

    Figura 4.1: Proyeccion y reflexion

    Algebra II (61.08) Pagina 12 de 35

  • 4.3 Matriz de Householder

    4.3. Matriz de Householder

    La matriz de reflexion sobre un subespacio de dimension n 1 que es ortogonal a un vector w en un espaciode dimension n se puede obtener mediante la expresion:

    H = Id 2w wT

    wT w (4.10)

    Dicha matriz tiene las siguientes propiedades:

    Es involutiva: H H = IdEs simetrica: HT = H

    Es inversible: H1 y H1 = HEs ortogonal: HTH = HHT = Id

    Propiedades de la proyeccion

    4.4. Rotaciones en R3

    Sea B = {v1, v2, v3} una Base Ortonormal (BON) de R3 y sea T la rotacion grados alrededor del eje vi:

    Rotacion sobre v1 : [T ]B =

    1 0 00 cos() sin()0 sin() cos()

    (4.11)Rotacion sobre v2 : [T ]B =

    cos() 0 sin()0 1 0sin() 0 cos()

    (4.12)Rotacion sobre v3 : [T ]B =

    cos() sin() 0sin() cos() 00 0 1

    (4.13)(4.14)

    Rotaciones en R3

    4.5. Proceso de Gram-Schmidt

    Dada una base {x1, x2, . . . , xp} para un subespacio W Rn defina:1. v1 = x1

    2. v2 = x2 x2 v1v1 v1 v1

    3. vp = xp p1i=1

    xp vivi vi vi

    Entonces {v1, v2, . . . , vp} es una Base Ortogonal (BOG) de W .

    Si luego se divde a cada componente por la norma de la base se obtiene una Base Ortogonal (BON) de W .

    Proceso de Gram-Schmidt

    Algebra II (61.08) Pagina 13 de 35

  • 4.6 Matrices de proyeccion

    4.6. Matrices de proyeccion

    Utilizando el producto interno canonico de sobre Kn, con K = R o K = C.

    P Knn es una matriz de proyeccion si y solo si:

    P 2 = P (4.15)

    PH = P (4.16)

    Dicha matriz tiene las siguientes propiedades:

    Col(P ) = Nul(P )

    P y = y y Col(P )Si PS es matriz de proyeccion sobre S y PS es matriz de proyeccion sobre S

    entonces PS+PS = Id

    Las columnas de P son una base del espacio sobre el cual proyectan

    rango (P ) = tr(P )

    detP 6= 0 si P 6= IdSi P1 y P2 son matrices de proyeccion y P1 P2 = P2 P1 = 0, entonces P1 + P2 es matriz deproyeccion y rango (P1 + P2) = rango (P1) + rango (P2)

    Obtencion de la matriz de proyeccion:

    1. SeaQ una matriz cuyas columnas son una Base Ortonormal (BON) de S V . Entonces la unica matrizde proyeccion sobre S es [PS ] = Q QT . La matriz de proyeccion sobre S es [PS ] = Id [PS ]

    2. Sea B = {v1, . . . , vq} una base de S, y A la matriz que tiene por columnas a v1, . . . , vq . Entonces launica matriz de proyeccion sobre S se obtiene mediante [PS ] = A

    (AHA

    )1AH = AA#

    Matriz de proyeccion

    4.7. Inversas y pseudoinversas

    Sea A Knq|rango (A) = q. La matriz pseudoinversa de A es A# = (AHA)1AH :Si A es cuadrada invertible, A1 = A#

    A# Rqn

    A#A = Id(q)

    AA# = [P ]Col(A)

    Nul(AA#) = [Col(A)]

    Propiedades de la pseudoinversa

    Algebra II (61.08) Pagina 14 de 35

  • 4.8 Cuadrados mnimos

    4.8. Cuadrados mnimos

    Sea A Knq, x Kq,b Rn. Si Ax = b tiene una solucion extra, entonces b Col(A). Sib / Col(A), intentamos hallar una solucion x Kq (la solucion por cuadrados mnimos) tal que:Ax b < Au b, u Kq

    d(Ax,b) d(Au,b), u KqAx b (Son iguales si b Col(A))Ecuaciones normales de cuadrados mnimos: ATAx = ATb =b

    Ax = b = PCol(A)(b) si y solo si:

    Ax Col(A) (4.17)bAx Col(A) (4.18)

    Figura 4.2: Cuadrados mnimos

    Cuadrados mnimos

    1. Si x = 0 entonces b [Col(A)]. La recproca solo es cierta si A es invertible.2. Si las columnas de A son linealmente independientes, la solucion por cuadrados mnimos es unica y

    se obtiene mediante:

    x = (ATA)1ATb = A#b (4.19)

    Si las columnas deA son linealmente dependientes, el sistemaATAx = AT b tiene infinitas soluciones,y estas son de la forma x = xp + xn

    Nul(A)

    3. Si b Col(A), entonces toda solucion de Ax = b es una solucion exacta y por cuadrados mnimos

    4. El error de aproximacion es igual ab b

    Propiedades de Cuadrados mnimos

    4.8.1. Norma mnima

    La solucion por cuadrados mnimos de norma mnima pertenece al espacio Fil(A)y se obtiene como:

    x = A+b (4.20)

    Siendo A+ la pseudoinversa de Moore-Penrose de A.

    Pseudoinversa de Moore-Pensore

    Algebra II (61.08) Pagina 15 de 35

  • 4.9 Regresion lineal

    4.9. Regresion lineal

    Sean los puntos Pi = (xi, yi) con i = 1, 2, . . . , n. La recta que mejor aproxima a los puntos es:

    y = 01 + 1x (4.21)

    Y los coeficientes i se obtienen resolviendo el sistema:1 x11 x2...

    ...1 xn

    [01

    ]=

    y1y2...yn

    (4.22)Si se aproxima por una parabola se agrega otro nivel de complejidad, con y = 2x2 + 1x + 0, lo queimplica una columna adicional a la matriz para los terminos cuadraticos, una fila adicional para la constante2 en la variable.

    Se siguen agregando columnas a la matriz y filas al vector tantas veces como grados de complejidad senecesiten.

    Regresion lineal

    5. Transformaciones linealesSea T `(VK ,WK) y A = [T ]BC con B base de V y C base de W la matriz de T .

    5.1. Condiciones para las Transformaciones lineales

    Para que una transformacion se considere lineal debe cumplir:

    1. T (u + v) = T (u) + T (v), con u, v V2. T (u + v) = T (u) + T (v), con u, v VK y , K3. T (0VK ) = 0VK

    Condiciones para ser Transformacion lineal

    5.2. Nucleo e Imagen

    Nucleo: Nul(T ) = {v VK | T (v) = 0W } = C1B (Nul(A)).Imagen: Im(T ) = {w WK | T (v) = w con v VK} = C1C (Col(A)).

    Ambos son subespacios vectoriales.

    La imagen de una Transformacion Lineal puede obtenerse como lo que generan los transformados de unabase del espacio de partida.

    Nucleo e Imagen

    Algebra II (61.08) Pagina 16 de 35

  • 5.3 Clasificacion de las Transformaciones lineales

    Sea T `(V,W ) y sea Dim(V ) = n (finita). Entonces:

    Dim(V ) = Dim(Nul(T )) + Dim(Im(T )) (5.1)

    Teorema de la dimension

    5.3. Clasificacion de las Transformaciones lineales5.3.1. Monomorfismo(Inyectividad)

    Una Transformacion lineal es inyectiva si verifica:

    v1 6= v2 T (v1) 6= T (v2) , v1, v2 V (5.2)Nul(T ) = {0V } Dim(Im(T )) = Dim(V ) (5.3)

    Una Transformacion Lineal Inyectiva transforma conjuntos Linealmente Independientes a conjuntosLinealmente Independientes.

    La recproca tambien es cierta: si A es un conjunto Linealmente Independiente y es transformado en otroconjunto Linealmente Independiente, la Transformacion Lineal es inyectiva. Es decir: Si T es inyectiva y Aes Linealmente Independiente, T (A) es Linealmente Independiente.

    Las matrices asociadas a Transformaciones Lineales inyectivas tienen sus columnas Linealmente Indepen-dientes.

    Si Dim(V ) > Dim(W ), T no puede ser inyectiva.

    Monomorfismo

    5.3.2. Epimorfismo(Sobreyectividad)

    Una Transformacion lineal es sobreyectiva si y solo si:

    Im(T ) = W (5.4)

    Las matrices asociadas a Transformaciones lineales sobreyectivas tienen sus filas Linealmente Independien-tes.

    Si Dim(W ) > Dim(V ), T no puede ser sobreyectiva.

    Epimorfismo

    Algebra II (61.08) Pagina 17 de 35

  • 5.4 Matriz asociada a una Transformacion lineal

    5.3.3. Isomorfismo(Biyectividad)

    Una Transformacion lineal es biyectiva si y solo si:

    Dim(W ) = Dim(V ) (5.5)Nul(T ) = {0V } (5.6)

    Es decir, si es Inyectiva y Sobreyectiva a la vez.

    T es biyectiva si {v1, . . . , vn} es base de V {T (v1), . . . , T (vn)} es base de WLa matriz asociada a una Transformacion lineal biyectiva tiene sus filas y columnas Linealmente Inde-pendientes, o sea que es una matriz inversible, es decir, existe una transformacion lineal inversa T1 = [T ]1

    Si Dim(V ) = Dim(W ), entonces o bien T es inyectiva y sobreyectiva, o no es ninguna de las dos.

    Biyectividad

    5.4. Matriz asociada a una Transformacion lineal

    Sea T `(VK ,WK), sea B = {v1, . . . , vq} base de V y C = {w1, . . . ,wm} base de W . Entonces T sepuede escribir como T (x) = Ax, con A Kmq tal que:

    A = [T ]BC =

    | | |CC(T (v1)) CC(T (v2)) . . . CC(T (vq))| | |

    (5.7)Dicha matriz posee las siguientes propiedades:

    [T ]BC CB(v) = CC(T (v)) ,v Vv Nul(T ) CB(v) Nul(A)w Im(T ) CC(w) Col(A)Dim(Im(T )) = rango (A)

    Matriz de la Transformacion lineal

    Sean V y W K-espacios vectoriales (K = R o C). Sea T : V W .

    Si B1 y B2 son bases ordenadas de V , y C1 y C2 son bases ordenadas de W , entonces:

    rango ([T ]B1C1) = rango ([T ]B2C2) (5.8)

    Teorema para matrices de Transformacion lineal

    Algebra II (61.08) Pagina 18 de 35

  • 5.5 Teorema fundamental de las Transformaciones lineales

    5.5. Teorema fundamental de las Transformaciones lineales

    Sea B = {v1, . . . , vn} base de V y w1, . . . ,wn vectores deW . Entonces existe y es unica la Transformacionlineal que verifica:

    T (vi) = wi , i = 1, . . . , n (5.9)

    Ademas, dada una Transformacion lineal y un par de bases, existe una unica matriz asociada.

    La recproca tamben es verdadera: dada una matriz y un par de bases, existe una unica Transformacion linealasociada.

    Teorema fundamental de las Transformaciones lineales

    5.6. Composicion de Transformaciones lineales

    Sea f `(V,W ) y g `(W,H) g f (V,H). Podemos encontrarla siguientes propiedades:

    Nul(f) Nul(g f) (5.10)Im(g f) Im(g) (5.11)

    Composicion de Transformaciones lineales

    Figura 5.1: Composicion

    5.7. Operadores lineales

    Un operador lineal es una Transformacion lineal que va de un espacio en si mismo, se escrbe como T `(V )y cuenta con las siguientes propiedades:

    Si T1 `(V ) y T2 `(V ), entonces T1 T2 `(V )Si T `(V ), Tn = T T . . . T

    n veces

    Operadores lineales

    Algebra II (61.08) Pagina 19 de 35

  • 6 Autovalores y Autovectores

    6. Autovalores y Autovectores

    6.1. Definiciones basicas

    Autovector: Un vector v 6= 0 es autovector de A Knn K | Av = v

    Autoespacio: El autoespacio de A asociado a un autovalor es S(A) = Nul(A I)

    Polinomio caracterstico: El polinomio caracterstico de una matriz A Knn es pA() = |A I|, ytiene grado n. Si K = R el polinomio tiene a lo sumo n races. Si K = C tiene exactamente n races.

    Autovalor: Los autovalores de una matriz son las races de su polinomio caracterstico.

    Espectro de una matriz: (A) = { K | es autovalor de A}.

    Definiciones basicas

    6.2. Autovalores complejos de matriz real

    Supongamos que v es un autovector de A Rnn asociado a = a+ b con a, b R, b 6= 0.Entonces v es tambien un autovector de A Rnn asociado a = a b.

    En particular si {v1, . . . , vn} es una base de S, entonces {v1, . . . , vn} es una base de S

    Autovalores complejos

    6.3. Multiplicidad geometrica y algebraica de un Autovalor

    Se define:

    mg() = Dim(S(A))

    ma().= numero de veces que aparece como raz del polinomio caracterstico.

    Siempre se verifica que:

    1 mg() ma() (6.1)

    Multiplicidad de Autovalores

    Algebra II (61.08) Pagina 20 de 35

  • 6.4 Propiedades

    6.4. Propiedades

    Sea A Knn:A es singular 0 es un autovalor de A mg(0) = n k rango (A) = k < nDos autovectores asociados a autovalores distintos son Linealmente Independientes

    Si A K2x2, entonces pA() = 2 tr(A)+ |A|Si todas las filas o columnas de A sumas s, entonces s es autovalor de A.

    Sea p(t) un polinomio de grado k. Si es autovalor de A, entonces se cumple que p() es autovalorde p(A), y para cada autovalor de p(A) existe un autovalor de A tal que p() = .

    Si es autovalor de A:

    es autovalor de AT 1 es autovalor de A1 y S1

    (A1

    )= S(A)

    r es autovalor de r A k es autovalor de Ak, con k N + r es autovalor de A+ r I

    Propiedades de Autovalores y Autovectores

    6.5. Autovalores y Autovectores de operadores lineales

    T : VK VK . Un vector v 6= 0 es autovector de T T (v) = v, con autovalor de T .S(T ) = {x V | T (x) = x y autovalor de T} = Nul(T I). Si B es base de V y A es la matriz deT en esa base, entonces:

    (A) = (T )B base de V (6.2)x es autovector de T CB(x) es autovector de [T ]B = A (6.3)

    Se deducen las siguientes propiedades:

    T (x) = x Tn(x) = nx, n NSi es autovalor de T , 1 es autovalor de T1

    Si h es un polinomio en K y T (x) = Ax, entonces:

    [h(A)] = h[(A)] (6.4)Sh()h(A) = S(A) (6.5)

    T : VK VK es regular 0 / (T )

    Autovalores y Autovectores de Operadores lineales

    Algebra II (61.08) Pagina 21 de 35

  • 6.6 Diagonalizacion

    6.6. Diagonalizacion

    Los siguientes enunciados son equivalentes para definir si A Knn es diagonalizable:A D una base de Kn compuesta por autovectores de AA tiene n autovalores Linealmente Independientes

    mg() = ma() (A)P invertible y D diagonal tal que:

    A = PDP1 (6.6)

    Siendo P la matriz de autovectores y D la matriz diagonal de autovalores.

    Diagonalizacion

    6.6.1. Matrices trivialmente diagonalizables

    Matriz nula:

    Autovalores: 0 Autovectores: Cualquier vector no nulo

    Matriz identidad:

    Autovalores: 1 Autovectores: Cualquier vector no nulo

    Matriz diagonal:

    Autovalores: aii, los elementos de la diagonal Autovectores: Los que tienen sus componentes nulas, excepto la n-esima.

    Matriz escalar:

    Autovalores: k R Autovectores: Cualquier vector no nulo

    Matriz de proyeccion:

    Autovalores: 1 con ma(1) = mg(1) = Dim(S) y 0 con ma(0) = mg(0) = Dim(S) Autovectores: Los vectores de S asociados a 1 y los asociados a S a 0

    Matriz de reflexion:

    Autovalores: 1 con ma(1) = mg(1) = Dim(S) y -1 con ma(0) = mg(0) = Dim(S) Autovectores: Los vectores de S asociados a 1 y los asociados a S a -1

    Diagonalizaciones triviales

    Algebra II (61.08) Pagina 22 de 35

  • 7 Matrices hermticas y simetricas

    6.6.2. Propiedades

    Si A es diagonalizable entonces An es diagonalizable (DnA = DAn y (An) = n(A)). La recproca

    es falsa

    Si A Cnn tiene n autovalores distintos entonces A es diagonalizable. La recproca es falsa

    |A| =ni=1

    i = pA(0)

    tr(A) =ni=1

    i

    Propiedades de la diagonalizacion

    6.6.3. Diagonalizacion de transformaciones lineales

    Los siguientes enunciados son equivalentes para decir que T `(VK) con Dim(VK) = n, es diagonalizable:B base de VK tal que [T ]B es diagonalB base de VK formada por autovectores de TT tiene n autovectores Linealmente Independientes

    Esa base B y [T ]B = diag((T )).

    Si A = [T ]H , H cualquiera base, entonces T es diagonalizable si y solo si A es diagonalizable.

    Diagonalizacion de Transformaciones Lineales

    7. Matrices hermticas y simetricas

    7.1. Diagonalizacion

    Matriz antisimetrica: Si A Rnn es antisimetrica (AT = A) entonces:Los autovalores de A son imaginarios puros o nulos

    Los autovectores asociados a autovalores distintos son ortogonales

    A es diagonalizable unitariamente.

    Matriz antisimetrica

    Algebra II (61.08) Pagina 23 de 35

  • 7.1 Diagonalizacion

    Matriz simetrica(hermtica): Si A Rnn es simetrica (B Cnn es hermtica) si y solo si:A es diagonalizable ortogonalmente:

    A = PDPT (7.1)

    B es diagonalizable unitariamente:

    B = PDPH (7.2)

    Con D real.

    Se deducen las siguientes propiedades:

    A y B tienen n autovalores reales

    Los elementos de la diagonal de A y B son reales

    |A| RDim(S(A)) = ma() (A)Dim(S(B)) = ma() (B)Los autovectores asociados a autovalores distintos son ortogonales

    Matriz simetrica(hermtica)

    Matriz ortogonal(unitaria): Si A Rnn es ortogonal (B Cnn es unitaria) si y solo si:

    AAT = ATA = Id (7.3)

    AT = A1 (7.4)o BB

    H = BHB = Id (7.5)

    BH = B1 (7.6)

    Las columnas de A y B son Base Ortonormal de Rn y Cn respectivamente.

    Se deducen las siguientes propiedades:

    |A| = 1. Si |A| = 1, A es la matriz de rotacionLos autovalores tienen modulo 1 y pueden ser reales o complejos

    Son matrices unitariamente diagonalizables

    Los autovectores asociados a autovalores distintos son ortogonales

    Preservan los productos internos: (Ax, Ay) = (x, y)

    Preservan las normas asociadas al producto interno: |Ax| = |x|Si C es unitaria, BC y CB son unitarias tambien.

    Matriz ortogonal(unitaria)

    Algebra II (61.08) Pagina 24 de 35

  • 7.2 Descomposicion espectral

    7.2. Descomposicion espectral

    Si A = PDP1 = PDPT , las columnas de P son autovectores ortonormales u1, . . . ,un de A y losautovalores correspondientes 1, . . . , n estan en la matriz diagonal D. Entonces:

    A =

    ni=1

    iuiuTi (7.7)

    Descomposicion espectral de matrices simetricas

    7.3. Subespacios invariantes por una transformacion lineal

    S Kn es invariante por A Knn x S | Ax SS V es invariante por T `(V ) x S | T (x) S

    Se deducen las siguientes propiedades:

    Si es autovalor de T , entonces S(T ) es un subespacio invariante por T , puesto que:

    x S(T ) T (x) = x S(T ) (7.8)

    No todo subespacio invariante es un autoespacio de T , pero s los de dimension 1

    Subespacios invariantes por una transformacion lineal

    8. Formas cuadraticas

    Una forma cuadratica en Rn es una funcion Q : Rn R tal que:

    Q(x) = xTAx (8.1)

    Donde A es una matriz simetrica Rnn.

    Formas cuadraticas

    Sea A una matriz simetrica Rnn. Entonces existe un cambio ortogonal de variable, x = Py, donde P esuna matriz ortogonal tal que |P | = +1 e y es el nuevo vector, que transforma la forma cuadratica xTAx auna forma cuadratica yTDy sin terminos cruzados:

    xTAx = (Py)T A (Py) = yT PTAP D

    y = yTDy = g(y) (8.2)

    Teorema de los ejes principales

    Algebra II (61.08) Pagina 25 de 35

  • 8.1 Clasificacion

    Sea la forma cuadratica Q(x) = xTAx, con A = PDPT .

    El conjunto de todas las x Rn | xTAx = c es una elipse, una hiperbola, dos rectas, un punto o ninguno.

    Si A es diagonal, la grafica esta en posicion estandar. Si A no es diagonal, la grafica esta girada hasta salirsede la posicion estandar. Los ejes principales son los autovectores deA y son el nuevo sistema de coordenadaspara los cuales la grafica esta en posicion estandar.

    Perspectiva geometrica de los ejes principales

    8.1. Clasificacion

    Una forma cuadratica Q(x) = xTAx es:

    Definicion Criterio I Criterio II

    Definida positiva Q(x) > 0,x 6= 0a11 > 0,|A| > 0 Autovalores de A positivos

    Semidefinida positiva Q(x) 0,x|Ak| 0,

    k = 1, . . . , nAutovalores de A positivos o nulos

    Definida negativa Q(x) < 0,x 6= 0a11 < 0,|A| > 0 Autovalores de A negativos

    Semidefinida negativa Q(x) 0,x|Ak| 0,

    k = 1, . . . , nAutovalores de A negativos o nulos

    Indefinida Q(x) 0 Autovalores de A negativos y/o positivos

    Clasificacion de las formas cuadraticas

    Algebra II (61.08) Pagina 26 de 35

  • 8.2 Optimizacion restringida

    8.2. Optimizacion restringida

    Sea la forma cuadratica Q(x) = xTAx, con A simetrica. Se verifica:

    min(A) Q(x) x 2 max(A) (8.3)

    Sea extremar una forma cuadratica f : Rn R, f(x) = xTAx, (A simetrica), sujeto a la restriccion |x| = .

    El maximo de f es max(A)2 y se alcanza en M = {x Smax(A) | |x| = }

    El mnimo de f es min(A)2 y se alcanza en m = {x Smin(A) | |x| = }

    Sea extremar una forma cuadratica f : Rn R, f(x) = xTAx,(A simetrica), sujeto a la restriccionxTBx = 2, y sea B definida positiva tal que B = PBDBPTB . Mediante el cambio de variable y =DBP

    TB x x =

    D1B PBy, esto es equivalente a extremar g(y) = y

    T

    (D1B

    T

    PTBAPB

    D1B

    )y

    sujeto a la restriccion |y| = . Entonces:

    Max g(y) = Max f(x) (8.4)mn g(y) = mn f(x) (8.5)

    Los x en donde se alcanza ese extremo se hallan realizando x = PBy

    Teorema de Rayleigh

    9. Descomposicion en Valores Singulares (DVS)

    9.1. Definicion

    Valores singulares: Se define como:

    V S(A) =i , i (ATA) (9.1)

    Sea A una matriz de m n con rango r. Entonces existe una matriz , y existen una matriz U ortogonal demm y una matriz V ortogonal de n n tales que A = UV T donde:

    Rmn es tal que =[D 00 0

    ], y la matriz diagonal D tiene como elementos a los primeros r

    valores singulares de ATA, ordenados en forma descendente i . . . r > 0.V Rnn es una matriz cuyas columnas son unas Base Ortonormal (BON) de autovectores{v1, . . . , vn} asociados a los autovalores de ATA.

    U Rmm es una matriz cuyas primeras r columnas son los vectores Av11

    , . . . ,Avrr

    . Las otras

    columnas se obtienen completando la Base Ortonormal (BON) de Rm. Las columnas de U son auto-vectores de AAT

    Descomposicion en Valores Singulares (DVS)

    Algebra II (61.08) Pagina 27 de 35

  • 9.2 Subespacios de las DVS

    9.2. Subespacios de las DVS

    Sea A Kmn:

    A =

    | |u1 . . . um| |

    mm

    D . . . 0... . . . 00 0 0

    mn

    | |v1 . . . vn| |

    T

    nn

    (9.2)

    Si rango (A) = r entonces:

    { u1, . . . ,ur BON de Col(A)

    ,

    BON de Col(A) ur+1, . . . ,um} (9.3)

    { v1, . . . , vr BON de Fil(A)

    ,

    BON de Fil(A) vr+1, . . . , vm} (9.4)

    Subespacios de la DVS

    Algebra II (61.08) Pagina 28 de 35

  • 9.3 Propiedades de las DVS

    9.3. Propiedades de las DVS

    rango (A) = rango () = rango(T)

    = #V S(A)>0

    A Rnn es inversible A tiene n V S positivosV S(A)>0 = V S(A

    T )>0

    Si A Rnn |A| =ni=1

    V Si(A)

    Si A es cuadrada y definida positiva (A) = V S(A)Si A B V S(A) = V S(B)Si B es ortogonal A,AB y BA tienen los mismos valores singularesSi A es cuadrada y simetrica V Si(a) = |i(A)|Si las filas de A son una Base Ortonormal (BON), los valores singulares no nulos de A son 1

    Si las columnas de A son una Base Ortonormal (BON), los valores singulares de A son 1

    La matriz ATA (Matriz de Gram de A) es siempre simetrica y semidefinida positiva, con lo cual nun-ca tendra valores singulares negativos. Sera definida positiva cuando A tenga columnas LinealmenteIndependientes.

    Sea T : Rm Rn una transformacion lineal tal que T (x) = Ax. Sea la forma cuadratica f(x) =|T (x)|2 = xT (ATA)x. Entonces: El maximo de f(x) sujeto a |x| = 1 es max

    (ATA

    ). Entonces el maximo de |T (x)| es

    V Smax(A) y se alcanza en M = {x Rm | x Smax(ATA

    ), |x| = 1}

    El mnimo de f(x) sujeto a |x| = 1 es min(ATA

    ). Entonces el mnimo de |T (x)| es V Smin(A)

    y se alcanza en m = {x Rm | x Smin(ATA

    ), |x| = 1}

    Propiedades de la DVS

    9.4. DVS reducida y Pseudoinversa

    Sea A Rnm. Si A = UV T y rango (A) = r. Entonces una Descomposicion en Valores Singularesreducida (DVSr) de A es:

    A = UrrVTr (9.5)

    Siendo Ur Rnr,r Rrr,V Tr Rrm

    DVS reducida

    Algebra II (61.08) Pagina 29 de 35

  • 10 Ecuaciones diferenciales

    Se define la pseudoinversa de Moore-Pensore como:

    A+ = Vr1r U

    Tr (9.6)

    Sea A Rnm, se deducen las siguientes propiedades:A+ = A# cuando rango (A) = m

    A+A = VrVTr = PFil(A)

    AA+ = UrUTr = PCol(A)

    Pseudoinversa de Moore-Penrose

    10. Ecuaciones diferenciales

    10.1. Wronskiano

    SeaA = {f1, . . . , fq} funciones definidas en un invervalo I R, a valores en C, con derivada hasta el ordenq 1 continua en I . La matriz de Wronski de A es,para cada x I

    MwA(x) =

    f1(x) . . . fq(x)f 1(x) . . . f

    q(x)

    f 1 (x) . . . fq (x)

    ......

    f(q1)1 (x) . . . f

    (q1)q (x)

    (10.1)

    Se define al Wronskiano como:

    wA(x) = |MwA | =

    f1(x) . . . fq(x)f 1(x) . . . f

    q(x)

    f 1 (x) . . . fq (x)

    ......

    f(q1)1 (x) . . . f

    (q1)q (x)

    (10.2)

    Se deducen las siguientes propiedades:

    Si existe un x0 I tal que wA(x0) 6= 0, entonces las funciones f1, . . . , fq son Linealmente Indepen-dientes

    Si un conjunto es Linealmente Dependiente en I , su wronskiano es la funcion nula. La recproca esfalsa; es verdadera solo si las funciones que componen el wronskiano son soluciones de una EcuacionDiferencial lineal de orden superior

    La derivada del wronskiano es el determinante obtenido derivando la ultima fila.

    La derivada del wronskiano es la suma de q determinantes.

    Matriz de Wronski

    Algebra II (61.08) Pagina 30 de 35

  • 10.2 Identidad de Abel

    10.2. Identidad de Abel

    Sea la ecuacion diferencial y(x)(n)+an1 y(x)(n1)+ . . .+a1 y(x)+a0 y(x) = 0 en un intervalo I R,sea S = {y1, . . . , yn} el conjunto de las soluciones de la ecuacion diferencial, y sea Ws el Wronskiano deeste conjunto. Entonces se verifica que:

    W s(x) = an1 Ws(x) (10.3)

    Identidad de Abel

    10.3. Existencia y unicidad de Problemas de Valores Iniciales (PVI)

    Sea el problema any(x)(n) + an1 y(x)(n1) + . . . + a1 y(x) + a0 y(x) = f(x) sujeto a la condicioninigial y(x0) = y0. La condicion de existencia y unicidad de la solucion del problema de valores iniciales es:

    Ecuacion diferencial normal en I : an 6= 0,x I (10.4)x0 I (10.5)

    Problemas de Valores Iniciales

    10.4. Variables separables

    y(x) =f(x)g(y)

    dy

    dx=f(x)g(y)

    g(y)dy = f(x)dxG(y) = F (x) + c

    Ecuacion diferencial

    Derivada con diferenciales

    Separo las variablesIntegro

    Variables separables

    10.5. Lineales de 1er orden

    Obtenemos primero la solucion general de la homogenea yH y luego una particular de la no homogenea yP .La solucion buscada sera yG = yH + yP

    La solucion de la ecuacion homogenea asociada a y = p(x)y = 0 es de variables separables, unasolucion es yH(x) = e

    p(x)dx

    La solucion no homogenea se obtiene multiplicando toda la ecuacion por el factor integrante de La-grange:

    u(v) = ep(x)dx (10.6)

    Y la ecuacion a resolver sera [u(v) y(x)] = u(v) q(x)

    Lineales de 1er orden

    Algebra II (61.08) Pagina 31 de 35

  • 10.6 Diferencial exacta

    10.6. Diferencial exacta

    Son del tipo P (x, y)dx+Q(x, y)dy = 0.

    Es diferencial exacta si existe f(x, y) tal que df = P (x, y)dx+Q(x, y)dy, es decir si:

    df

    dx= P (x, y) (10.7)

    df

    dy= Q(x, y) (10.8)

    En ese caso, la solucion general es f(x, y) = C. Se cumple que la ecuacion anterior es diferencial exacta si

    y solo sidP

    dy=dQ

    dx

    Se dice ademas que (x, y) es un factor integrante de la ecuacion P (x, y)dx+Q(x, y)dy = 0 si al multiplicarla ecuacion por (x, y) la ecuacion resulta diferencial exacta.

    Diferencial exacta

    10.7. Lineales homogeneas de orden superior con coeficientes constantes

    Son del tiponi=0

    ai y(i)(t) = 0, t I .

    Polinomio caracterstico: p() =ni=0

    aini

    Espectro de la ecuacion diferencial: (p) = { C | p() = 0}

    yH(t) = tket es una solucion de la Ecuacion diferencial si (p), con multiplicidad m,

    k = 0, 1, . . . ,m 1

    Si la ecuacion diferencial es de coeficientes reales, las races del polinomio caracterstico apareceran conju-gadas. Es decir: 1,2 = .Luego:

    y1(t) = et (cos(t) + sin(t))

    y2(t) = et (cos(t) sin(t))

    Entonces, gen{y1, y2} = gen{et cos(t), et sin(t)}

    Lineales homogeneas de orden superior con coeficientes constantes

    Algebra II (61.08) Pagina 32 de 35

  • 10.8 Lineales no homogeneas de orden superior con coeficientes constantes

    10.8. Lineales no homogeneas de orden superior con coeficientes constantes

    Son del tiponi=0

    ai y(i)(t) = f(x).

    La solucion es de la forma yG(x) = yH(x) + yP (x), donde yH(x) se obtiene del caso anterior, e yP (x) seobtiene mediante algunos de estos metodos:

    Metodo de variacion de parametros: Aplicable en cualquier caso.

    yP (t) =

    ni=1

    ui(x) yi(x), siendo yi(x) las soluciones de yH(x), y ui(x) las funciones que satisfacen:

    y1 y2 . . . yny1 y

    2 . . . y

    n

    ......

    . . ....

    y(n)1 y

    (n)2 . . . y

    (n)n

    u1u2...un

    =

    00...

    f(x)

    an

    (10.9)

    Metodo de coeficientes indeterminados: Aplicable cuando f(x) es exponencial, polinomica otrigonometrica.

    Siendo a2y(t) + a1y(t) + a0y(t) = f(x), con f(x) =ki=1

    pi(x) emix, yP (t) =ki=1

    qi(x) emix

    Si emkx no es solucion de la Ecuacion diferencial ordinaria homogenea asociada (i.e. mk no essolucion de a22 + a1+ a0 =), qk es un polinomio de grado pk con coeficientes a determinar

    Si emkx si es solucion de la Ecuacion diferencial ordinaria homogenea asociada (i.e. mk no essolucion de a22 + a1+ a0 =), qk es un polinomio de un grado mayor que pk con coeficientesa determinar

    Una vez armada la yP (t) se reemplaza en la ecuacion diferencial original, e igualando los termi-nos semejantes se hallan los coeficientes indeterminados.

    Lineales no homogeneas de orden superior con coeficientes constantes

    11. Sistemas de Ecuaciones diferenciales lineales{x(t) = a11x+ a12y + b1y(t) = a21x+ a22y + b2

    [x

    y

    ]=

    [a11 a12a21 a22

    ] [xy

    ]+

    [b1b2

    ] X = AX +B

    11.1. Sistemas homogeneos con A diagonalizable

    La solucion de X = AX +B, (A Knn, con i autovalor de A y vi autovector de A asociado a i,es:

    X =

    ni=1

    civieit =

    | |v1e1t . . . vnent| |

    (t)Knn

    c1...cn

    C

    (11.1)

    Sistemas homogeneos con A diagonalizable

    Algebra II (61.08) Pagina 33 de 35

  • 11.2 Sistemas no homogeneos con A diagonalizable

    11.2. Sistemas no homogeneos con A diagonalizable

    Sea el sistema X = AX +B. La solucion es XG = XH +XP con:

    XH =

    ni=1

    civieit = (t)C

    XP = (t) u(t), siendo u(t) tal que (t) u(t) = B

    Sistemas no homogeneos con A no diagonalizable

    11.3. Sistemas homogeneos con A no diagonalizable

    Sea el sistemaX = AX . ConA no diagonalizable, proponemos una factorizacion de la formaA = PJP1,donde J Cnn es la matriz de Jordan de A que tiene la siguiente estructura en bloques:

    J =

    J1 0 0 00 J2 0 0...

    .... . . 0

    0 0 . . . Jl

    (11.2)Donde cada bloque Ji es una matriz de ki ki de la forma:

    Ji =

    i 1 0 00 i 1 0...

    .... . . 1

    0 0 . . . i

    (11.3)Para algun autovalor i de A.

    Dado un autovalor i, su multiplicidad geometrica es el numero de bloques de Jordan correspondientes a i,y su multiplicidad algebraica es la suma de los tamanos de los bloques correspondientes a ese autovalor.

    Luego: X = AX X=PY PY = PJP1PY Y = JY . Resolvemos este sistema y la solucion general

    del problema se expresara como X(t) = PY (t)

    Sistemas no homogeneos con A diagonalizable

    A necesariamente posee un autovalor doble R de multiplicidad geometrica 1, con lo cual la matriz Jposee un solo bloque correspondiente a :

    J =

    [ 10

    ](11.4)

    Respecto de la matriz P = [v1, v2] debe ser inversible y AP = PJ . La matriz P se obtiene hallandoun par de vectores v1 y v2 Linealmente Independientes que satisfagan las condiciones (A I) v1 = 0 y(A I) v2 = v1. Observamos que v1 es autovector de A asociado a

    Sistemas no homogeneos con A R22 no diagonalizable

    Algebra II (61.08) Pagina 34 de 35

  • 11.3 Sistemas homogeneos con A no diagonalizable

    1. A tiene un autovalor triple R de multiplicidad geometrica 1. En este caso:

    J =

    1 00 10 0

    (11.5)Respecto de P = [v1, v2, v3], estos autovectores deben ser Linealmente independientes y satisfacer lascondiciones:

    (A I) v1 = 0 (11.6)(A I) v2 = v1 (11.7)(A I) v3 = v2 (11.8)

    Observemos que v1 es autovector de A asociado a

    2. A tiene un autovalor triple R de multiplicidad geometrica 2. En este caso:

    J =

    1 00 00 0

    (11.9)Respecto de P = [v1, v2, v3], estos autovectores deben ser Linealmente independientes y satisfacer lascondiciones:

    (A I) v1 = 0 (11.10)(A I) v2 = v1 (11.11)(A I) v3 = 0 (11.12)

    Observemos que v1 y v3 son autovectores de A asociados a

    3. A tiene un autovalor doble R de multiplicidad geometrica 1 y un autovalor R simple. En estecaso J debe tener dos bloques de Jordan

    J =

    1 00 00 0

    (11.13)Respecto de P = [v1, v2, v3], estos autovectores deben ser Linealmente independientes y satisfacer lascondiciones:

    (A I) v1 = 0 (11.14)(A I) v2 = v1 (11.15)(A I) v3 = 0 (11.16)

    Observemos que v1 y v3 son autovectores de A asociados a y respectivamente.

    Sistemas no homogeneos con A R33 no diagonalizable

    Algebra II (61.08) Pagina 35 de 35