virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · web viewlas...

49
1 I. MATRICES Y ECUACIONES LINEALES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Tienen también muchas aplicaciones en el campo de la física. MATRICES Una matriz es una tabla ordenada de escalares a i j de la forma La matriz anterior se denota también por (a i j ), i =1, ..., m, j =1, ..., n, o simplemente por (a i j ). Los términos horizontales son las filas de la matriz y los verticales son sus columnas. Una matriz con m filas y n columnas se denomina matriz m por n, o matriz m n. Las matrices se denotarán usualmente por letras mayúsculas, A, B, ..., y los elementos de las mismas por minúsculas, a, b, ... Ejemplo: donde sus filas son (1, -3, 4) y (0, 5, -2) y sus CLASES DE MATRICES Según el aspecto de las matrices, éstas pueden clasificarse en: Matrices cuadradas Una matriz cuadrada es la que tiene el mismo número de filas que de columnas. Se dice que una matriz cuadrada n n es de orden n y se denomina matriz n- cuadrada. Ejemplo: Sean las matrices

Upload: others

Post on 17-Mar-2020

0 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

1

I. MATRICES Y ECUACIONES LINEALES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Tienen también muchas aplicaciones en el campo de la física. MATRICES Una matriz es una tabla ordenada de escalares ai j de la forma

La matriz anterior se denota también por (ai j ), i =1, ..., m, j =1, ..., n, o simplemente por (ai j ). Los términos horizontales son las filas de la matriz y los verticales son sus columnas. Una matriz con m filas y n columnas se denomina matriz m por n, o matriz m n.

Las matrices se denotarán usualmente por letras mayúsculas, A, B, ..., y los elementos de las mismas por minúsculas, a, b, ...

Ejemplo:

donde sus filas son (1, -3, 4) y (0, 5, -2) y sus

CLASES DE MATRICES Según el aspecto de las matrices, éstas pueden clasificarse en:

Matrices cuadradas

Una matriz cuadrada es la que tiene el mismo número de filas que de columnas. Se dice que una matriz cuadrada n n es de orden n y se denomina matriz n-cuadrada.

Ejemplo: Sean las matrices

Entonces, A y B son matrices cuadradas de orden 3 y 2 respectivamente.

Matriz identidad

Page 2: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

2

Sea A = (ai j ) una matriz n-cuadrada. La diagonal (o diagonal principal) de A consiste en los elementos a11, a22, ..., ann. La traza de A, escrito tr A, es la suma de los elementos diagonales.

La matriz n-cuadrada con unos en la diagonal principal y ceros en cualquier otra posición, denotada por I, se conoce como matriz identidad (o unidad). Para cualquier matriz A,

A· I = I ·A = A.

Matrices triangulares

Una matriz cuadrada A = (ai j ) es una matriz triangular superior o simplemente una matriz triangular, si todas las entradas bajo la diagonal principal son iguales a cero. Así pues, las matrices

son matrices triangulares superiores de órdenes 2, 3 y 4.

Matrices diagonales

Una matriz cuadrada es diagonal, si todas sus entradas no diagonales son cero o nulas. Se denota por D = diag (d11, d22, ..., dnn ). Por ejemplo,

son matrices diagonales que pueden representarse, respectivamente, pordiag(3,-1,7) diag(4,-3) y diag(2,6,0,-1).

Traspuesta de una matriz

La traspuesta de una matriz A consiste en intercambiar las filas por las columnas y se denota por AT.

Así, la traspuesta de

En otras palabras, si A = (ai j ) es una matriz m n, entonces AT = es la matriz n m. La trasposición de una matriz cumple las siguientes propiedades:

1. (A + B)T = AT + BT.2. (AT)T = A.3. (kA)T = kAT (si k es un escalar).

Page 3: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

3

4. (AB)T = BTAT.

Matrices simétricas

Se dice que una matriz real es simétrica, si AT = A; y que es antisimétrica, si AT = -A.

Ejemplo:Consideremos las siguientes matrices:

Podemos observar que los elementos simétricos de A son iguales, o que AT = A. Siendo así, A es simétrica.Para B los elementos simétricos son opuestos entre sí, de este modo B es antisimétrica.A simple vista, C no es cuadrada; en consecuencia, no es ni simétrica ni antisimétrica.

Matrices ortogonalesSe dice que una matriz real A es ortogonal, si AAT = AT A = I. Se observa que una matriz ortogonal A es necesariamente cuadrada e invertible, con inversa A-1 = AT.

Consideremos una matriz 3 3 arbitraria:

Si A es ortogonal, entonces:

Matrices normales

Una matriz es normal si conmuta con su traspuesta, esto es, si AAT = ATA. Obviamente, si A es simétrica, antisimétrica u ortogonal, es necesariamente normal.

Ejemplo:

Puesto que AAT = ATA, la matriz es normal.

OPERACIONES CON MATRICES Suma y resta de matrices

Page 4: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

4

Para poder sumar o restar matrices, éstas deben tener el mismo número de filas y de columnas. Es decir, si una matriz es de orden 3 2 y otra de 3 3, no se pueden sumar ni restar. Esto es así ya que, tanto para la suma como para la resta, se suman o se restan los términos que ocupan el mismo lugar en las matrices.

Ejemplo:

Para sumar o restar más de dos matrices se procede igual. No necesariamente para poder sumar o restar matrices, éstas tienen que ser cuadradas.

Ejemplo:

Producto de matrices

Para poder multiplicar dos matrices, la primera debe tener el mismo número de columnas que filas la segunda. La matriz resultante del producto quedará con el mismo número de filas de la primera y con el mismo número de columnas de la segunda.

Es decir, si tenemos una matriz 2 3 y la multiplicamos por otra de orden 3 5, la matriz resultante será de orden 2 5.

(2 3) (3 5) = (2 5)

Se puede observar que el producto de matrices no cumple la propiedad conmutativa, ya que en el ejemplo anterior, si multiplicamos la segunda por la primera, no podríamos efectuar la operación.

3 5 por 2 3, puesto que la primera matriz no tiene el mismo número de columnas que filas la segunda.

Supongamos que A = (ai j ) y B = (bi j ) son matrices tales que el número de columnas de A coincide con el número de filas de B; es decir, A es una matriz m p y B una matriz p n. Entonces el producto AB es la matriz m n cuya entrada ij se obtiene multiplicando la fila i de A por la columna j de B.

Page 5: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

5

Esto es,

Ejemplo:

1.

2.

Producto por un escalar

El producto de un escalar k por la matriz A, escrito k·A o simplemente kA, es la matriz obtenida multiplicando cada entrada de A por k:

Ejemplo:

Entonces:

División de matrices

La división de matrices se define como el producto del numerador multiplicado por la matriz inversa del denominador. Es decir, sean las matrices A y B tal que A/B = AB-1:

Si una matriz está dividida entre un escalar, todos los términos de la matriz quedarán divididos por ese escalar.

Ejemplo:

Page 6: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

6

MATRICES INVERTIBLES Se dice que una matriz cuadrada A es invertible, si existe una matriz B con la propiedad de que

AB = BA = I

siendo I la matriz identidad. Denominamos a la matriz B la inversa de A y la denotamos por A-1.

Ejemplo:

Puesto que AB = BA = I, A y B son invertibles, siendo cada una la inversa de la otra.

Método de Gauss

Sea A = (ai j ) una matriz cuadrada de orden n. Para calcular la matriz inversa de A, que denotaremos como A-1, seguiremos los siguientes pasos:

Paso 1. Construir la matriz n 2n M = (A I ) esto es, A está en la mitad izquierda de M y la matriz identidad I en la derecha.

Paso 2. Se deja tal y como está la primera fila de M, y debajo del primer término de la diagonal principal, a11, que llamaremos pivote, ponemos ceros. Luego se opera como se indica en el siguiente ejemplo.

Ejemplo:

Consideremos una matriz 3 3 arbitraria

Paso 1.

Page 7: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

7

Paso 2.

El siguiente paso es igual que el anterior, pero esta vez se coge como pivote el segundo término de la diagonal principal.

Al llegar al último término de la diagonal, se procede igual que antes, pero poniendo los ceros encima del nuevo pivote. Se observa que al coger como pivote el último término de la diagonal, la matriz A se transforma en una matriz triangular.

Una vez realizados todos los pasos, la mitad izquierda de la matriz M se convierte en una matriz diagonal. En este momento hay que proceder a transformar, si es que no lo está, la mitad izquierda en la matriz identidad, dividiendo si fuera necesario las filas de M por un escalar.

Ejemplo:

Supongamos que queremos encontrar la inversa de

Primero construimos la matriz M = (A I),

La mitad izquierda de M está en forma triangular, por consiguiente, A es invertible. Si hubiera quedado toda una fila con ceros en la mitad A de M, la operación habría terminado (A no es invertible).

Page 8: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

8

A continuación, cogemos como pivote a33, ponemos ceros encima de éste y seguimos operando hasta que nos quede una matriz diagonal.

Ya que la matriz colocada en la mitad izquierda es diagonal, no hay que operar más. Transformamos la matriz diagonal en una matriz identidad; para ello hay que dividir la segunda fila entre -1:

La matriz que ha quedado en la mitad derecha de M es precisamente la matriz inversa de A:

Para comprobar si el resultado es correcto, se procede a multiplicar AA-1, teniendo que dar como resultado la matriz identidad I.

Comprobación:AA-1 = I

La matriz ampliada M de un sistema de m ecuaciones con n incógnitas es la siguiente:

Cada fila de M corresponde a una ecuación del sistema y cada columna a los coeficientes de una incógnita, excepto la última, que corresponde a las constantes del sistema.

Un sistema de ecuaciones lineales puede resolverse trabajando con su matriz ampliada, específicamente, reduciéndola a forma escalonada mediante el proceso de Gauss.

Page 9: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

9

Método de Gauss

Para resolver sistemas de ecuaciones lineales, se aplica el método de Gauss. Este proceso se ilustra en el siguiente ejemplo.

Ejemplo:

Sea el sistema,

Su matriz ampliada asociada es

Ahora resolvemos por el método de Gauss sabiendo que la primera columna corresponde a los coeficientes de la x, la segunda a los de la y, la tercera a los de la z y la cuarta a los términos independientes:

De este modo, el sistema tiene la solución única

x = 2, y = -1, z = 3.

La resolución de sistemas de ecuaciones lineales por matrices, aplicando el método de Gauss u otros, es una de las múltiples aplicaciones que tienen éstas.

Ejercicio: resolución de sistemas de ecuaciones lineales por matrices Hallar el valor de x, y, z, t en los siguientes sistemas de ecuaciones lineales aplicando matrices:

a) La matriz M asociada al sistema de ecuaciones es:

Page 10: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

10

La tercera fila se suprime, puesto que es múltiplo de la segunda y resultaría una fila nula. Así, el sistema queda formado por dos ecuaciones con cuatro incógnitas:

La solución del sistema es compatible e indeterminado, esto es, tiene infinitas soluciones.

x = -9 - y + 10tz = 7t - 7 ó (- 9 - y + 10t, y, 7t - 7, t).

Dependiendo de qué valores se escojan para y y t, salen distintos resultados. Así, para y = t = 0 tendremos la solución del sistema x = -9, y = 0, z = -7, t = 0.

b) La matriz M asociada al sistema de ecuaciones es:

No hay necesidad de continuar calculando nada más, puesto que la matriz escalonada ya nos indica que el sistema es incompatible (SI), es decir, que no tiene solución. Específicamente, la tercera fila de la matriz escalonada corresponde a la ecuación

0x + 0y + 0z + 0t = -5

Obteniendo como resultado 0 = -5, que es absurdo. Por lo tanto, decimos que no tiene solución.

Page 11: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

11

II. ESPACIOS VECTORIALES

INTRODUCCION

Sea (K, +, ) un cuerpo. Diremos que un conjunto dotado de una operación interna + y otra externa sobre el cuerpo tiene estructura de espacio vectorial si cumple las siguientes propiedades: 1. (E, +)es un grupo abeliano 2. es una operación que va del producto cartesiano K x E en el conjunto :

verificando las siguientes propiedades:

2.1. Distributiva respecto de la suma de vectores: 2.2. Distributiva respecto de la suma de escalares:

2.3. Asociativa mixta:

2.4. Producto por el elemento unidad del cuerpo:

Siguiendo esta definición de lo que es un espacio vectorial, a partir de las propiedades que todos sabemos de la suma y producto de números reales (sabemos que (R, +, ) es un cuerpo, lo que implica, en particular, que (R, +) y (R*, ) son

grupos), se demuestra muy fácilmente que, por ejemplo, el espacio de los vectores del plano con las operaciones de suma de vectores y producto de un escalar con un tenemos:

y

Entonces se tiene que

Es un espacio vectorial sobre IR.

Sin embargo, si ahora consideramos (R3, +, ) estando definidas estas operaciones como sigue:

se tiene que (R3, +, ) no es un espacio vectorial sobre , pues falla la propiedad de producto por el elemento de unidad del cuerpo, ya que

ejemplos de espacios vectoriales

1) , la recta numérica, con las operaciones habituales de adición y multiplicación.

Page 12: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

12

2) Sea N el conjunto de los números naturales.

Entonces n={v=(x1, x2, . . . , xn)|x i ,i[1,n]ÌN}, con la adición y multiplicación por escalares definidas por:

(x1, x2,…, xn )+(y1,y2,…,yn ) = (x1+y1, x2+y2,…, xn+yn )

a( x1, x2,…, xn ) = (a x1 , a x2 ,…, a xn )

3) El conjunto de las funciones reales continuas definidas sobre un intervalo [a ,b] ,que denotamos por

. Es decir, ={f|f es continua en [a,b]}. Las operaciones son:

(f+g)(x)=f(x)+g(x)

(f)(x)=f(x)

f,g ,x[a,b] , .

Este es uno de los espacios de funciones más importante en Análisis Matemático.

4) mxn, el espacio de las matrices reales de orden mxn, con m, n N. mxn = { A : A es una matriz real de orden mxn}. Las operaciones son:

A+B=C,a i j+bi j=ci j ,

B=A,bi j=ai j ,

A,B,C mxn,(i , j )1,m]x[1,n] , .

5) El espacio de las sucesiones reales

l2 = {v = (x1, x2, .. , xn, ...): < ¥}, con las operaciones:

i) (x1, x2, ...,xn, ...)+(y1, y2, ...,yn, ...) = (x1 + y1 , x2 +y2, ...,x + yn, ...)

ii) (x1 , x2 , ..., xn, ...) = ( x1 , x2 , ... , xn, ...)

(x1,x2, ...,xn, ..),(y1,y2, ...,ym, ..)l2,

La verificación que todas las propiedades para la adición y multiplicación por escalares se cumplen es bastante simple en todos los casos, excepto quizás en el ejemplo 5. Veremos este caso como ejercicio. En realidad, la única dificultad consiste en demostrar que la suma de dos sucesiones en l2 es también una sucesión en l2. En efecto, si (x1,x2, .., xn, ...) e (y1 , y2 , ... ,yn) están en l2 , entonces

|xn|2 < ¥, |yn|2 < ¥

Para la sucesión suma :

|xn + yn|2 £

= |xn|2 + 2 |xn| |yn| + |yn|2

Pero: ( |xn | - |yn | )2>0, luego:

Page 13: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

13

| xn |2-2 |xn | |yn |+|yn |2 >0

\|xn |2+|yn |2 >2|xn | |yn |

así: |xn + yn|2 £ |xn|2 + ( |xn|2 + |yn|2 ) + |yn|2

= 2 |xn|2 + 2 |yn|2 < ¥

6) El espacio de las sucesiones reales convergentes c={v=(x1,x2,...): lim

n→∞

xn=x}, con las operaciones:

i) (x1, x2, .....)+(y1, y2, .....) = (x1 + y1 , x2 +y2, .....)

ii) (x1 , x2 , ..., xn, ...) = ( x1 , x2 , .....)

(x1,x2, .....), (y1,y2, .....)c,

7) El espacio de las sucesiones reales convergentes a cero c0={v=(x1,x2, ...): lim

n→∞

xn=0}, con las operaciones

del ejemplo 6.

8) El conjunto de todas las sucesiones numéricas acotadas m={v=(x1,x2, ...): xi< x, i=1,¥, para algún x }, con las operaciones del ejemplo 6.

9) El conjunto ¥={v=(x1,x2, ...)}, de todas las sucesiones, con las operaciones del ejemplo 6.

Subespacio

Dado un espacio vectorial , diremos que un subconjunto H ⊆E es un subespacio vectorial si ese conjunto tiene estructura de espacio vectorial.

Existe una caracterización que nos facilita comprobar si un subconjunto de un espacio vectorial es o no

subespacio vectorial: Dado espacio vectorial y dado H ⊆E , diremos que es un subespacio vectorial de , si y solamente si, se cumple:

escalares, para todo par de vectores

y se verifica:

Page 14: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

14

ejemplos de subespacios vectoriales

1) Sea V un espacio vectorial (e.v.) y sea vV, fijo, v¹0 . El conjunto U = {lv :l } es un subespacio (unidimensional) de V. Por cierto, U es subespacio propio si la dimensión de V es mayor que 1.

La verificación de que U es subespacio es rápida. En primer lugar U¹F, luego si u ,wU,a ,b , entonces:au+bw =a (l1v )+b (l2v )

=(al1+bl2)vU

2) El espacio es un subespacio (de dimensión infinita), del espacio de todas las funciones reales (es decir funciones reales continuas y discontinuas).

3) U={v n:x1=0} es un subespacio propio de n, sin embargo,

U ={v n:x1 = x2+1} no lo es (¿Por qué?).

4) Sea U = {u : u es un polinomio de grado n} es un subespacio propio de y de dimensión finita.

5) l2 es un subespacio propio de c0.

6) c0 es un subespacio propio de c.

7) c es un subespacio propio de m.

8) m es un subespacio propio de ¥ .

Definición de Dependencia e Independencia de un subespacio.

Hemos visto la definición de espacio vectorial, vamos ahora a concretar algunas propiedades que tiene la operación externa.

Propiedades de la operación

Sea (E,+,) un espacio vectorial. Entonces, se verifica: 1.

2.

3. ó

4.

5.

6. Simplificación de escalares:

7.

Page 15: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

15

Simplificación de vectores:

De la estructura de espacio vectorial sabemos que si sumamos dos vectores el resultado va a ser un vector. También sabemos que si multiplicamos un escalar por un vector, el resultado será un vector. Uniendo estos resultados, llegamos a las siguientes definiciones:

Combinaciones lineales. Dependencia e independencia de vectores

Decimos que un vector es combinación lineal de los vectores

si existen unos escalares

de forma que

Por ejemplo, el vector (1,3,6) es combinación lineal de los vectores{(0,1,2) ,(1,1,2) ,(3,5 ,−7)}, pues existen los

escalares α 1=2 , α 1=1 α 1=0 , verificándose

Diremos que los vectores

son linealmente independientes si la igualdad

es únicamente cierta cuando los escalares

son todos iguales a cero. Entonces se dice que forman un sistema libre. En caso contrario se dirá que los vectores son linealmente dependientes, o que forman un sistema ligado.

Por ejemplo, en

(con las operaciones usuales + y ), se tiene que los vectores(1,0) y (0,1) son linealmente independientes, ya que si buscamos los escalares ,

Page 16: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

16

tales que

haciendo operaciones, llegamos a que tiene que ser

.

Como sabemos, dos vectores son iguales si lo son componente a componente, lo que implica, automáticamente, que y

luego, según la definición, son linealmente independientes.

Sin embargo, también en

los vectores (1,3) y (2,6) no son linealmente independientes, pues al buscar los escalares ,

tales que

haciendo operaciones, llegamos a que tiene que ser

.

Aplicando de nuevo que dos vectores son iguales si lo son componente a componente, obtenemos

Page 17: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

17

es decir, nos hemos trasladado al mundo de la resolución de sistemas de ecuaciones. Ahora, con lo que sabemos sobre sistemas lineales, resolviendo se tiene que

y

.

¿Qué me dice esto sobre los vectores? Que son linealmente dependientes. Es claro que si decimos , entonces, automáticamente ,

lo que podría conducirnos a concluir (erróneamente) que los vectores son linealmente independientes. Sin embargo, la definición nos dice que

y

han de ser únicos. Ahora, si hacemos , automáticamente

y

también verifican la relación

,

lo que nos hace ver que no son únicos y, por tanto, los vectores no son linealmente independientes.

Lo importante de aquí es darse cuenta de que el concepto de dependencia e independencia lineal se ha trasladado al estudio de las soluciones de un cierto sistema de ecuaciones homogéneo. La existencia de una única solución (que, por ser homogéneo el sistema, será la nula) me dice que los vectores son linealmente independientes, y la existencia de más de una solución, que los vectores son linealmente dependientes.

Page 18: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

18

Mencionamos unas propiedades referentes a dependencia/independencia lineal de un conjunto de vectores, y después introduciremos tres conceptos importantes: sistema generador de un espacio vectorial, envoltura lineal de un conjunto de vectores y base de un espacio vectorial.

1. Un conjunto de vectores es linealmente dependiente si y solamente si alguno de los vectores es combinación lineal de los demás.

2. Si un conjunto de vectores es linealmente independiente cualquier subconjunto suyo también lo es. Obviamente, si tenemos un conjunto de vectores tales que ninguno de ellos es combinación de los demás, escogiendo sólo unos cuantos, no podrán ser combinación de los otros.

3. Si un conjunto de vectores es linealmente dependiente también lo es todo conjunto que lo contenga. Ya que un conjunto de vectores es linealmente dependiente si y sólo si tiene algún vector que es combinación lineal de los demás, si metemos este conjunto de vectores en otro más grande, seguimos teniendo el vector que es combinación lineal de otros, por tanto, el conjunto más grande sigue siendo linealmente dependiente.

Definición de Base y dimensión.

Sistema generador de un espacio vectorial

Decimos que un conjunto de vectores

es un sistema generador del espacio vectorial al cual pertenece si cualquier vector de dicho espacio se puede poner como combinación lineal de ellos.

Por ejemplo, los vectores(1,0) y (0,1) forman un sistema generador de

(+, las operaciones usuales), ya que si cogemos cualquier

de igualar

se tiene enseguida que ha de ser y

Por ejemplo, si (x,y) = (1,3), tendremos y

.

Page 19: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

19

No todos los conjuntos de vectores forman un sistema generador de un espacio vectorial. Por ejemplo, los vectores (3,-

1,2) y (1,0,-1) no forman un sistema generador de .

Si lo fueran,

tales que

Pero esto implica, escribiéndolo como un sistema, que:

Es decir, tenemos que

Por tanto, sustituyendo en la primera ecuación,

Como debe verficarse cada ecuación, sustituyendo y b en la última tenemos que, para que

sea sistema generador de se ha de cumplir la relación

Evidentemente, esto no es cierto para todos los vectores del espacio. Si tomamos, en particular, el (0,0,1), vemos que

la coordenada no verifica la relación. Por tanto, el sistema dado no es un sistema generador de .

Envoltura lineal

Al conjunto de todos los vectores que son combinación lineal de los vectores

se le llama envoltura lineal de los vectores

y se representa

.

Base de un espacio vectorial

Page 20: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

20

Decimos que los vectores

son base del espacio vectorial al cual pertenecen si cumplen dos condiciones:

Han de ser linealmente independientes. Han de formar un sistema generador del espacio vectorial .

Todas las bases de un espacio vectorial tienen el mismo número de elementos, al que se le llama dimensión del

espacio vectorial. La siguiente base del espacio vectorial es la conocida como base canónica:

Hay que notar que un sistema generador de un espacio vectorial de dimensión debe tener al menos vectores, pero si tiene no tiene por qué ser un sistema generador.

Un ejemplo simple e inmediato lo vemos con el espacio

siendo + y las operaciones usuales, y escogiendo los vectores

.

Estos dos vectores, al ser proporcionales, generarían únicamente una recta, pero no todo el plano.

Page 21: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

21

III. APLICACIONES LINEALES

Definición Una aplicación lineal es una aplicación entre dos espacios vectoriales que es además lineal.

i. Recordamos que una aplicación (en inglés map) es una regla que permite asociar a cada elemento del primer espacio un elemento del segundo.

E L⃗ FEn nuestro tema E y F son espacios vectoriales y E → F es una función o aplicación lineal L.Nota: En teoría de conjuntos se suele reservar el nombre de función para aplicaciones numéricas.

ii. La aplicación L es lineal si cumple las siguientes propiedades:

Que se pueden escribir juntas como la ley de combinaciones lineales:

Ejemplo 1. Aplicaciones entre espacios de una dimensión

R L⃗ RR: conjunto de los números reales

u⃗∈RL( u⃗ )=L( u⃗⋅1 )=u⃗⋅L(1 )=a u⃗L( u⃗ )=a u⃗El ejemplo de aplicación lineal en se resume en la función lineal (rectas).

La cantidad a=L(1) es libre. La aplicación lineal se resume anotando la constante (que es una matriz ),

Page 22: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

22

Ejemplo 2. Aplicación en dos dimensiones. E=F=En R2

Los espacios están referidos a sus bases (no son la misma en principio).

Sea u∈E un vector arbitrario, se tiene que u=x1 e1+x2 e2Luego por linealidad:

(1)

L(e1)puede elegirse libremente en F (2)

L(e2)puede elegirse libremente en F (3)

Sustituyendo (2) y (3) en (1), y agrupando, me queda:

Donde (4):

y1=x1 a11+x2 a12y2=x1 a21+x2 a22

Matriz de una aplicación lineal

En vista de esta lección podemos definir una aplicación lineal como una operación que toma un vector en coordenadas y lo premultiplica por una matriz para hallar las coordenadas de la imagen. Esta matriz operativa se llama la matriz de la aplicación lineal.

Se tiene una aplicación lineal L de E en F, espacios a los que nos referimos por sus bases.

Las imágenes de e1 y e2 vienen dadas por las expresiones:

lo que equivale a

Tenemos un vector u cualquiera expresado en la base del espacio E.

Sustituyendo tenemos:

Page 23: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

23

Caso general

Se tiene un vector u cualquiera en un espacio .

El sistema { } constituye una base del espacio y son las coordenadas del vector u respecto de esa base.

Si L es una aplicación lineal , donde , tenemos:

Existen aplicaciones lineales entre espacios de dimensiones distintas, por lo que m no coincide necesariamente con n, y existe una matriz A de la aplicación lineal L.

Núcleo

Definición. El núcleo de una aplicación lineal es el conjunto de vectores del primer espacio (espacio de partida) cuya imagen es nula. El núcleo se denota como K(L), del inglés kernel.

Propiedades de K(L):

(1) . El vector nulo siempre está contenido en el núcleo. (2) K(L) es un subespacio de E:

Ecuación. Si las coordenadas de son X y las coordenadas de L( ) son Y, tenemos la ecuación matricial: , donde Y, como hemos dicho, vale cero; la ecuación del núcleo en coordenadas nos queda:

En la ecuación , el rango de la matriz A nos dice cuantas ecuaciones son independientes.Si r(A) es el rango de la matriz A y n la dimensión de E se tiene

Page 24: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

24

Cálculo de una base del núcleo Partimos de la ecuación matricial

= 0

A

Todos los sistemas homogéneos tienen al menos la solución trivial.En la matriz A, tenemos un menor principal de orden (r es el rango), cuyo determinante es distinto de cero. Las filas restantes serán combinaciones lineales de las anteriores (zona sombreada).Las incógnitas que sobran después de encontrar el menor , son coordenadas libres y las pasamos al otro miembro de la ecuación. Pasan a ser parámetros y les podemos dar un valor cualquier para resolver el sistema.

+ = 0

Nos queda la ecuación matricial:

Como son parámetros, les puedo dar valores:

y calculo , coordenadas del vector

y calculo , coordenadas del vector . . .

y calculo , coordenadas del vector

Salen tantos vectores w como columnas libres hay en la matriz A.Si hay variables libres, hay núcleo. Son estas variables libres las que generan el núcleo. Estos vectores constituyen una base del núcleo.

Recordamos

* es un subespacio de E.

* donde A es la matriz de la aplicación L

El conjunto de vectores es una base del espacio K(L).

Completando una base de E

Para tener una base completa de E, necesito completar el sistema con vectores . Por conveniencia, utilizo los vectores de la base canónica de L.

Pero he comprobar la ind. lineal del conjunto obtenido

Page 25: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

25

es base del subespacio K(L) de dimensión n-r

es la base de un subespacio de E de dimensión r

Son dos bases totalmente independientes. La suma de estos dos espacios genera el espacio E. Se dice entonces que es una suma directa.

Definición:

es una suma directa si y sólo si

Notación:

La condición suficiente y necesaria es Demostración:

Tenemos la regla , luego

Ojo: todos los espacios tienen en común el subespacio nulo, notación {0}.

Al subespacio de E generado por lo denominamos y escribimos:

Estudio de la Imagen o Rango de la aplicaciópn lineal

Se llama al conjunto de vectores del espacio final F que son imagen de algun vector de E.

Se demuestra que es un subespacio de F y se le llama espacio imagen.

Es fácil ver que lo generan las imágenes de los vectores de base de $E$

Vamos a demostrar también que su dimensión es r. Equivale a . Para ello demostramos que los r vectores de

la base del espacio complementario dan como imagen vectores independientes.

Proposición

Sea una base de

(i) Entonces es un conjunto linealmente independiente

(ii) El sistema genera el subespacio imagen L(E)

Demostración

(i) Sea ,

por linealidad:

Como la imagen es nula:

Recordamos que Luego si el vector se encuentra en los dos espacios complementarios, que como ya hemos dicho antes tienen como único elemento común el espacio nulo.

Page 26: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

26

Al ser un sistema linealmente independiente.

(ii) L(E) está generado por y es un subespacio de F.Comprobación:

por linealidad :

L(E) es un subespacio vectorial de F.

Compruebo los generadores:

Como pertenecen al núcleo, su imagen es cero.

El sistema de vectores genera el subespacio imagen.

(iii) Se llama Coimagen a todo subespacio generado por los vectores que faltan para completar una base de F. Hay infinitos espacios coimagen, pero cualquier conjunto de vectores independientes que completen la

base bastará para generar todo el espacio.

Teorema de los cuatro espacios

Page 27: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

E2

K(L) L(E)F2

E FL

L

27

E1 = K(L) es el núcleo y E2 el conúcleoF1 = L(E) es el espacio imagen y F2 la coimagen.

Ejercicio.

La matriz A determina una aplicación lineal de en . Encontrar una base y la dimensión de la imagen y el núcleo de la aplicación.

En la ecuación tenemos dos variables independientes, a las que doy valores arbitrarios y obtengo dos vectores. Esos dos vectores generan el núcleo; son base del subespacio K(L).

;

Estos vectores están en el núcleo porque se verifica que .

Podemos completar la base de con los vectores de la base canónica .

Ya que las imágenes de son vectores independientes, generan el espacio imagen L(E).

Page 28: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

28

.

Para completar la base de basta con añadir un vector de que no sea linealmente dependiente de los otros dos. Por ejemplo:

. Este vector genera el espacio coimagen.

Page 29: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

29

Cambios de BaseTenemos una aplicación lineal de E en F , donde A es la matriz de la aplicación lineal L.

y son bases de E y F respectivamente, y y son bases de los mismos espacios buscadas de tal manera que es la matriz más simple posible.

Tenemos la ecuación matricial

Si y , donde y son matrices (columna) de las nuevas bases de E y F. al sustituir en la ecuación matricial nos queda:

Tenemos X e Y expresados en nuevas bases, luego tenemos una nueva matriz de la aplicación lineal.

El caso deseado

La matriz A’ será la más simple posible.

Page 30: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

30

IV. PRODUCTO ESCALAR Y ORTOGONALIDAD

El producto interior o producto escalar de dos vectores a y b en el espacio tridimensional se escribe a · b y se define como

a · b  = |a| |b| cos cuando a 0, b 0a · b  = 0 cuando a = 0 o b = 0

 aquí (0 ) es el ángulo entre a y b (calculado cuando los vectores tienen sus puntos iniciales coincidentes).

 

El valor del producto interior (escalar) es un escalar (un número real) y esto motiva el término producto escalar. El coseno del ángulo puede ser positivo, cero o negativo, lo mismo se aplica al producto interior.

Observamos que el coseno es cero cuando = 0.5 = 90°.

 Teorema de Ortogonalidad. Dos vectores diferentes de cero son ortogonales sí, y sólo si, su producto interior (escalar) es cero.

 Se tienen las siguientes propiedades: 

|a|  = a 0

cos  

=

(q1a + q2b) . c  = q1a . c + q2b . c Linealidad

a . b  = b . a  Simetría

a . a  0 Ser positivo definido

Page 31: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

31

a . a  = 0 sólo si a = 0

(a + b). c  = a . c + b . c Distributividad

|a . b|  |a| |b| Desigualdad de Schwarz

|a + b|  |a| + |b| Desigualdad del Triángulo

|a + b|2 + |a - b|2  = 2(|a|2 + |b|2) Igualdad del Paralelogramo

Si los vectores a y b se representan en términos de sus componentes:

a = a1i + a2j + a3k b = b1i + b2j + b3k

su producto interior está dado por la siguiente fórmula

a . b = a1b1 + a2b2 + a3b3

 Proyección

Consideremos dos vectores a y b diferentes de cero, denotando por el ángulo entre ellos. El número real

p = |a| cos

se llama componente de a en la dirección de b o proyección de a en la dirección de b. Si a = 0 entonces no está definido y se hace p = 0.

|p| es la longitud de la proyección ortogonal de a sobre una recta l en la dirección de b. p puede ser positiva, cero o negativa.

Page 32: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

32

 

A partir de lo anterior se ve que, en particular, las componentes de un vector a en las direcciones de los vectores unitarios i, j, k de la triada fundamental asociada con un sistema coordenado cartesiano son las componentes a1, a2, a3 de a como se vio anteriormente. Esto indica que el término "componente" es simplemente una generalización.

Producto Vectorial

Varias aplicaciones sugieren la introducción de otro tipo de multiplicación vectorial en la que el producto de dos vectores sea nuevamente un vector. Este producto vectorial de los dos vectores a y b se escribe

a x b

y es un vector definido como sigue.Si a y b tienen la misma dirección, son opuestos o uno de ellos es el vector cero, entonces su producto vectorial es cero (v=0). En cualquier otro caso, v es el vector cuya longitud es igual al área del paralelogramo con a y b como lados adyacentes y cuya dirección es perpendicular tanto a a como a b y es tal que a, b, v, en ese orden, forman una terna derecha o triada derecha.

El término derecho se debe al hecho de que los vectores a, b, v, en ese orden, toman la misma orientación que los dedos pulgar, índice y medio de la mano derecha cuando se colocan como se muestra en la figura de al lado. También puede decirse qu si a se gira hacia la dirección de b , describiendo el ángulo , entonces v avanza en la misma dirección que un tornillo de rosca derecha, si este se gira en el mismo sentido.

El paralelogramo donde a y b son los lados adyacentes tiene el área |a| |b| sen . Se obtiene

|v| = |a| |b| sen

Page 33: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

33

 El producto vectorial es anticonmutativo, si a x b = v y b x a = w. Entonces |v| = |w| y para que b, a, w formen una terna derecha debe cumplirse que w = -v. De lo anterior se obtiene

b x a = - (a x b)

La multiplicación vectorial de vectores no es conmutativa, sino anticonmutativa.

El orden de los factores en un producto vectorial tiene gran importancia y debe observarse cuidadosamente.

Propiedades:(ka) x b = k(a x b) = a x (kb)

a x (b + c) = (a x b) + (a x c) (a + b) x c = (a x c) + (b x c)

     La multiplicación vectorial no es asociativa, es decir,  

a x (b x c) (a x b) x c     Para calcular la longitud (magnitud) de un producto vectorial se puede emplear:     

|a x b| =

     Productos Vectoriales en Términos de las Componentes

Considerando un sistema cartesiano derecho

a x b =

 Respecto al primer renglón, debe tenerse presente que éste no es un determinante ordinario puesto que los elementos del primer renglón son vectores.

Triple Producto Escalar

En las aplicaciones se presentan con frecuencia productos de vectores que tienen tres o más factores. El más importante de estos productos es el triple producto escalar o triple producto mixto a . (b x c) de tres vectores. Con respecto a cualquier sistema de coordenadas cartesianas derecho, sean

a = a1i + a2j + a3k b = b1i + b2j + b3k c = c1i + c2j + c3k 

a . (b x c) = 

   

Page 34: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

34

a . (b x c) = 

      Denotando el triple producto escalar a . (b x c) por (a b c), se tiene lo siguiente: 

(a b c) =  - (b a c) 

(a b c) =  (b c a) = (c a b) 

a . (b x c) =  (a x b) . c) 

(ka b c) =  k(a b c)  El valor absoluto del triple producto escalar (a b c) tiene una interpretación geométrica sencilla. Es igual al volumen del paralelepípedo P con a, b, c, como aristas adyacentes.

El valor del triple producto escalar es un número real independiente de la elección de las coordenadas derechas en el espacio.  Dependencia Lineal Tres vectores forman un conjunto linealmente dependiente si, y sólo si, su triple producto escalar es cero. 

a x (b x c) =  (a . c)b - (a . b)c 

(a x b) . (c x d) =  (a . c)(b . d) - (a . d)(b . c) 

(a x b) x (c x d) =  (a b d)c - (a b c)d

1.5 Aplicaciones físicas y geométricas de los productos escalares y vectoriales.

Page 35: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

35

v. DETERMINANTES A cada matriz n-cuadrada A = (ai j ) se le asigna un escalar particular denominado determinante de A, denotado por det (A), | A | o

Una tabla ordenada n n de escalares situada entre dos líneas verticales, llamada determinante de orden n, no es una matriz.La función determinante apareció por primera vez en el estudio de los sistemas de ecuaciones lineales. Veremos que es una herramienta indispensable en el estudio y obtención de éstas. DETERMINANTES DE ORDEN UNO Y DOS Los determinantes de orden uno y dos se definen como sigue:

= a11

Así, el determinante de una matriz 1 1 A = (a11) es el propio escalar a11, es decir, det (A) = |a11| = a11.

Ejemplos:

a) Dado que el determinante de orden uno es el mismo escalar, tenemos det (24) = 24, det(-3) = -3, det (3x+5) = 3x+5.

b)

DETERMINANTES DE ORDEN TRES Consideremos una matriz 3 3 arbitraria A = (ai j ). El determinante de A se define como sigue:

a12a21a33 - a32a23a11

Page 36: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

36

Obsérvese que hay seis productos, cada uno formado por tres elementos de la matriz. Tres de los productos aparecen con signo positivo (conservan su signo) y tres con signo negativo (cambian su signo).

Para calcular los determinantes de orden tres, el siguiente diagrama puede ayudar a resolverlos:

Ejemplo:

Calcular el valor del determinante:

= 24 + 20 + 0 - (-4) - 0 - (-15) = 44 + 4 + 15 = 63

El determinante de la matriz 3 3 A = (ai j ) puede reescribirse como:

det (A) = a11(a22a33 - a23a32) - a12(a21a33 - a23a31) + a13(a21a32 - a22a31) =

que es una combinación lineal de tres determinantes de orden dos, cuyos coeficientes (con signos alternantes) constituyen la primera fila de la matriz dada. Esta combinación lineal puede indicarse de la forma siguiente:

Nótese que cada matriz 2 2 se obtiene suprimiendo en la matriz inicial la fila y la columna que contienen su coeficiente.

Ejemplo:

Para demostrar que la propiedad anterior se cumple, trabajaremos con :

Page 37: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

37

= 3(8+5) - 2(0-10) + 1(0+4) = 39 + 20 + 4 = 63

APLIC. DE LOS DETERMINANTES En el tema de matrices y su aplicación a los sistemas de ecuaciones lineales, se vio cómo resolverlas mediante el teorema de Gauss. Con los determinantes, y aplicando la regla de Cramer, veremos otra manera de calcular los sistemas de ecuaciones lineales.

Regla de Cramer

Los pasos a seguir para calcular los sistemas de ecuaciones según la regla de Cramer son los siguientes:

1. Hallar la matriz ampliada (A b) asociada al sistema de ecuaciones, esto es: que la primera columna esté formada por las entradas de los coeficientes de la primera incógnita de las ecuaciones; que la segunda columna la formen las de la segunda incógnita, y así hasta llegar a la última columna, que estará constituida por las entradas de los términos independientes de las ecuaciones.

2. Calcular el determinante de A.

3. Aplicar la regla de Cramer, que consiste en:

a) ir sustituyendo la primera columna del det (A) por los términos independientes;

b) dividir el resultado de este determinante entre el det (A) para hallar el valor de la primera incógnita;

c) continuar sustituyendo los términos independientes en las distintas columnas para hallar el resto de las incógnitas.

Ejemplo:

Sea el sistema de ecuaciones lineales formado por dos ecuaciones con dos incógnitas:

Encontrar el valor de x e y mediante la regla de Cramer.

Empezaremos con el primer paso, que consiste en hallar la matriz ampliada A b asociada al sistema de ecuaciones lineales:

El segundo paso es calcular el determinante de A. Así pues:

Page 38: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

38

Y el tercero y último paso consiste en calcular las incógnitas:

Discusión de los sistemas de ecuaciones lineales

A continuación, se estudiará la manera de saber de antemano si un sistema de ecuaciones lineales tienen o no solución y si tienen una única o infinitas soluciones.

El estudio o discusión de los sistemas de ecuaciones se efectúa aplicando el teorema de Rouché-Fröbenius. Éste dice que con un sistema de ecuaciones lineales pueden ocurrir dos cosas:

1. Que el sistema de ecuaciones sea un sistema compatible (S.C.), esto es, que tenga solución.

2. Que el sistema de ecuaciones sea un sistema incompatible (S.I.) o que no tenga solución.

El primer caso puede dividirse en dos:

a) que sea un sistema compatible y determinado (S.C.D.), esto es, que tenga una única solución;

b) que el sistema sea compatible e indeterminado (S.C.I.), es decir, que tenga infinitas soluciones.

Sea un sistema no homogéneo:

En consecuencia, la matriz ampliada Ab asociada al sistema de ecuaciones es:

y el sistema será compatible cuando:

rango (A) = rango (A b),

lo que suele expresarse diciendo que el rango de la matriz de coeficientes coincide con el rango de la matriz ampliada.

Si el sistema anterior es compatible y

rango (A) = rango (A b) = número de incógnitas,

el sistema es compatible y determinado, es decir, tiene una única solución.

Si, por el contrario, tenemos que

Page 39: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

39

rango (A) = rango (A b) < número de incógnitas,

el sistema es compatible e indeterminado, es decir, tiene infinitas soluciones.

Si rango (A) rango (A b), el sistema es incompatible y no tiene ninguna solución.

Ejemplos:

Discutir, sin resolver, los siguientes sistemas de ecuaciones:

Puesto que rango (A) = 1 rango (A b) = 2, el sistema es incompatible; no existe ninguna solución.

Ya que rango (A) = rango (A b) = 2 = número de incógnitas, el sistema es compatible y determinado; es decir, existe una única solución.

Page 40: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

40

Puesto que rango (A) = rango (A b) = 1 < número de incógnitas, el sistema es compatible e indeterminado; existen infinitas soluciones.

V. VALORES PROPIOS Y VECTORES PROPIOS

El cálculo de los valores propios y de los vectores propios de una matriz simétrica tiene gran importancia en las matemáticas y en la ingeniería, entre los que cabe destacar, el problema de la diagonalización de una matriz, el cálculo de los momentos de inercia y de los ejes principales de inercia de un sólido rígido, o de las frecuencias propias de oscilación de un sistema oscilante.

Se denominan valores propios o raíces características de una matriz cuadrada A, a los valores de tales que.

Page 41: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

41

Desarrollando el determinante tenemos un polinomio de grado n. Trataremos de encontrar los coeficientes del polinomio, y luego aplicaremos un método de hallar las raíces del polinomio. Este procedimiento es apropiado cuando se presentan valores propios que no son reales sino complejos.

Una vez hallados los valores propios, para hallar el vector propio X correspondiente al valor propio es necesario resolver el sistema homogéneo

donde el vector X es  Siempre podemos tomar x0 como 1, y hallar las otras n-1 incógnitas. De las n ecuaciones podemos tomar n-1, y resolver el sistema lineal.

El método de Leverrier

Dada una matriz cuadrada A de dimensión n. El polinomio característico de la matriz es

Los coeficientes se hallan mediante las siguientes relaciones

                                          (1)

Los valores s1, s2, ... sn son las trazas de las potencias de la matriz cuadrada A.

Page 42: virtual.usalesiana.edu.bovirtual.usalesiana.edu.bo/.../dossier/12012/1459.docx · Web viewLas matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones

42

La traza de una matriz es la suma de los elementos de su diagonal principal.

POLINOMIO CARACTERÍSTICO

polinomio característico y encontrar sus raíces. Cada raíz de será un valor propio de . Los vectores propios pueden obtenerse directamente . Debido a que los valores propios resultan ser las raíces del

polinomio característico, éstos pueden ser reales o complejos, diferentes o repetidos.

Consideremos una matriz n-cuadrada arbitraria:  

  La matriz (A - l·In), donde In es la matriz identidad n-cuadrada y l un escalar indeterminado, se denomina matriz característica de A:  

  Su determinante, det (A - l·In) , que es un polinomio en l, recibe el nombre de polinomio característico de A. Asimismo, llamamos a det (A - l·In) = 0   ecuación característica de A.  Ejemplo 1:  Hallar la matriz característica y el polinomio característico de la matriz A:  

  La matriz característica será (A - l·In). Luego:  

  y el polinomio característico,  

  Así pues, el polinomio característico es: l 2 - l + 4.