solución de sistemas de ecuaciones lineales

9
REPÚBLICA BOLIVARIANA DE VENEZUELA UNIVERSIDAD FERMÍN TORO BARQUISIMETO ESTADO LARA Solución de Sistemas de Ecuaciones Lineales Integrante:

Upload: darwinxvb

Post on 15-Apr-2017

80 views

Category:

Education


0 download

TRANSCRIPT

Page 1: Solución de sistemas de ecuaciones lineales

REPÚBLICA BOLIVARIANA DE VENEZUELA UNIVERSIDAD FERMÍN TORO

BARQUISIMETO ESTADO LARA

Solución de Sistemas de

Ecuaciones Lineales

Integrante:

Darwin Vasquez

CI.26238428

Ingeniería mecánica

Page 2: Solución de sistemas de ecuaciones lineales

En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado), definidas sobre un cuerpo o un anillo conmutativo.

Métodos De Eliminación Gaussiana

El proceso de eliminación de Gaussiana o de Gauss, consiste en realizar transformaciones elementales en el sistema inicial (intercambio de filas, intercambio de columnas, multiplicación de filas o columnas por constantes, operaciones con filas oColumnas,. . .), destinadas a transformarlo en un sistema triangular superior, que resolveremos por remonte

Uno de los problemas de la eliminación Gaussiana es que debemos dividir entre el pivote; si este es un número muy pequeño, entonces un error de redondeo puede arrojar serias dudas sobre la respuesta final

Page 3: Solución de sistemas de ecuaciones lineales

Método de Gauss-Jordán El proceso de eliminación de Gauss -Jordán consiste en realizar transformaciones elementales en el sistema inicial, destinadas a transformarlo en un sistema diagonal. El número de operaciones elementales de este método, es superior al del método de Gauss (alrededor de un 50% más).

Sin embargo, a la hora de resolver el sistema de llegada por remonte, el número de operaciones es menor, motivo por el cual, el método de Gauss -Jordán es un método computacionalmente bueno cuando tenemos que resolver varios sistemas con la misma matriz A y resolverlos simultáneamente, utilizando el algoritmo de Gauss-Jordán. En base a lo anteriormente expuesto, solo haríamos un proceso de Eliminación en la matriz y la resolución de un sistema con esta matriz es muy fácil. Un ejemplo en el que se suele usar Gauss -Jordán es en el cálculo de la matriz inversa, ya que calcular la inversa de A, es calcular N sistemas con la misma matriz. Para un mayor entendimiento de este método veamos un ejemplo práctico del método de Gauss –Jordán.

Page 4: Solución de sistemas de ecuaciones lineales

Descomposición LU

Descomposición LU El método de Descomposición LU se basa en demostrar que una matriz A se puede factorizar como el producto de una matriz triangular inferior L con una matriz triangular superior U, donde en el paso de eliminación sólo se involucran operaciones sobre los coeficientes de la matriz, permitiendo así evaluar los términos independientes y de manera eficiente..

Factorización De Cholesky

Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En otras palabras, [A] = [A] T. Tales sistemas ocurren comúnmente en problemas de ambos contextos: el matemático y el de ingeniería. Ellos ofrecen ventajas computacionales ya que sólo se necesita la mitad de almacenamiento y, en la mayoría de los casos, sólo se requiere la mitad del tiempo de cálculo para su solución. Al contrario de la Descomposición LU, no requiere de pivoteo. El método de Factorización de Cholesky se basa en demostrar que si una matriz A es simétrica y definida positiva en lugar de factorizarse como LU, puede ser factorizada como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior, es decir los factores triangulares resultantes son la traspuesta de cada uno.A = L. LTPara un mayor entendimiento de este método veamos un ejemplo práctico del método de CholeskyFactorización de QR, Householder

Page 5: Solución de sistemas de ecuaciones lineales

En muchas aplicaciones el número de filas (M) de una matriz de coeficientes A mxn puede ser 3 al número de columnas (N). La Factorización QR consiste en descomponer la matriz AmxnEn el producto de dos matrices

Una matriz Ortogonal: Qmxn ® QT. Q = INxN Una matriz Triangular Superior: U = RNxN

Para encontrar las matrices Q y R se utiliza un método basado en Transformaciones Sucesivas de Householder.

Solución De Sistemas Lineales Utilizando Métodos Iterativos

El método de Gauss y sus variantes son conocidos como métodos directos para resolver el problema inicial Ax = b. Se ejecutan a través de un número finito de pasos y generan una solución x que sería exacta sino fuera por los errores de redondeo

Un método iterado de resolución del sistema Ax = bes aquel Que genera, a partir de un vector inicial x0, una sucesión de vectores x1, x2,. . . xn... "Un método iterado se dirá que es Consistente con el sistema Ax = b, si el límite x de la sucesión (xn), en caso de existir, es solución del sistema.

Page 6: Solución de sistemas de ecuaciones lineales

Se dirá que el método es convergente si la sucesión generada por cualquier vector inicial x0 es convergente a la solución del sistema”. Es evidente que si un método es convergente es consistente, sin embargo, el recíproco no es cierto.

Método De Gauss Seidel

El Método de Gauss Seidel emplea valores iniciales y después itera para obtener estimaciones refinadas de la solución; es particularmente adecuado para un gran número de ecuaciones, lo cual en cierto modo lo hace un método más comúnmente usado. La fórmula utilizada para hallar los xi viene dada por el despeje de cada una de las xi en cada una de las ecuaciones y se les da un valor inicial a cada xi de cero.

La desventaja del método de Gauss-Seidel es que no siempre converge a la solución exacta o algunas veces los hace de manera muy lenta. Únicamente es confiable para aquellos sistemas dominantes diagonalmente.

Método de Jacobi

El Método de Jacobi transforma una matriz simétrica en una matriz diagonal al eliminar de forma simétrica los elementos que están fuera de la diagonal.

Desafortunadamente, el método requiere un número infinito de operaciones, ya que la eliminación de cada elemento no cero a menudo crea un nuevo valor no cero en el elemento cero anterior.

Page 7: Solución de sistemas de ecuaciones lineales

Si A es diagonalmente dominante, entonces la sucesión que resulta de la iteración de Jacobi converge a la solución de Ax = b para cualquier vector inicial Xo. Partimos de una aproximación inicial Xo para las soluciones Xi al sistema de ecuaciones y sustituimos estos valores en la ecuación:

Que es la expresión que nos proporciona las nuevas componentes del vector x(k) en función de vector anterior x(k-1) en la iteración de Jacobi, en su respectivo algoritmo; donde el a el método de Jacobi más que usar el último valor disponible de, con base en un conjunto de las x anteriores (). De esta forma, como se generan nuevos valores, no se usan en forma inmediata sino que se retienen para la siguiente iteración.