solución de sistemas de ecuaciones lineales

10
sistemas de ecuaciones lineales Alida Ros C.I: 23.815.009 Análisis de datos

Upload: alida-marleny-ros-medrano

Post on 13-Apr-2017

68 views

Category:

Engineering


4 download

TRANSCRIPT

Page 1: Solución de sistemas de ecuaciones lineales

Solución de sistemas de ecuaciones

lineales

Alida Ros C.I: 23.815.009

Análisis de datos

Page 2: Solución de sistemas de ecuaciones lineales

Método de Eliminación Gaussiana

Consiste en realizar transformaciones elementales en el sistema inicial (intercambio de filas, multiplicación de filas por constantes, operaciones con filas, etc), destinadas a transformarlo en un sistema triangular superior, que resolveremos por remonte.Este método se aplica para resolver sistemas lineales de la forma:

Ax = BEl método de eliminación Gaussiana (simple), consiste en escalonar la matriz aumentada del sistema:

(A:B)

Page 3: Solución de sistemas de ecuaciones lineales

Método de Eliminación Gaussiana

Ejemplo:Resolver el siguiente sistema de ecuaciones: X1 + 2X2 + 3X3 = 14X1 + 5X2 + 6X3 = -27X1 + 8X2 + 10X3 = 5Usando el método de eliminación Gaussiana (simple).Solución: F2 – 4F1 F3-2F2F3/-3Por lo tanto, el sistema equivale a:X1 + 2X2 + 3X3 = 1 X2 + 2X3 = 2 X3 = 10De la ultima ecuación tenemos que X3 = 10; sustituimos este valor en la ecuación de arriba para obtener X2 = -18; sustituimos estos valores en la ecuación de arriba para obtener X1 = 7.Asi la solución del sistema es:X1 = 7X2 = -18X3 = 10

Page 4: Solución de sistemas de ecuaciones lineales

Método de eliminación Gauss-JordanLlamado así debido a Carl Friedrich Gauss y Wilhelm Jordan, es un algoritmo para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Anteriormente hablamos del método de Gauss el cual transforma la matriz de coeficientes en una matriz triangular superior. El método de Gauss-Jordan continúa el proceso de transformación hasta obtener una matriz diagonal.

Page 5: Solución de sistemas de ecuaciones lineales

Descomposición LULa descomposición o factorización LU fue introducida por el matemático Alan Turing en 1948, donde LU significa en inglés “Lower Upper” inferior superior en español, es una matriz como el producto de una matriz triangular inferior y una matriz triangular superior donde a veces el producto incluye una matriz de permutación. Es usado en el análisis numérico y en el álgebra lineal.

La implementación del algoritmo de la Descomposición LU tiene sus variantes en cuanto a los valores iniciales de la diagonal que toman las matrices L y U:

• Si los valores de la diagonal de la matriz L tiene números 1 es una Descomposición de Doolitle

• Si los valores de la diagonal de la matriz U tiene números 1 es una Descomposición de Crout.

Page 6: Solución de sistemas de ecuaciones lineales

Factorización de CholeskyFue descubierto por André-Louis Cholesky para matrices reales. Cuando es aplicable, la descomposición de Cholesky es aproximadamente dos veces más eficiente que la descomposición de LU para resolver sistemas de ecuaciones lineales. Puesto que al contrario de la Descomposición LU, no requiere de pivoteo.

El método de Factorización de Cholesky se basa en demostrar que si una matriz “A” es simétrica y definida positiva en lugar de factorizarse como LU, puede ser factorizada como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior, es decir los factores triangulares resultantes son la traspuesta de cada uno.

Page 7: Solución de sistemas de ecuaciones lineales

Factorización de QR, HouseholderFue introducida en 1958 por Alston Scott Householder.

La factorización QR de una matriz es una descomposición de la misma como producto de una matriz ortogonal por una triangular superior. La cual se usa ampliamente en los programas de computadora para determinar valores propios de una matriz, para resolver sistemas lineales y para determinar aproximaciones por mínimos cuadrados

Para encontrar las matrices Q y R se utiliza un método basado en Transformaciones Sucesivas de Householder.

Page 8: Solución de sistemas de ecuaciones lineales

Los métodos iterativos tienen la desventaja de que no se pueden aplicar, por lo menos de forma elemental, a cualquier sistema de ecuaciones Ax = B y tienen la ventaja de que son más eficaces para sistemas cuyo orden es superior a 1000

Métodos iterativos

Page 9: Solución de sistemas de ecuaciones lineales

Método de JacobiEl Método de Jacobi transforma una matriz simétrica en una matriz diagonal al eliminar de forma simétrica los elementos que están fuera de la diagonal. Desafortunadamente, el método requiere un número infinito de operaciones, ya que la eliminación de cada elemento no cero a menudo crea un nuevo valor no cero en el elemento cero anterior. Si A es diagonalmente dominante, entonces la sucesión que resulta de la iteración de Jacobi converge a la solución de Ax = b para cualquier vector inicial Xo. Partimos de una aproximación inicial Xo para las soluciones Xi al sistema de ecuaciones y sustituimos estos valores en la ecuación. Carl Gustav Jacob

Jacobi.

Page 10: Solución de sistemas de ecuaciones lineales

El Método de Gauss Seidel emplea valores iniciales y después itera para obtener estimaciones refinadas de la solución; es particularmente adecuado para un gran número de ecuaciones, lo cual en cierto modo lo hace un método más comúnmente usado. Es similar al método de Jacobi, pero observase que en el método de Gauss-Seidel los valores actualizados de xi sustituyen de inmediato a los valores anteriores, mientras que en el método de Jacobi todas las componentes nuevas del vector se calculan antes de llevar a cabo la sustitución. Por contra, en el método de Gauss-Seidel los cálculos deben llevarse a cabo por orden, ya que el nuevo valor xi depende de los valores actualizados de x1, x2, ..., x i-1. Es únicamente confiable para aquellos sistemas dominantes diagonalmente.

Método De Gauss Seidel