resumen (angel.d.garcia.p)

5
UNIVERSIDAD FERMÍN TORO VICERECTORADO ACADÉMICO SISTEMA DE APRENDIZAJE INTERACTIVO A DISTANCIA CABUDARE Resumen Alumno: Angel D. García P. CI: 20.501.660 Sección: SAIA-B Profesor: Domingo Méndez

Upload: angel-d-garcia-p

Post on 08-Jan-2017

218 views

Category:

Education


1 download

TRANSCRIPT

Page 1: Resumen (angel.d.garcia.p)

UNIVERSIDAD FERMÍN TORO

VICERECTORADO ACADÉMICO

SISTEMA DE APRENDIZAJE INTERACTIVO A DISTANCIA

CABUDARE

Resumen

Alumno: Angel D. García P.

CI: 20.501.660

Sección: SAIA-B

Profesor: Domingo Méndez

Page 2: Resumen (angel.d.garcia.p)

Métodos De Eliminación Gaussiana

El método de Gauss consiste en transformar un sistema de ecuaciones en otro

equivalente de forma que éste sea escalonado.

Obtenemos sistemas equivalentes por eliminación de ecuaciones dependientes. Si:

- Todos los coeficientes son ceros.

- Dos filas son iguales.

- Una fila es proporcional a otra.

- Una fila es combinación lineal de otras.

Ejemplo:

Indique porque las siguientes matrices no son escalonadas

Método de Gauss-Jordan

EL método de Gauss-Jordan, o algoritmo Gauss-Jordan nos sirve para lo siguiente: Si

tenemos un sistema de ecuaciones de la forma que aparece más adelante, para resolverlo, es

decir, decir cuáles son su solución o soluciones o si no tiene ninguna, podemos transformarlo

mediante operaciones elementales en uno más sencillo para resolver. Efectivamente el

algoritmo de Gauss-Jordan o método de escalonamiento nos transforma cualquier matriz en

una escalonada reducida única y que es la forma más sencilla de solucionar.

Ejemplo:

Sea A·X = B un sistema de m ecuaciones lineales con n incógnitas (sobre un cuerpo en

general), siendo m y n naturales (no nulos):

A·X = B es compatible si, y sólo si, rango( A ) = rango ( A | B ).

A·X = B es compatible determinado si, y sólo si, rango( A ) = n = rango( A | B ).

Page 3: Resumen (angel.d.garcia.p)

DESCOMPOSICIÓN LU

El paso de la eliminación que consume tiempo se puede reformular de tal manera que

involucre sólo operaciones sobre los coeficientes de [A].

Conveniente para situaciones donde se tienen que evaluar varias veces el vector [b],

para un mismo valor de [A].

El método de eliminación de Gauss se puede implementar como una descomposición

LU.

LU proporciona un medio eficiente para calcular la matriz inversa.

Ejemplo:

Descripción para resolver en dos pasos:

Descomposición LU: La matriz a ser factoriza o "descompone" en matrices triangular

inferior (L), y superior (U).

Factorización de Cholesky

Page 4: Resumen (angel.d.garcia.p)

Una matriz simétrica definida positiva puede ser descompuesta como el producto de

una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La matriz

triangular inferior es el triángulo de Cholesky de la matriz original positiva definida. El

resultado de Cholesky ha sido extendido a matrices con entradas complejas. Es una manera

de resolver sistemas de ecuaciones matriciales y se deriva de la factorización LU con una

pequeña variación.

Cuando se tiene una matriz a coeficientes reales, simétrica y definida positiva, entonces

se dispone de una factorización de tipo LU especial, donde U = LT. El método de Cholesky

es el que aprovecha la ventaja de la simetría de A para encontrar una matriz L tal que A = L

LT. Esta descomposición es única.

Si A = L LT, el sistema original A x = b se puede escribir como:

Método de Jacobi:

En análisis numérico el método de Jacobi es un método iterativo, usado para resolver

sistemas de ecuaciones lineales del tipo . El algoritmo toma su nombre del

matemático alemán Carl Gustav Jakob Jacobi. El método de Jacobi consiste en usar fórmulas

como iteración de punto fijo.

La sucesión se construye descomponiendo la matriz del sistema en la forma siguiente:

Donde:

, es una matriz diagonal.

, es una matriz triangular inferior.

, es una matriz triangular superior.

Page 5: Resumen (angel.d.garcia.p)

Método de Gauss-Seidel

Es un utilizado para resolver sistemas de ecuaciones lineales. Aunque este método

puede aplicarse a cualquier sistema de ecuaciones lineales que produzca una matriz

(cuadrada, naturalmente pues para que exista solución única, el sistema debe tener tantas

ecuaciones como incógnitas) de coeficientes con los elementos de su diagonal no-nulos, la

convergencia del método solo se garantiza si la matriz es diagonalmente dominante o si es

simétrica y, a la vez, definida positiva.

lo que significa que se parte de una aproximación inicial y se repite el proceso hasta

llegar a una solución con un margen de error tan pequeño como se quiera. Buscamos la

solución a un sistema de ecuaciones lineales, en notación matricial:

donde: