alisis erico

376

Upload: others

Post on 29-Jun-2022

15 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: alisis erico

Hans C. M�uller S.C.

Una Introducci�on

al

An�alisis Num�erico

Page 2: alisis erico

i

Hans C. M�uller S.C.

Una Introducci�on

al

An�alisis Num�erico

Con 55 �guras

Page 3: alisis erico

ii

Hans C. M�uller Santa Cruz

Departamento de Matem�aticas

Facultad de Ciencias y Tecnolog��a

Universidad Mayor de San Sim�on

Casilla 992, Cochabamba, Bolivia

e-mail [email protected]

Page 4: alisis erico

Pr�ologo

La Facultad de Ciencias y Tecnolog��a tiene 17 a~nos de vida, per��odo que

ha sido fruct��fero en el �ambito universitario, porque se han creado carreras

tecnol�ogicas, como cient���cas, haciendo �enfasis a una investigaci�on cient���ca

seria como un mecanismo de garantizar una excelencia acad�emica. La

Carrera de Matem�aticas, una de nuestras Carreras de reciente creaci�on, est�a

inscrita dentro este marco.

Ahora bien, la Universidad Mayor de San Sim�on consciente de esta

situaci�on, ha conseguido convenios de cooperaci�on internacional, como es

el caso del Programa MEMI, Programa de Mejoramiento de la Ense~nanza

de la Matem�atica y la Inform�atica. De los objetivos principales de este

programa es fortalecer el �area de las matem�aticas, incentivar la difusi�on de

las diferentes ramas de las matem�aticas en el medio universitario y fuera de

�este. La Universidad y sus autoridades, dentro de sus pol��ticas acad�emicas y

de investigaci�on, han tenido la visi�on de conseguir los servicios de los mejores

profesionales en esta disciplina y Hans M�uller es uno de ellos.

El autor del libro, Hans M�uller Santa Cruz, es un joven matem�atico bo-

liviano que ha regresado a su pa��s para compartir los conocimientos adquiri-

dos en en la Universidad de Ginebra, Suiza. Actualmente es el Coordinador

del Programa Magister en Matem�aticas, programa implementado de manera

conjunta entre la Universidad Mayor de San Sim�on y la Universidad Cat�olica

del Norte, Chile. Ha dictado un curso de Elementos Finitos, destinado a los

docentes en nuestra superior Casa de Estudios; en La Paz, bajo invitaci�on ha

impartido cursos tutoriales en la Academia de Ciencias en temas relaciona-

dos a las matem�aticas aplicadas. El y otros profesionales de su ar�ea, est�an

transformando la manera de hacer matem�aticas en la Facultad de Ciencias

y Tecnolog��a.

Los t�opicos tratados en este libro est�an muy relacionados con los cam-

bios estructurales que ha ocasionado la introducci�on masiva de sistemas in-

form�aticos. En efecto, la utilizaci�on m�asiva del computador ha permitido al

Hombre efectuar c�alculos que en otra �epoca hubiese sido impensable realizar-

los. En la actualidad es muy corriente simular num�ericamente experiencias,

que en laboratorio son muy complicadas, costosas o peligrosas, o simplemente

imposible de experimentarlas. Los problemas de optimizaci�on son abordables

gracias a la utilizaci�on del ordenador y no faltan situaciones en las cuales

el uso de estos dispositivos de c�alculo, no solamente son de gran ayuda,

sino indispensables. El An�alisis Num�erico es la rama de las Matem�aticas,

cuyo campo de acci�on es el estudio y an�alisis de los diferentes algoritmos

Page 5: alisis erico

iv Pr�ologo

y m�etodos num�ericos que se utilizan para resolver los problemas mediante

computadoras. El libro \Una Intruducci�on al An�alisis Num�erico" presenta

los temas b�asicos del An�alisis Num�erico de una manera rigurosa, permitiendo

que el lector pueda adquirir los conocimientos matem�aticos necesarios para

profundizar en t�opicos m�as especializados o simplemente pueda concebir e

implementar m�etodos num�ericos de una manera correcta y �optima.

Finalmente, mi esperanza es que este libro sea el inicio de una larga

serie de otras publicaciones de alto nivel que ofrezca el autor y su unidad

acad�emica.

Cochabamba, septiembre de 1996

Ing. Alberto Rodr��guez M�endez

Rector de la Universidad Mayor de San Sim�on

Page 6: alisis erico

Prefacio

Este libro nace ante el vacio existente de una bibliograf��a en espa~nol que

trate los temas capitales del An�alisis Num�erico. El nombre que lleva, \Una

Introducci�on al An�alisis Num�erico", se debe esencialmente al car�acter que

deseo que tenga este libro.

El An�alisis Num�erico es una disciplina de las Matem�aticas en gran

crecimiento gracias a la utilizaci�on masiva de medios inform�aticos. D��a que

pasa es m�as corriente el tratamiento num�erico en las Ciencias, como en

la Tecnolog��a; el modelaje, la simulaci�on num�erica son moneda corriente.

Ahora bien, toda persona que pretenda tener como herramienta de tra-

bajo, los m�etodos num�ericos, debe conocer los t�opicos introductorios del

An�alisis Num�erico que son: Sistemas Lineales, Interpolaci�on, Resoluci�on de

Ecuaciones no Lineales, C�alculo de Valores Propios y Soluci�on Num�erica de

Ecuaciones Diferenciales, porque tarde o temprano se topar�a con alguno de

estos temas.

Siguiendo la l��nea trazada por este libro, �este contiene siete cap��tulos: el

primero de car�acter introductorio, donde se da los conceptos b�asicos de error

y estabilidad, seguido de un ejemplo mostrando que la aritm�etica del punto

otante no es un impedimento para efectuar c�alculos de precisi�on arbitraria;

el segundo cap��tulo trata sobre los problemas lineales mas comunes y

los m�etodos de soluci�on de estos; el tercer cap��tulo aborda el tema de

interpolaci�on num�erica y extrapolaci�on, introduciendo el estudio de los

splines c�ubicos; el cap��tulo IV analiza los problemas no lineales y los m�etodos

mas e�cientes de resoluci�on de estos; en el cap��tulo V se estudia el problema

de valores propios y la implementaci�on de m�etodos num�ericos para el c�alculo

de valores propios; el cap��tulo sexto trata de la integraci�on num�erica y la

transformada r�apida de Fourier y �nalmente el cap��tulo VII estudia los

problemas diferenciales y los m�etodos num�ericos de resoluci�on mas usuales

de estos problemas.

Pr�acticamente el contenido de este libro ven los estudiantes de segundo

a~no de las Carreras de M�atematicas e Inform�atica de la Universidad de

Ginebra, Suiza, Universidad en la cual he sido formado. El pre-requisito

para un buen aprovechamiento de este libro es conocer bien los principios

b�asicos del An�alisis Real y Complejo, como tambi�en tener una buena base

de Algebra Lineal. Por consiguiente, este libro est�a destinado a estudiantes

universitarios que siguen la asignatura de An�alisis Num�erico, como as�� mismo

toda persona interesada en An�alisis Num�erico que tenga los pre-requisitos

y que desea cimentar sus conocimientos en esta disciplina. Este libro puede

Page 7: alisis erico

vi Prefacio

ser utilizado como texto base o bien como complemento bibliogr�a�co.

Debo agredecer a mis profesores de la Universidad de Ginebra, E. Hairer

y G. Wanner cuyos cursos han servido de base para la elaboraci�on de este

libro. Por otro lado, sin el apoyo en material de trabajo del Programa

MEMI, Programa de Mejoramiento de la Ense~nanza de las Matem�aticas e

Inform�atica, de la Universidad Mayor de San Sim�on este libro no habr��a

existido. As�� mismo agradezco a mi familia, mis colegas y amigos que

seguieron con inter�s la elaboraci�on de este libro.

El libro ha sido transcrito en TEX y las gr�a�cas realidas en las sub-

rutinas gr�a�cas FORTRAN que G. Wanner me las cedi�o muy gentilmente. La

transcripci�on, como la ejecuci�on de los programas en sido realizados sobre

una WorkStation HP-9000.

Posiblemente este libro contenga muchos errores, me gustar��a que los

hagan conocer, para que en una segunda edici�on estos sean corregidos.

Octubre, 1995 Hans C. M�uller S.C.

Page 8: alisis erico

Contenido

I. Preliminares

I.1 Algoritmos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 2

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 6

I.2 Estabilidad : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 8

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 14

I.3 Un ejemplo: C�alculo de PI : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 15

II. Sistemas Lineales

II.1 Condici�on del Problema Lineal : : : : : : : : : : : : : : : : : : : : : : : : : : 25

Normas de Vectores y Matrices : : : : : : : : : : : : : : : : : : : : : : : : : : : : 25

La Condici�on de una Matriz : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 29

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 33

II.2 M�etodos Directos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 35

El Algoritmo de Gauss : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 36

El Algoritmo de Cholesky : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 43

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 47

II.3 M�etodos Iterativos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 48

M�etodos de Jacobi y Gauss-Seidel : : : : : : : : : : : : : : : : : : : : : : : : : 48

El Teorema de Perron-Frobenius : : : : : : : : : : : : : : : : : : : : : : : : : : : 52

M�etodo de Sobrerelajaci�on SOR : : : : : : : : : : : : : : : : : : : : : : : : : : : 56

Estudio de un Problema Modelo : : : : : : : : : : : : : : : : : : : : : : : : : : : 59

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 64

II.4 M�etodos Minimizantes : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 66

M�etodo del Gradiente : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 68

M�etodo del Gradiente Conjugado : : : : : : : : : : : : : : : : : : : : : : : : : : 69

Polinomios de Chebichef : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 73

M�etodo del Gradiente Conjugado Precondicionado : : : : : : : : : 75

Resultados Num�ericos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 78

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 81

II.5 M��nimos Cuadrados : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 83

La descomposici�on QR : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 87

La Pseudo-Inversa de una Matriz : : : : : : : : : : : : : : : : : : : : : : : : : : 92

Error del M�etodo de los M��nimos Cuadrados : : : : : : : : : : : : : : : 96

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 101

Page 9: alisis erico

viii Contenido

III. Interpolaci�on

III.1 Interpolaci�on de Lagrange : : : : : : : : : : : : : : : : : : : : : : : : : : : : 104

Bases Te�oricas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 104

Construcci�on del Polinomio de Interpolaci�on : : : : : : : : : : : : : : 106

El Error de Interpolaci�on : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 111

Polinomios de Chebichef : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 113

Estudio de los Errores de Redondeo : : : : : : : : : : : : : : : : : : : : : : 115

Convergencia de la Interpolaci�on : : : : : : : : : : : : : : : : : : : : : : : : : 119

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 129

III.2 Splines C�ubicos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 131

Construcci�on del Spline Interpolante : : : : : : : : : : : : : : : : : : : : : : 133

El Error de la Aproximaci�on Spline : : : : : : : : : : : : : : : : : : : : : : : 136

Aplicaci�on de Spline : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 142

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 143

III.3 Extrapolaci�on : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 145

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 150

IV. Ecuaciones No Lineales

IV.1 Ecuaciones Polinomiales : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 152

Ecuaciones Resolubles por Radicales : : : : : : : : : : : : : : : : : : : : : : 152

Ecuaciones No Resolubles por Radicales : : : : : : : : : : : : : : : : : : 155

Localizaci�on de Ceros : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 155

M�etodo de Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 157

Sucesiones de Sturm : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 159

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 161

IV.2 M�etodos Iterativos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 163

Posici�on del Problema : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 163

M�etodo de la Falsa Posici�on : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 165

Sistema de Ecuaciones : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 168

Un M�etodo Iterativo Simple : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 169

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 173

IV.3 M�etodo de Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 174

El Teorema de Newton-Misovski : : : : : : : : : : : : : : : : : : : : : : : : : : 179

M�etodo de Newton Simpli�cado : : : : : : : : : : : : : : : : : : : : : : : : : : 184

M�etodo de Newton con Relajaci�on : : : : : : : : : : : : : : : : : : : : : : : : 193

Aproximaci�on de Broyden : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 197

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 199

IV.4 M�etodo de Gauss Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : 203

Convergencia del M�etodo de Gauss-Newton : : : : : : : : : : : : : : : 204

Modi�caciones del M�etodo de Gauss-Newton : : : : : : : : : : : : : 207

El M�etodo de Levenber-Marquandt : : : : : : : : : : : : : : : : : : : : : : : 210

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 211

Page 10: alisis erico

Contenido ix

V. C�alculo de Valores PropiosV.1 Teor��a Cl�asica y Condici�on del Problema : : : : : : : : : : 214

La Condici�on del Problema a Valores Propios : : : : : : : : : : : : : 217

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 221

V.2 Determinaci�on de Valores Propios : : : : : : : : : : : : : : : : : : : 223

El M�etodo de la Potencia : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 223

Formas Tridiagonales y Formas de Hessenberg : : : : : : : : : : : : 227

Teorema de Sturm y el Algoritmo de la Bisecci�on : : : : : : : : : 229

Generalizaci�on del M�etodo de la Potencia : : : : : : : : : : : : : : : : : 233

El M�etodo QR : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 237

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 241

VI. Integraci�on Num�erica

VI.1 Bases Te�oricas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 244

F�ormulas de Cuadratura : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 248

El Orden de una F�ormula de Cuadratura : : : : : : : : : : : : : : : : : 249

Estimaci�on del Error : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 250

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 256

VI.2 Cuadraturas de Orden Elevado : : : : : : : : : : : : : : : : : : : : : : 258

Polinomios Ortogonales : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 259

Los Polinomios de Legendre : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 263

Las F�ormulas de Cuadratura de Gauss : : : : : : : : : : : : : : : : : : : 264

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 267

VI.3 Implementaci�on Num�erica : : : : : : : : : : : : : : : : : : : : : : : : : : : : 269

Tratamiento de Singularidades : : : : : : : : : : : : : : : : : : : : : : : : : : : 273

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 282

VI.4 Transformaci�on de Fourier : : : : : : : : : : : : : : : : : : : : : : : : : : : : 284

Estudio del Error : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 287

Interpolaci�on Trigonom�etrica : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 288

Transformaci�on R�apida de Fourier FFT : : : : : : : : : : : : : : : : : : 290

Aplicaciones de FFT : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 292

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 293

VII. Ecuaciones Diferenciales

VII.1 Generalidades : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 296

Teoremas de Existencia y Unicidad : : : : : : : : : : : : : : : : : : : : : : : 297

Problemas con Valores en la Frontera : : : : : : : : : : : : : : : : : : : : : 300

Diferenciabilidad respecto a los Valores Iniciales : : : : : : : : : : 300

Simple Shooting : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 303

Shooting M�ultiple : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 307

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 311

Page 11: alisis erico

x Contenido

VII.2 M�etodo de Euler : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 313

Efectos de los Errores de Redondeo : : : : : : : : : : : : : : : : : : : : : : : 317

Estabilidad del M�etodo de Euler : : : : : : : : : : : : : : : : : : : : : : : : : 319

M�etodo de Euler Imp��cito : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 321

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 322

VII.3 M�etodos de Runge-Kutta : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 323

Construcci�on de un M�etodo de Orden 4 : : : : : : : : : : : : : : : : : : 327

M�etodos Encajonados : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 330

Soluciones Continuas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 333

Convergencia de los M�etodos de Runge-Kutta : : : : : : : : : : : : 335

Experiencias Num�ericas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 338

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 340

VII.3 M�etodos Multipasos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 341

M�etodos de Adams Expl��citos : : : : : : : : : : : : : : : : : : : : : : : : : : : : 341

M�etodos de Adams Impl��citos : : : : : : : : : : : : : : : : : : : : : : : : : : : : 343

M�etodos Predictor-Corrector : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 344

M�etodos BDF : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 345

Estudio del Error Local : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 346

Estabilidad : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 348

Convergencia de los M�etodos Multipaso : : : : : : : : : : : : : : : : : : 350

Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 353

Bibliograf��a : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 355

Indice de S��mbolos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 359

Indice Alfab�etico : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 361

Page 12: alisis erico

Cap��tulo I

Preliminares

Con la utilizaci�on masiva de sistemas inform�aticos en la resoluci�on de

problemas a todo nivel, el An�alisis Num�erico ha tenido un gran desarrollo en

las �ultimas d�ecadas, como una rama integrante de las Matem�aticas. En este

primer cap��tulo se expondr�a las nociones de base que sustentan el An�alisis

Num�erico, para ser utilizadas en los cap��tulos posteriores.

La primera secci�on estar�a dedicada a estudiar los algoritmos como

una composici�on de operaciones elementales, partiendo de un dispositivo

ideal de c�alculo. Se analizar�a las nociones de e�ciencia y error de un

algoritmo.

En la segunda secci�on se analizar�a el problema algor��tmico a partir

de los dispositivos materiales con que se cuenta en la actualidad, es decir

ordenadores o computadoras. En esta secci�on se estudiar�a la representaci�on

en punto otante de un n�umero real y su redondeo en la computadora. Se

introducir�a la noci�on de precisi�on de una computadora y la relaci�on de �esta

con el concepto de estabilidad, en sus diferentes versiones, de un algoritmo.

En la tercera y �ultima secci�on de este cap��tulo, se ver�a que las li-

mitaciones impuestas por la representaci�on en punto otante, no es una res-

tricci�on para calcular con la precisi�on que se requiera. Prueba de esto, � ser�a

calculado, como un ejemplo ilustrativo, con 10000 decimales de precisi�on.

Page 13: alisis erico

I.1 Algoritmos

En esta secci�on se supondr�a que se cuenta con un dispositivo ideal de c�alculo,

es decir una computadora de precisi�on exacta, situaci�on que no sucede en la

realidad. El cuerpo de base ser�a R, a menos que se especi�que lo contrario.

Este dispositivo est�a provisto de ciertas operaciones cuya acci�on se efectua

en un tiempo �nito, por ejemplo es capaz de realizar las 4 operaciones

aritm�eticas elementales, m�as algunas como la radicaci�on, la exponenciaci�on

y las otras funciones elementales que se estudian en un curso de C�alculo I.

Por consiguiente, se tiene la primera de�nici�on.

De�nici�on I.1.1.- Una operaci�on elemental es una operaci�on matem�atica

o funci�on cuya acci�on se la efectua en un tiempo �nito y que adem�as el

dispositivo ideal la puede realizar.

Inicialmente se supondr�a que las cuatro operaciones aritm�eticas

como: la adici�on, la multiplicaci�on, la sustracci�on y la divisi�on son posibles

en este dispositivo de c�alculo. De esta manera es posible evaluar toda

funci�on polinomial, toda funci�on racional, en una cantidad �nita de pasos o

composici�on de operaciones elementales.

De�nici�on I.1.2.- Un algoritmo es una sucesi�on �nita de operaciones

elementales. Si se denota por fi una operaci�on elemental, un algoritmo es la

composici�on de n operaciones elementales, es decir

f = fn � fn�1 � � � � � f2 � f1: (I:1:1)

Por otro lado, el dispositivo de c�alculo con el que se cuenta tiene la

�nalidad de evaluar la o las soluciones de un problema matem�atico, siempre

que sea posible hacerlo. Ahora bien, lo que cuenta en este estudio es el

resultado, de donde la:

De�nici�on I.1.3.- Un problema es darse un dato x 2 Rn y obtener un

resultado P(x) 2 R.

En consecuencia, son problemas todas las funciones cuyo dominio

es un espacio vectorial real de dimensi�on �nita, cuya imagen est�a incluida

en la recta real. Una funci�on cuya imagen est�a incluida en un espacio de

dimensi�on m�as grande que 1, puede ser interpretada como un conjunto de

problemas, donde cada problema es la funci�on proyecci�on correspondiente.

Las ecuaciones pueden ser vistas como problemas, pero antes aclarando cual

de las soluciones se est�a tomando.

Page 14: alisis erico

I.1 Algoritmos 3

Es necesario recalcar que problema y algoritmo son conceptos dife-

rentes, aunque de alguna manera ligados. Consid�erese el problema siguiente,

P(x) = anxn + an�1x

n�1 + � � �+ a1x+ a0: (I:1:2)

P(x) puede ser obtenido de muchas maneras, en particular utilzando los 2

siguientes algoritmos: El primero consiste en evaluar el polinomio (I.1.2) tal

como est�a de�nido, con la convenci�on que:

x1 = x;

xn = x � xn�1; para n � 2:

(I:1:3)

La segunda manera de evaluar el polinomio consiste en utilizar el algoritmo

de H�orner, el cual est�a dado por:

q0(x) = an;

q1(x) = q0(x)x + an�1;

q2(x) = q1(x)x + an�2;

...

qn(x) = qn�1(x)x + a0:

(I:1:4)

Como puede observarse ambos algoritmos eval�uan el polinomio P(x), sinembargo en el primero se requiere: 1 + � � � + n � 1 multiplicaciones para

evaluar las potencias, n multiplicaciones para evaluar los t�erminos de la

forma aixi y �nalmente n adiciones, lo cual hace un total de

n(n+ 3)

2operaciones elementales. (I:1:5)

El algoritmo de H�orner requiere a cada paso de una multiplicaci�on y una

adici�on lo cual es igual a

2n operaciones elementales. (I:2:6)

Por lo tanto, puede observarse claramente que el algoritmo de H�orner es

m�as e�ciente que el primero, pues la implementaci�on de �este efectua menos

operaciones elementales.

El concepto de e�ciencia de un algoritmo est�a ligado por consi-

guiente al costo en operaciones elementales que se requiere para ejecutar

un algoritmo. Ahora bien, en la realidad una computadora requiere menos

tiempo para evaluar una adici�on que para una multiplicaci�on. Cada ope-

raci�on elemental toma cierto tiempo en efectuarse, que en general depende

de la computadora y el lenguaje en el que est�a escrito el programa. Es

Page 15: alisis erico

4 I Preliminares

por eso, que es m�as conveniente medir la e�ciencia en t�erminos de tiempo

ejecutado, en lugar del n�umero de operaciones elementales ejecutadas. Con

lo argumentado se puede formular una primera de�nici�on de e�ciencia.

De�nici�on I.1.4.- El costo del algoritmo fn � � � � � fn, est�a dado por

C = m1 +m2 + : : :+mn; (I:1:7)

donde mi es el tiempo de ejecuci�on de fi. Si C1 y C2 son los costos en tiempo

de dos algoritmos que resuelven el mismo problema, se dir�a que el primer

algoritmo es m�as e�ciente que el segundo si C1 � C2.

Tal como se dijo al inicio de esta secci�on, el dispositivo ideal con

el que se cuenta, puede efectuar una cantidad �nita de operaciones elemen-

tales. Suponiendo nuevamente, que solamente se cuenta con las cuatro ope-

raciones aritm�eticas, las �unicas funciones que pueden evaluarse utilizando

un algoritmo son las funciones polinomiales y racionales. Ahora bien, existe

una cantidad ilimitada de funciones y se puede mostrar que no existe ning�un

algoritmo que sea la composici�on de adiciones, multiplicaciones, sustrac-

ciones o divisiones, que permita calcular una raiz cuadrada; evaluar funciones

trigonom�etricas, exponenciales o logar��tmicas. Sin embargo, existen proce-

dimientos matem�aticos que permiten aproximar estas funciones de manera

arbitraria. Los m�as com�unmente utilizados: son las series de Taylor, las frac-

ciones continuas y algunos m�etodos iterativos. Todos estos m�etodos est�an

sustentados en las nociones de l��mite, de continuidad, derivabilidad dados

en los cursos de C�alculo y An�alisis.

A continuaci�on se ver�a un ejemplo ilustrativo, donde se introducir�a

la noci�on del error de truncaci�on. Consid�erese la funci�on exponencial, cuyo

desarrollo en serie de Taylor est�a dada por

ex =

1Xk=0

xk

k!: (I:1:8)

Es evidente que ex no puede evaluarse en un n�umero �nito de pasos, para

un x dado, sin embargo en lugar de evaluar ex, uno se puede contentar

evaluando una cantidad �nita de t�erminos de la serie de Taylor, es decir

p(x) =

nXk=0

xk

k!; (I:1:9)

para un n �jado de antemano. La diferencia entre ex y p(x) es el error

de truncaci�on de ex respecto a p(x). Este error de truncaci�on es del orden

O(xn+1) cuando x tiende a 0. El nombre de truncaci�on proviene del hecho

que para evaluar ex se ha despreciado una parte de la serie. Por consiguiente,

el error de truncaci�on puede de�nirse como:

Page 16: alisis erico

I.1 Algoritmos 5

De�nici�on I.1.5.- Sean P(x), P 0(x) dos problemas. El error de truncaci�onde P(x), respecto de P 0(x) est�a dado por

P(x)�P 0(x): (I:1:10)

El nombre que tiene este error, como se dijo m�as arriba, es debido

a que la la serie de Taylor es truncada a un n�umero �nito de t�erminos.

No obstante, existe una gran diversidad de m�etodos que aproximan a la

soluci�on del problema utilizando otro tipo de argumentos, en este caso es

m�as conveniente utilizar el nombre de error de aproximaci�on o error del

m�etodo; de todas formas es cuesti�on de gusto.

El concepto de e�ciencia ha sido de�nido para aquellos problemas

donde se puede encontrar la soluci�on mediante un algoritmo. Para aquellos

problemas, donde no es posible encontrar un algoritmo que de la soluci�on y

suponiendo que es posible aproximar la soluci�on de manera arbitraria me-

diante un m�etodo algor��tmico, la e�ciencia est�a ligada al costo en opera-

ciones, como tambi�en al error del m�etodo. En esta situaci�on la e�ciencia es

un concepto m�as subjetivo que depende de alguna manera del usuario, pues

existen problemas donde el error de aproximaci�on debe ser lo m�as peque~no

posible, y otros problemas donde la exactitud no es un requisito primordial.

Ejemplos

1.- Consid�erese el problema, determinar �. Utilizando la identidad

arctan 1 =�

4

y que la serie de Taylor en el origen est�a dada por

arctanx =

1Xk=0

(�1)k2k + 1

x2k+1

; (I:1:11)

se puede obtener un m�etodo que aproxime �, pero el problema de este

m�etodo es su convergencia demasiado lenta; es mas, para x = 1 la serie

(I.1.11) no es absolutamente convergente.

Otro m�etodo que permitir��a aproximar �, consiste en utilizar el hecho

que

arccos(1=2) =�

3y desarrollando arccos en serie de Taylor, se obtiene un m�etodo cuya

convergencia es mucho m�as r�apida.

2.- Consid�erese el problema, determinarp2. La primera manera de determi-

narp2 es tomar un intervalo cuya extremidad inferior tenga un cuadrado

inferior a 2 y la extremidad superior tenga un cuadrado m�as grande a 2.

Se subdivide el intervalo en dos subintervalos de igual longitud, se elige

aquel cuyas extremidades al cuadrado contengan 2. En la tabla siguiente

se da algunas de las iteraciones de este m�etodo.

Page 17: alisis erico

6 I Preliminares

Iteraci�on Ext. Inferior Ext. Superior

0 1.0 1.5

1 1.25 1.5

2 1.375 1.5

3 1.375 1.4375

4 1.40625 1.4375

5 1.40625 1.421875

16 1.41420745849609 1.41421508789063

17 1.41421127319336 1.41421508789063

18 1.41421318054199 1.41421508789063

19 1.41421318054199 1.41421413421631

20 1.41421318054199 1.41421365737915

La segunda posibilidad es utilizar la sucesi�on de�nida recursivamente

por:a0 = 1;

an+1 =1

2an +

1

an

:

Esta sucesi�on es convergente y se deja al lector la demostraci�on para

que veri�que que el l��mite esp2. En la tabla siguiente se tiene los seis

primeros t�erminos de la sucesi�on. Efectuando unas cuantas iteraciones

se obtiene:Iteraci�on an

0 1.0

1 1.5

2 1.41666666666667

3 1.41421568627451

4 1.41421356237469

5 1.4142135623731

Puede observarse inmediatamente, que el segundo m�etodo para determinarp2 es m�as e�ciente que el primer algoritmo.

Ejercicios

1.- Sup�ongase que, el dispositivo de c�alculo, con el que se cuenta, puede

efectuar la divisi�on con resto; es decir, para a; b enteros no negativos,

con b 6= 0, el dispositivo calcula p; q satisfaciendo:

a = pb+ r y 0 � r < b:

a) Implementar un algoritmo que calcule el maximo com�un divisor de a

y b.

b) Utilizando el inciso precedente, implementar otro algoritmo que

permita calcular m;n 2 Z, tales que

mcd(a; b) = ma+ nb:

Page 18: alisis erico

I.1 Algoritmos 7

c) Estudiar la situaci�on m�as desfavorable, aqu�ella donde el costo en

operaciones es el m�as alto. Deducir una estimaci�on de la e�ciencia del

algoritmo.

2.- Suponiendo que, el dispositivo de c�alculo puede efectuar la divisi�on con

resto, con la particularidad siguiente:

a = pb+ r y � jbj2< r � jbj

2:

a) Mostrar que el algoritmo implementado en el ejercicio 1a), puede

implementarse para esta nueva divisi�on con resto.

b) Veri�car que, el nuevo algoritmo es m�as e�ciente que aqu�el con di-

visi�on con resto normal. Encontrar una estimaci�on de costo del algoritmo.

3.- Para el polinomio p(x) = a0 + a1x+ � � �+ anxn, el algoritmo de H�orner

(I.1.9) est�a de�nido por:

bn = an;

bi = ai + x0bi+1; i = n� 1; : : : ; 1; 0:

Se plantea q(x) = b1 + xb2 + � � �+ xn�1

bn.

a) Mostrar que p0(x0) = q(x0). Veri�car que p(x) = b0 + (x� x0)q(x).

b) Generalizar el algoritmo de H�orner, de tal forma que se pueda calcular

p(x0) y p0(x0) al mismo tiempo.

4.- Una regla y comp�as constituyen un dispositivo de c�alculo. Sup�ongase

que se conocen dos puntos O y P tales que OP sea de longitud 1.

a) Mostrar que, adem�as de las 4 operaciones aritm�eticas elementales, la

radicaci�on puede obtenerse a partir de un n�umero �nito de manipula-

ciones de regla y comp�as.

b) Construirp1 +p10.

c) Intentar construir 3p2. >Es posible?

Page 19: alisis erico

I.2 Estabilidad

En esta secci�on, a diferencia de la precedente, se analizar�a el problema de los

algoritmos y m�etodos num�ericos desde el punto de vista de un dispositivo

material real, m�as conocido como computadora. Para comenzar existen

esencialmente dos tipos de n�umeros en la aritm�etica de un ordenador: el tipo

entero cuya aritm�etica es igual a la de los num�eros enteros, con la diferencia

que el tipo entero de un ordenador es un conjunto �nito, motivo por el cual

se tiene que tener cuidado con los over ows en las operaciones aritm�eticas; el

segundo tipo de n�umero es el real, en sus diferentes versiones, la idea de este

tipo de n�umero es la representaci�on de un n�umero real en punto otante, es

decir todo n�umero real no nulo x se puede escribir de manera �unica como

x = a � 10b; donde jaj < 1; b 2 Z; (I:2:1)

a se llama mantisa y b el exponente. Los n�umeros reales solo tienen una

representaci�on parcial en el tipo real de un ordenador por limitaciones f��sicas

del dispositivo, por consiguiente un n�umero real estar�a en una clase de

equivalencia de tipo de n�umero real. Esta representaci�on de n�umero real

est�a dada por la precisi�on de la computadora.

Cuando se trabaja sobre un computador, se tiene a disposici�on

un n�umero �nito de cifras, por ejemplo l, para la mantisa, Si �a denota el

redondeado de a, se trabaja en realidad con

arr(x) = �a � 10b (I:2:2)

en lugar de x. De esta manera, el n�umerop2 = 1:414213562 : : : est�a

representado por

arr(p2) = 0:141421356 � 101;

si se calcula con l = 8 cifras en base 10.

Como se dijo m�as arriba, el redondeo est�a determinado por la

precisi�on de la computadora. Esta precisi�on est�a dada por un n�umero dado

por la:

De�nici�on I.2.1.- Se denota por eps, el n�umero positivo m�as peque~no tal

que

arr(1 + eps) > 1: (I:2:3)

Este n�umero eps llamado precisi�on de la computadora est�a dado por

los siguientes hechos: si los c�alculos se hacen en base 10 y con l cifras en la

Page 20: alisis erico

I.2 Estabilidad 9

mantisa, se tiene

arr(0: 10 : : : 0| {z }l

49 : : : � 101) = 1;

arr(0: 10 : : : 0| {z }l

50 : : : � 101) = : 10 : : :1| {z }l

�101 > 1;

deduciendose, por consiguiente

eps = 5:10�l; (I:2:4)

si se realiza el mismo c�alculo en base 2, como todas las computadoras lo

hacen, se obtiene

eps = 2�l: (I:2:5)

Para el FORTRAN sobre una HP-9000, se tiene:

REAL�4; eps = 2�24 � 5:96 � 10�8;REAL�8; eps = 2�55 � 1:39 � 10�17;REAL�16; eps = 2�113� 9:63 � 10�35:

Ahora bien, un n�umero real y su representaci�on en punto otante

en una computadora est�an relacionados por el:

Teorema I.2.2.- Para x 6= 0, se tiene

jarr(x) � xjjxj � eps: (I:2:6)

Demostraci�on.- Sea x = a � 10b y arr(x) = �a � 10b. Si se redondea a l cifrassigni�cativas se tiene

j�a� aj � 5 � 10�l�1;

de donde

jarr(x) � xjjxj =

j�a� aj � 10b

jaj � 10b� 5:10�l�1

10�1= 5 � 10�l = eps

por que jaj � 1=10: �

La estimaci�on dada por (I.2.6) puede ser escrita bajo la forma

arr(x) = x(1 + �); donde j�j � eps: (I:2:7)

Como se ver�a m�as adelante, la relaci�on (I.2.7) es la base fundamental para

todo estudio de los errores de redondeo.

Page 21: alisis erico

10 I Preliminares

Cuando se trabaja en un computador, se tiene que ser cuidadoso en

la soluci�on de los problemas, pues ya no se resuelve con los datos exactos, si

no con los datos redondeados. Consid�erese la ecuaci�on de segundo grado

x2 � 2

p2x+ 2 = 0;

cuya soluci�on x =p2 es un cero de multiplicidad 2. Resolviendo en simple

precisi�on, la computadora da un mensaje de error, debido a que

arr(p2) = 0:141421 � 10;

arr(arr(p2)2 � 2) = �0:119209 � 10�6:

Como puede observarse, la manipulaci�on de ciertos problemas utilizando la

aritm�etica del punto otante puede ocasionar grandes di�cultades, como en

el ejemplo anterior. Es por eso necesario introducir el concepto de condici�on

de un problema, el cual est�a dado en la:

De�nici�on I.2.3.- Sea P(x) un problema dado por P : Rn ! R. La

condici�on � del problema P es el n�umero mas peque~no positivo �, tal que

j�xi � xijjxij

� eps ) jP(�x)�P(x)jjP(x)j � � eps: (I:2:8)

Se dice que el problema P es bien condicionado si � no es demasiado grande,

sino el problema es mal condicionado.

En la de�nici�on, eps representa un n�umero peque~no. Si eps es la

precisi�on de la computadora entonces �xi puede ser interpretado como el

redondeo de xi. Por otro lado, es necesario resaltar que � depende solamente

del problema, de x y no as�� del algoritmo con el que se calcula P(x). Paracomprender m�as sobre la condici�on de un problema se analizar�a los siguientes

dos ejemplos.

Ejemplos

1.- Multiplicaci�on de dos n�umeros reales. Sean x1 y x2 reales, consid�erese el

problema calcular P(x1; x2) = x1 � x2. Para los dos valores perturbados

�x1 = x1(1 + �1); �x2 = x2(1 + �2); j�ij � eps; (I:2:9)

se obtiene

�x1 � �x2 � x1 � x2x1 � x2

= (1 + �1)(1 + �2)� 1 = �1 + �2 + �1 � �2:

Puesto que eps es un n�umero peque~no, el producto �1: ��2 es despreciablerespecto a j�1j+ j�2j, de donde���� �x1 � �x2 � x1 � x2

x1 � x2

���� � 2 � eps: (I:2:10)

Page 22: alisis erico

I.2 Estabilidad 11

Por consiguiente, � = 2. El problema es bien condicionado.

2.- Adici�on de numeros reales. Para el problema P(x1; x2) = x1 + x2, por

analog��a al ejemplo precedente, se obtiene���� (�x1 + �x2)� (x1 + x2)

x1 + x2

���� = ����x1�1 � x2�2

x1 + x2

���� � jx1j+ jx1jjx1 + x2jeps: (I:2:11)

Si x1 y x2 son de signos iguales, se tiene � = 1, de donde el problema es

bien condicionado.

Pero, si x1 � �x2, la condici�on � =jx1j+ jx1jjx1 + x2j

se convierte en

una cantidad muy grande. Motivo por el cual el problema est�a mal

condicionado. Para mejor ilustrar el efecto de condici�on muy grande,

consid�erese el siguiente ejemplo num�erico.

x1 =1

51; x2 = �

1

52; para el cual � � 2=50

(1=50)2= 100:

Realizando el c�alculo con 3 cifras signi�cativas en base 10, se obtiene

�x1 = :196 � 10�1, �x2 = �:192 � 10�1 y �x1 + �x2 = :400 � 10�1. Como las

dos primeras cifras son las mismas para �x1 y x2, la adici�on las ha hecho

desaparecer y no hay m�as que una cifra que es signi�cativa. El resultado

exacto es 1=(51 � 52) = 0:377 � 10�3.Respecto a la de�nici�on de condici�on, se debe observar dos situa-

ciones. La primera, si uno de los xi = 0, entonces se tiene �xi = 0; la segunda

sucede cuando P(x) = 0, la condici�on se la calcula pasando al l��mite.

Una vez de�nida la condici�on de un problema, el siguiente paso es

ver la incidencia que tienen los errores de redondeo en la implementaci�on de

un algoritmo para resolver un problema dado. Tal como se dijo en la secci�on

precedente, un algoritmo es una sucesi�on �nita de operaciones elementales,

es decir

P(x) = fn(fn�1(: : : f2(f1(x)) : : :)): (I:2:12)

La ampli�caci�on del error, efectuando la operaci�on fi, est�a dada por la

condici�on �(fi). Por consiguiente:

Proposici�on I.2.4.- El algoritmo que resuelve el problema dado por

(I.2.12), tiene la estimaci�on siguiente

�(P) � �(f1) � �(f2) � � ��(fn): (I:2:13)

Demostraci�on.- Por inducci�on sobre n. Para n = 1, el resultado es trivial.

Sup�ongase, que es cierto para n, por lo tanto, si el problema es de la forma

P(x) = fn+1(fn(fn�1(: : : f2(f1(x)) : : :)));

Page 23: alisis erico

12 I Preliminares

puede escribirse como

P(x) = fn+1(P 0(x));

utilizando la de�nici�on de condici�on se tiene

jP 0(x)�P 0(�x)jjP 0(x)j � �(P 0)eps

) jfn+1(P 0(x)) � fn+1(P 0(�x))jjfn+1(P 0(x))j

� �(fn+1)�(P 0)eps:

Finalmente utilizando la hip�otesis de inducci�on, se tiene (I.2.13). �

De�nici�on I.2.5.- Un algoritmo es num�ericamente estable, en el sentido de

forward analysis, si

�(f1) � �(f2) � � ��(fn) � Const � �(P) (I:2:14)

donde Const no es demasiado grande.

La f�ormula (I.2.14) expresa el hecho de que la in uencia de los

errores de redondeo durante el c�alculo de P(x) no es mucho m�as grande

que la in uencia de los errores en los datos, lo que en realidad es inevitable.

Ejemplo

Sea x = 104 y consid�erese el problema de calcular 1=(x(1 + x)). Se

examinar�a los dos algoritmos siguientes: El primero de�nido por

x% &x x(x+ 1) �! 1

x(x + 1):

& %x+ 1

Las operaciones efectuadas son muy bien condicionadas, por consiguien-

te, este algoritmo es num�ericamente estable.

El segundo algoritmo de�nido por

1=x% &

x

1

x

� 1

x+ 1=

1

x(x + 1):

& %x+ 1 �! 1=(x+ 1)

En este algoritmo, solamente las tres primeras operaciones son bien

condicionadas. Sin embargo la �ultima operaci�on, la sustracci�on, es muy

Page 24: alisis erico

I.2 Estabilidad 13

mal condicionada, porque 1=x � 1=(x + 1). Entonces, este algoritmo es

num�ericamente inestable.

La veri�caci�on, si un algoritmo es estable en el sentido de forward

analysis, sobre todo si el n�umero de operaciones es elevado, es a menudo

muy compleja y di�cil. Por esta razon, Wilkinson introduj�o otra de�nici�on

de la estabilidad de un algoritmo.

De�nici�on I.2.6.- Un algoritmo para resolver el problema P(x) es num�eri-camente estable en el sentido de backward analysis si el resultado num�erico �y

puede ser interpretado como un resultado exacto para los datos perturbados

�x, es decir �y = P(�x), y si

j�xi � xijjxij

� Const � eps; (I:2:15)

donde Const no es demasiado grande y eps es la precisi�on de la computadora.

De la de�nici�on I.2.6 y (I.2.15) se deduce que, en el estudio de este tipo

de estabilidad no se requiere conocer de antemano la condici�on del problema.

Ejemplo

Consid�erese el problema de calcular el producto escalar x1 � x2 + x3 � x4.Para calcular �este, se utiliza el algoritmo

x1 � x2% &(x1; x2; x3; x4) x1 � x2 + x3 � x4:

& %x1 � x2

(I:2:16)

El resultado num�erico bajo la in uencia de los errores de redondeo es�x1(1 + �1) � x2(1 + �2)(1 + �1) + x3(1 + �3) � x4(1 + �4)(1 + �2)

�(1 + �3);

donde j�ij ; j�j j � eps. Este resultado es igual a �x1 � �x2 + �x3 � �x4, si seplantea

�x1 = x1(1 + �1)(1 + �1);

�x2 = x2(1 + �2)(1 + �3);

�x3 = x3(1 + �3)(1 + �2);

�x4 = x4(1 + �4)(1 + �3):

Despreciando los productos de la forma �i � �j , la relaci�on (I.2.15) es

satisfecha con Const = 2. Por lo tanto, el algoritmo (I.2.16) siempre es

num�ericamente estable en el sentido de backward analysis.

El ejemplo precedente muestra que un algoritmo puede ser estable,

incluso si el problema est�a mal condicionado. En consecuencia, es necesario

bien distinguir las nociones de estabilidad y condici�on.

Page 25: alisis erico

14 I Preliminares

Ejercicios

1.- >Cual es la condici�on de la sustracci�on de dos n�umeros?

2.- Determinar la condici�on del problema P(x1; x2) = x1=x2 con x2 6= 0.

3.- Hallar la condici�on del c�alculo del producto escalar

hx; yi =nXi=1

xiyi:

4.- Mostrar que el sistema lineal(ax+ by = 1

cx+ dy = 0; con ad 6= bc

es num�ericamente estable en el sentido de backward analysis.

5.- Las raices del polinomio x2 � 2px� q = 0 son:

�1 = p+pp2 + q; �2 = p�

pp2 + q:

Mostrar que para p > 0, grande, y q � 0, muy peque~no, este algoritmo

es num�ericamente inestable. Utilizando la relaci�on �1�2 = q, encontrar

un algoritmo que es num�ericamente estable en el sentido de backward

analysis.

Page 26: alisis erico

I.3 Un ejemplo: C�alculo de Pi

En las secci�on precedente se ha visto que el dispositivo material que efectua

los c�alculos num�ericos tiene en general dos tipos de n�umeros: los enteros

que se asemejan mucho a los enteros matem�aticos y el tipo real que es

una representaci�on del n�umero real. Tal como se mostr�o, ambos tipos de

n�umero presentan ciertas particularidades, por ejemplo son en cantidad

�nita, para el tipo real existe el redondeo de los n�umeros. Por consiguiente

si se utiliza el tipo real para determinar �, se tendr�a una precisi�on de

8 decimales; para doble precisi�on se obtendra 16 decimales de precisi�on;

para cuadruple precisi�on, que algunos lenguajes de programaci�on cuentan,

se obtendr�a 32 decimales de precisi�on. Por lo tanto, la precisi�on para obtener

� est�a determinada por el lenguaje de programaci�on y en algunos casos por

el tipo de computadora con que se cuenta.

En esta secci�on se pretende mostrar que estas limitaciones no constituyen

necesariamente un impedimento para determinar un n�umero, en particular

�, con la precisi�on que se desee.

Una de las maneras m�as usuales de determinar � es utilizar el desarrollo

en serie de Taylor en el origen de arctanx, el cual est�a dado por

arctanx =

1Xk=0

(�1)k2k + 1

x2k+1

: (1:3:1)

De (I.3.1) se deduce, para x = 1, que

� = 4

1Xk=0

(�1)k2k + 1

: (I:3:2)

Como se recalc�o en la secci�on I.2, utilizar la serie (I.3.2) no es conveniente,

por que la convergencia de esta serie es muy lenta. Utilizando la relaci�on

tan(� + �) =tan�+ tan�

1� tan� tan�;

una veri�caci�on inmediata conduce a

4= 12 arctan

1

18+ 8 arctan

1

57� 5 arctan

1

239: (I:3:3)

Remplazando (I.3.1) en (I.3.3), da como resultado

Page 27: alisis erico

16 I Preliminares

� = 48

1Xk=0

(�1)k2k + 1

(1

18)2k+1

| {z }A

+32

1Xk=0

(�1)k2k + 1

(1

57)2k+1

| {z }B

� 201Xk=0

(�1)k2k + 1

(1

239)2k+1

| {z }C

: (I:3:4)

Ahora bien, se desea obtener una representaci�on de � en notaci�on decimal

con N decimales de precisi�on. Si cada serie del lado derecho de (I.3.4) es

calculada con una precisi�on de 10�(N+1) se tiene largamente la precisi�on

deseada. Denotando por A, el valor calculado de A; B, el valor calculado de

B y C , el valor calculado de C, se tiene:

A = 48

MAXk=0

(�1)k2k + 1

(1

18)2k+1

;

B = 32

MBXk=0

(�1)k2k + 1

(1

57)2k+1

;

C = 20

MCXk=0

(�1)k2k + 1

(1

239)2k+1

:

De donde:

���A�A

��� = 48

�����1X

k=MA+1

(�1)k2k + 1

(1

18)2k+1

����� � 48(1=18)2MA+3

1� (1=18)2;

���B �B

��� = 32

�����1X

k=MB+1

(�1)k2k + 1

(1

57)2k+1

����� � 32(1=57)2MB+3

1� (1=57)2;

���C � C

��� = 20

�����1X

k=MC+1

(�1)k2k + 1

(1

239)2k+1

����� � 20(1=239)2MC+3

1� (1=239)2:

Por hip�otesis, se tiene por ejemplo que���A� A

��� � 10�(N+1), por lo tanto

para asegurar esta precisi�on es su�ciente que

48(1=18)2MA+3

1� (1=18)2� 10�(N+1)

;

remplazando el signo � por =, se tiene

48(1=18)2MA+3

1� (1=18)2= 10�(N+1)

; (I:3:5)

Page 28: alisis erico

I.3 Un ejemplo: C�alculo de Pi 17

obteniendo de esta manera

log10(48)� (2MA + 3) log10(18)� log10(1� (1=18)2) = �(N + 1):

Despejando MA, se obtiene

MA =N + 1 + log10(48)� 3 log10(18) + (1=18)2

2 log10(18): (I:3:6)

Del mismo modo se llega a:

MB =N + 1 + log10(32)� 3 log10(57) + (1=57)2

2 log10(57); (I:3:7)

MC =N + 1 + log10(20)� 3 log10(239) + (1=239)2

2 log10(239): (I:3:8)

Una vez determinada la cantidad de t�erminos en cada serie para calcular

A, B y C, es necesario de�nir una representaci�on de los n�umeros reales y

su respectiva aritm�etica que permita calcular A, B y C con la precisi�on

requerida.

Sea b > 1, entonces todo n�umero positivo x se escribe de manera �unica

como

x =

1Xk=0

ak

1

bk; (I:3:9)

donde 0 � ak < b para k � 1. Suponiendo que b = 10m, para obtener una

representaci�on de x con N decimales de precisi�on, es su�ciente conocer akpara 0 � k � N=m+ 2. Se suma 2 a la cota anterior por seguridad. Por lo

tanto, para todo n�umero positivo x,el redondeado x con N cifras decimales

de precisi�on puede escribirse como

x =

N=m+2Xk=0

�ak=10mk

; (I:3:10)

con 0 � �ak < 10m para k � 1. Comparando (I.3.9) con (I.3.10) se tiene

que ak = �ak para 0 � k � N=m + 1 y jak � �akj � 1 para k = N=m + 2,

deduciendose de esta manera la:

Proposici�on I.3.1.- Sea x un n�umero no negativo y �x su representaci�on

dada por (I.3.10), entonces

jx� xj � 10�(N+2m): (I:3:11)

Page 29: alisis erico

18 I Preliminares

Con los elementos presentados, se est�a en la capacidad de formular un

algoritmo que permita calcular A, B, y C; por razones obvias el algoritmo

ser�a el mismo. Por consiguiente, es su�ciente dar el m�etodo que permita

calcular A con la precisi�on requerida. De la f�ormula (I.3.4) se puede observar

que las operaciones efectuadas son adiciones o sustracciones, divisiones por

expresiones de la forma (2k+1) y divisiones por 18 o 182. La aritm�etica ser�a

consiguientemente de�nida en tres pasos o �etapas.

El primer paso ser�a de�nir la division por un entero p. Sea x un real

positivo, su redondeo se escribe como en (I.3.10), por consiguiente x=q

redondeado se escribe

bxq

=

N=m+2Xk=0

bk=10mk

; (I:3:12)

donde los bk se los de�ne de manera recursiva, utilizando la divisi�on

euclidiana, as��:

a0 = b0q + r0;

a1 + r0 � 10m = b1q + r1;

...

aN=m+2 + rN=m+1 � 10m = bN=m+2 + rN=m+2:

(I:3:13)

El segundo paso ser�a de�nir la adici�on y la sustracci�on para dos reales

positivos x y y. Si se denota los redondeados por x y y, sus representaciones

en punto �jo est�an dadas por:

x =

N=m+2Xk=0

ak=10mk

; y =

N=m+2Xk=0

bk=10mk

:

La suma redondeada se escribe por lo tanto

[x� y =

N=m+2Xk=0

ck=10mk

; (I:3:14)

donde los ck est�an de�nidos recursivamente, utilizando la divisi�on eu-

clidiana, por:

cN=m+2 + dN=m+210m = aN=m+2 � bN=m+2;

cN=m+1 + dN=m+110m = aN=m+1 � bN=m+1 + dN=m+2;

...

c0 = a0 � b0 + d1:

(I:3:15)

El tercer paso ser�a de�nir la multiplicaci�on de un real positivo con un

entero q. Sea el productovskip-3pt

cqx =

N=m+2Xk=0

bk=10mk

; (I:3:16)

Page 30: alisis erico

I.3 Un ejemplo: C�alculo de Pi 19

donde x est�a dado por (I.3.10), los coe�cientes bk est�an de�nidos recursiva-

mente, utilizando la divisi�on euclidiana, de la manera siguiente:

qaN=m+2 = bN=m+2 + dN=m+210m;

qaN=m+1 + dN=m+2 = bN=m+1 + dN=m+110m;

...

b0 = qa0 + d1:

(I:3:17)

Habiendo de�nido las operaciones requeridas para calcular � con la

precisi�on requerida, se puede de�nir el algoritmo que calcular�a A, y por

consiguiente �.

Algoritmo

1.- Se de�ne x := 1=18, a = x, k = 0.

2.- Hacer para k = 1 hasta k =MA:

x := x=182;

y := x=(2k + 1);

a; = a+ (�1)ky:

3.- a := 48 � a.Finalmente, se debe hacer un an�alisis de la propagaci�on de errores de

redondeo, cometidos en el c�alculo de A, para asegurar que el resultado que

de la computadora corresponde con lo esperado. Este estudio se lo efectuar�a

en tres partes. Sea x2k+1 el resultado realizado por el algoritmo al calcular

x2k+1 para x = 1=18. Utilizando la proposici�on I.3.1, se tiene,

x = x+ �; j�j � 10�N�2m : (I:3:18)

deduciendose inmediatamente:

x3 = (x+ �)=182 + �;

x5 = x

3=182 + �;

...

(I:3:19)

Utilizando desigualdades triangulares y considerando series geom�etricas, se

obtiene ��x2k+1 � x

2k+1�� � 1

1� (1=18)210�N�2m: (I:3:20)

La segunda operaci�on, que aparece en el algoritmo, es la divisi�on por los

enteros de la forma 2k+1. Por el mismo procedimiento que antes, se llega a��� \x2k+1

=(2k + 1)� x2k+1

=(2k + 1)��� � 2 � 10�N�2m: (I:3:21)

Page 31: alisis erico

20 I Preliminares

Por ultimo para obtener A, se tiene una suma de MA + 1 t�erminos y un

producto por 48. En cada suma se comete un error menor a 2 � 10�N�2m, dedonde se tiene como estimaci�on del error acumulado���A�A

��� � 192(MA + 1)10�N�2m (I:3:22)

Ahora bien, si 192(MA+1) es m�as peque~no que 102m�1, entonces el objetivo

es satisfecho largamente.

Como ilustraci�on de lo expuesto, se ha calculado � con 10000 decimales

de precisi�on, utilizando una HP-9000.

� con 10000 decimales3.1415926535 8979323846 2643383279 5028841971 6939937510 E-000505820974944 5923078164 0628620899 8628034825 3421170679 E-001008214808651 3282306647 0938446095 5058223172 5359408128 E-001504811174502 8410270193 8521105559 6446229489 5493038196 E-002004428810975 6659334461 2847564823 3786783165 2712019091 E-002504564856692 3460348610 4543266482 1339360726 0249141273 E-003007245870066 0631558817 4881520920 9628292540 9171536436 E-003507892590360 0113305305 4882046652 1384146951 9415116094 E-004003305727036 5759591953 0921861173 8193261179 3105118548 E-004500744623799 6274956735 1885752724 8912279381 8301194912 E-005009833673362 4406566430 8602139494 6395224737 1907021798 E-005506094370277 0539217176 2931767523 8467481846 7669405132 E-006000005681271 4526356082 7785771342 7577896091 7363717872 E-006501468440901 2249534301 4654958537 1050792279 6892589235 E-007004201995611 2129021960 8640344181 5981362977 4771309960 E-007505187072113 4999999837 2978049951 0597317328 1609631859 E-008005024459455 3469083026 4252230825 3344685035 2619311881 E-008507101000313 7838752886 5875332083 8142061717 7669147303 E-009005982534904 2875546873 1159562863 8823537875 9375195778 E-009501857780532 1712268066 1300192787 6611195909 2164201989 E-010003809525720 1065485863 2788659361 5338182796 8230301952 E-010500353018529 6899577362 2599413891 2497217752 8347913151 E-011005574857242 4541506959 5082953311 6861727855 8890750983 E-011508175463746 4939319255 0604009277 0167113900 9848824012 E-012008583616035 6370766010 4710181942 9555961989 4676783744 E-012509448255379 7747268471 0404753464 6208046684 2590694912 E-013009331367702 8989152104 7521620569 6602405803 8150193511 E-013502533824300 3558764024 7496473263 9141992726 0426992279 E-014006782354781 6360093417 2164121992 4586315030 2861829745 E-014505570674983 8505494588 5869269956 9092721079 7509302955 E-015003211653449 8720275596 0236480665 4991198818 3479775356 E-015506369807426 5425278625 5181841757 4672890977 7727938000 E-016008164706001 6145249192 1732172147 7235014144 1973568548 E-016501613611573 5255213347 5741849468 4385233239 0739414333 E-017004547762416 8625189835 6948556209 9219222184 2725502542 E-017505688767179 0494601653 4668049886 2723279178 6085784383 E-018008279679766 8145410095 3883786360 9506800642 2512520511 E-018507392984896 0841284886 2694560424 1965285022 2106611863 E-019000674427862 2039194945 0471237137 8696095636 4371917287 E-019504677646575 7396241389 0865832645 9958133904 7802759009 E-020009465764078 9512694683 9835259570 9825822620 5224894077 E-020502671947826 8482601476 9909026401 3639443745 5305068203 E-021004962524517 4939965143 1429809190 6592509372 2169646151 E-021505709858387 4105978859 5977297549 8930161753 9284681382 E-022006868386894 2774155991 8559252459 5395943104 9972524680 E-022508459872736 4469584865 3836736222 6260991246 0805124388 E-023004390451244 1365497627 8079771569 1435997700 1296160894 E-023504169486855 5848406353 4220722258 2848864815 8456028506 E-024000168427394 5226746767 8895252138 5225499546 6672782398 E-024506456596116 3548862305 7745649803 5593634568 1743241125 E-025001507606947 9451096596 0940252288 7971089314 5669136867 E-025502287489405 6010150330 8617928680 9208747609 1782493858 E-026009009714909 6759852613 6554978189 3129784821 6829989487 E-026502265880485 7564014270 4775551323 7964145152 3746234364 E-02700

Page 32: alisis erico

I.3 Un ejemplo: C�alculo de Pi 21

5428584447 9526586782 1051141354 7357395231 1342716610 E-027502135969536 2314429524 8493718711 0145765403 5902799344 E-028000374200731 0578539062 1983874478 0847848968 3321445713 E-028508687519435 0643021845 3191048481 0053706146 8067491927 E-029008191197939 9520614196 6342875444 0643745123 7181921799 E-029509839101591 9561814675 1426912397 4894090718 6494231961 E-030005679452080 9514655022 5231603881 9301420937 6213785595 E-030506638937787 0830390697 9207734672 2182562599 6615014215 E-031000306803844 7734549202 6054146659 2520149744 2850732518 E-031506660021324 3408819071 0486331734 6496514539 0579626856 E-032001005508106 6587969981 6357473638 4052571459 1028970641 E-032504011097120 6280439039 7595156771 5770042033 7869936007 E-033002305587631 7635942187 3125147120 5329281918 2618612586 E-033507321579198 4148488291 6447060957 5270695722 0917567116 E-034007229109816 9091528017 3506712748 5832228718 3520935396 E-034505725121083 5791513698 8209144421 0067510334 6711031412 E-035006711136990 8658516398 3150197016 5151168517 1437657618 E-035503515565088 4909989859 9823873455 2833163550 7647918535 E-036008932261854 8963213293 3089857064 2046752590 7091548141 E-036506549859461 6371802709 8199430992 4488957571 2828905923 E-037002332609729 9712084433 5732654893 8239119325 9746366730 E-037505836041428 1388303203 8249037589 8524374417 0291327656 E-038001809377344 4030707469 2112019130 2033038019 7621101100 E-038504492932151 6084244485 9637669838 9522868478 3123552658 E-039002131449576 8572624334 4189303968 6426243410 7732269780 E-039502807318915 4411010446 8232527162 0105265227 2111660396 E-040006655730925 4711055785 3763466820 6531098965 2691862056 E-040504769312570 5863566201 8558100729 3606598764 8611791045 E-041003348850346 1136576867 5324944166 8039626579 7877185560 E-041508455296541 2665408530 6143444318 5867697514 5661406800 E-042007002378776 5913440171 2749470420 5622305389 9456131407 E-042501127000407 8547332699 3908145466 4645880797 2708266830 E-043006343285878 5698305235 8089330657 5740679545 7163775254 E-043502021149557 6158140025 0126228594 1302164715 5097925923 E-044000990796547 3761255176 5675135751 7829666454 7791745011 E-044502996148903 0463994713 2962107340 4375189573 5961458901 E-045009389713111 7904297828 5647503203 1986915140 2870808599 E-045500480109412 1472213179 4764777262 2414254854 5403321571 E-046008530614228 8137585043 0633217518 2979866223 7172159160 E-046507716692547 4873898665 4949450114 6540628433 6639379003 E-047009769265672 1463853067 3609657120 9180763832 7166416274 E-047508888007869 2560290228 4721040317 2118608204 1900042296 E-048006171196377 9213375751 1495950156 6049631862 9472654736 E-048504252308177 0367515906 7350235072 8354056704 0386743513 E-049006222247715 8915049530 9844489333 0963408780 7693259939 E-049507805419341 4473774418 4263129860 8099888687 4132604721 E-050005695162396 5864573021 6315981931 9516735381 2974167729 E-050504786724229 2465436680 0980676928 2382806899 6400482435 E-051004037014163 1496589794 0924323789 6907069779 4223625082 E-051502168895738 3798623001 5937764716 5122893578 6015881617 E-052005578297352 3344604281 5126272037 3431465319 7777416031 E-052509906655418 7639792933 4419521541 3418994854 4473456738 E-053003162499341 9131814809 2777710386 3877343177 2075456545 E-053503220777092 1201905166 0962804909 2636019759 8828161332 E-054003166636528 6193266863 3606273567 6303544776 2803504507 E-054507723554710 5859548702 7908143562 4014517180 6246436267 E-055009456127531 8134078330 3362542327 8394497538 2437205835 E-055503114771199 2606381334 6776879695 9703098339 1307710987 E-056000408591337 4641442822 7726346594 7047458784 7787201927 E-056507152807317 6790770715 7213444730 6057007334 9243693113 E-057008350493163 1284042512 1925651798 0694113528 0131470130 E-057504781643788 5185290928 5452011658 3934196562 1349143415 E-058009562586586 5570552690 4965209858 0338507224 2648293972 E-058508584783163 0577775606 8887644624 8246857926 0395352773 E-059004803048029 0058760758 2510474709 1643961362 6760449256 E-059502742042083 2085661190 6254543372 1315359584 5068772460 E-060002901618766 7952406163 4252257719 5429162991 9306455377 E-060509914037340 4328752628 8896399587 9475729174 6426357455 E-061002540790914 5135711136 9410911939 3251910760 2082520261 E-061508798531887 7058429725 9167781314 9699009019 2116971737 E-062002784768472 6860849003 3770242429 1651300500 5168323364 E-062503503895170 2989392233 4517220138 1280696501 1784408745 E-063001960121228 5993716231 3017114448 4640903890 6449544400 E-06350

Page 33: alisis erico

22 I Preliminares

6198690754 8516026327 5052983491 8740786680 8818338510 E-064002283345085 0486082503 9302133219 7155184306 3545500766 E-064508282949304 1377655279 3975175461 3953984683 3936383047 E-065004611996653 8581538420 5685338621 8672523340 2830871123 E-065502827892125 0771262946 3229563989 8989358211 6745627010 E-066002183564622 0134967151 8819097303 8119800497 3407239610 E-066503685406643 1939509790 1906996395 5245300545 0580685501 E-067009567302292 1913933918 5680344903 9820595510 0226353536 E-067501920419947 4553859381 0234395544 9597783779 0237421617 E-068002711172364 3435439478 2218185286 2408514006 6604433258 E-068508856986705 4315470696 5747458550 3323233421 0730154594 E-069000516553790 6866273337 9958511562 5784322988 2737231989 E-069508757141595 7811196358 3300594087 3068121602 8764962867 E-070004460477464 9159950549 7374256269 0104903778 1986835938 E-070501465741268 0492564879 8556145372 3478673303 9046883834 E-071003634655379 4986419270 5638729317 4872332083 7601123029 E-071509113679386 2708943879 9362016295 1541337142 4892830722 E-072000126901475 4668476535 7616477379 4675200490 7571555278 E-072501965362132 3926406160 1363581559 0742202020 3187277605 E-073002772190055 6148425551 8792530343 5139844253 2234157623 E-073503610642506 3904975008 6562710953 5919465897 5141310348 E-074002276930624 7435363256 9160781547 8181152843 6679570611 E-074500861533150 4452127473 9245449454 2368288606 1340841486 E-075003776700961 2071512491 4043027253 8607648236 3414334623 E-075505189757664 5216413767 9690314950 1910857598 4423919862 E-076009164219399 4907236234 6468441173 9403265918 4044378051 E-076503338945257 4239950829 6591228508 5558215725 0310712570 E-077001266830240 2929525220 1187267675 6220415420 5161841634 E-077508475651699 9811614101 0029960783 8690929160 3028840026 E-078009104140792 8862150784 2451670908 7000699282 1206604183 E-078507180653556 7252532567 5328612910 4248776182 5829765157 E-079009598470356 2226293486 0034158722 9805349896 5022629174 E-079508788202734 2092222453 3985626476 6914905562 8425039127 E-080005771028402 7998066365 8254889264 8802545661 0172967026 E-080506407655904 2909945681 5065265305 3718294127 0336931378 E-081005178609040 7086671149 6558343434 7693385781 7113864558 E-081507367812301 4587687126 6034891390 9562009939 3610310291 E-082006161528813 8437909904 2317473363 9480457593 1493140529 E-082507634757481 1935670911 0137751721 0080315590 2485309066 E-083009203767192 2033229094 3346768514 2214477379 3937517034 E-083504366199104 0337511173 5471918550 4644902636 5512816228 E-084008244625759 1633303910 7225383742 1821408835 0865739177 E-084501509682887 4782656995 9957449066 1758344137 5223970968 E-085003408005355 9849175417 3818839994 4697486762 6551658276 E-085505848358845 3142775687 9002909517 0283529716 3445621296 E-086004043523117 6006651012 4120065975 5851276178 5838292041 E-086509748442360 8007193045 7618932349 2292796501 9875187212 E-087007267507981 2554709589 0455635792 1221033346 6974992356 E-087503025494780 2490114195 2123828153 0911407907 3860251522 E-088007429958180 7247162591 6685451333 1239480494 7079119153 E-088502673430282 4418604142 6363954800 0448002670 4962482017 E-089009289647669 7583183271 3142517029 6923488962 7668440323 E-089502609275249 6035799646 9256504936 8183609003 2380929345 E-090009588970695 3653494060 3402166544 3755890045 6328822505 E-090504525564056 4482465151 8754711962 1844396582 5337543885 E-091006909411303 1509526179 3780029741 2076651479 3942590298 E-091509695946995 5657612186 5619673378 6236256125 2163208628 E-092006922210327 4889218654 3648022967 8070576561 5144632046 E-092509279068212 0738837781 4233562823 6089632080 6822246801 E-093002248261177 1858963814 0918390367 3672220888 3215137556 E-093500037279839 4004152970 0287830766 7094447456 0134556417 E-094002543709069 7939612257 1429894671 5435784687 8861444581 E-094502314593571 9849225284 7160504922 1242470141 2147805734 E-095005510500801 9086996033 0276347870 8108175450 1193071412 E-095502339086639 3833952942 5786905076 4310063835 1983438934 E-096001596131854 3475464955 6978103829 3097164651 4384070070 E-096507360411237 3599843452 2516105070 2705623526 6012764848 E-097003084076118 3013052793 2054274628 6540360367 4532865105 E-097507065874882 2569815793 6789766974 2205750596 8344086973 E-098005020141020 6723585020 0724522563 2651341055 9240190274 E-098502162484391 4035998953 5394590944 0704691209 1409387001 E-099002645600162 3742880210 9276457931 0657922955 2498872758 E-099504610126483 6999892256 9596881592 0560010165 5256375678 E-10000

Page 34: alisis erico

Cap��tulo II

Sistemas Lineales

Una gran cantidad de problemas implica la resoluci�on de sistemas lineales

de la forma

Ax = b;

donde

A =

0@ a11 � � � a1n...

...

an1 � � � ann

1A; b =

0@ b1

...

bn

1Acon coe�cientes reales o complejos. Por esta necesidad es importante la cons-

trucci�on de algoritmos que permitan su resoluci�on en un tiempo razonable y

con el menor error posible. Cada problema tiene su particularidad, motivo

por el cual no existe un m�etodo general mediante el cual se pueda resolver e�-

cazmente todos los problemas. Es verdad que existen m�etodos casi generales,

que con peque~nas modi�caciones pueden servir para encontrar la soluci�on

de un problema particular. A lo largo de este cap��tulo se expondr�an estos

m�etodos, dando criterios de estabilidad y estimaciones de error.

En la primera secci�on se tratar�a la condici�on del problema lineal, para

este efecto ser�a necesario introducir elementos de la teor��a de normas en

las matrices, para luego introducir las nociones relativas a la condici�on del

problema lineal.

En la segunda secci�on se abordar�a los m�etodos de resoluci�on como son:

el Algoritmo de Eliminaci�on de Gauss, la Descomposici�on de Cholesky y

algunas modi�caciones de estos m�etodos. En esta secci�on se estudiar�a la

implementaci�on de tales m�etodos, como tambi�en la estabilidad de estos.

La tercera secci�on tratar�a, la teor��a e implementaci�on de los m�etodos ite-

rativos lineales como: Jacobi, Gauss-Seidel y SOR. As�� mismo se analizar�an

algunos problemas tipos y se har�an comparaciones de tales metodos.

En la cuarta secci�on, se ver�a los m�etodos de tipo gradiente cuyo enfoque

es diferente a los m�etodos de las dos secciones precedentes, en efecto, son

m�etodos que encuentran la soluci�on a partir de problemas de minimizaci�on.

Se resolver�an ejemplos tipos y se comparar�a la e�ciencia de �estos con otros

m�etodos.

Page 35: alisis erico

24 II Sistemas Lineales

La �ultima secci�on describir�a el M�etodo de los M��nimos Cuadrados, como

una generalizaci�on de lo anteriormente expuesto, introduciendo como coro-

lario la noci�on de Pseudo-Inversa. As�� mismo se analizar�a la implementaci�on

del m�etodo QR, incluyendo una estimaci�on del error de tal m�etodo.

Page 36: alisis erico

II.1 Condici�on del Problema lineal

Normas de Vectores y Matrices

La noci�on de norma y espacio normado es un instrumento matem�atico muy

util en el estudio de las magnitudes que se manipulan, como tambi�en un

instrumento en el estudio de la convergencia y los l��mites. Se empezar�a

de�niendo el concepto de norma en espacios Rn , para luego de�nir en el

�algebra de las matrices a coe�cientes reales.

De�nici�on II.1.1.- Una norma sobre Rn es una aplicaci�on

k k : Rn �! R;

con las siguientes propiedades:

kxk � 0; kxk = 0 () x = 0;i)

k�xk = j�j kxk ; donde � 2 R;ii)

kx+ yk =� kxk+ kyk :iii)

La primera condici�on implica que una norma siempre es positiva y es

nula siempre y cuando el vector sea el vector nulo. La segunda propiedad es

la homogeneidad de la norma y la tercera condici�on es m�as conocida como

desigualdad del tri�angulo. Las normas m�as usuales en Rn son las siguientes:

kxk1 =nXi=1

jxij ; norma ciudad-bloque;

kxk2 =

nXi=1

jxij2! 1

2

; norma euclidiana;

kxkp =

nXi=1

jxij2! 1

p

; p > 1;

kxk1= max

i=1;:::;njxij ; norma de la convergencia uniforme:

Estas normas, que son las usualmente utilizadas, tienen algunas propiedades

en com�un. La m�as importante es que, si se aumenta en valor absoluto una

de las componentes, la norma se incrementa. Es necesario formalizar este

hecho, motivo por el cual, se tiene la:

Page 37: alisis erico

26 II Sistemas Lineales

De�nici�on II.1.2.- Si x = (x1; : : : ; xn) 2 Rn , se de�ne el valor absoluto dex como jxj = (jx1j ; : : : ; jxnj). Se dice que jxj � jyj, si jxij � jyij para todo

i = 1; : : : ; n. Una norma k k sobre Rn se dice que es:

(a) Mon�otona, si jxj � jyj implica que kxk � kyk para todo

x; y 2 Rn .(b) Absoluta, si kxk = kjxjk para todo x 2 Rn .

Proposici�on II.1.3.- Una norma k k sobre Rn es mon�otona, si y solamente

si es absoluta.

Demostraci�on.- Si la norma k k es mon�otona, sea x 2 Rn , llamenos y = jxj.Como jxj � jyj, y jyj � jxj se tiene inmediatamente, porque la norma es

mon�otona, que kxk = kyk.Si la normak k es absoluta, sea x 2 Rn , consid�erese

�x = (x1; : : : ; xk�1; �xk; xk+1; : : : ; xn), con � 2 [0; 1]. Utilizando el hecho

que la norma sea absoluta, desigualdad del tri�angulo y efectuando c�alculos

algebraicos se tiene:

k�xk = 12(1� �)(x1; : : : ; xk�1;�xk; xk+1; : : : ; xn) +

1

2(1� �)x + �x

� 1

2(1� �) k(x1; : : : ; xk�1;�xk; xk+1; : : : ; xn)k+

1

2(1� �) kxk+ �x

=1

2(1� �) kxk+ 1

2(1� �) kxk+ � kxk = kxk :

Ahora bien, si x = (x1; : : : ; xk ; : : : ; xn) y y = (x1; : : : ; xk1 ; yk; xk+1; : : : ; xn),

con jykj � jxkj, utilizando la desigualdad anterior se tiene kxk � kyk. Parademostrar que jxj � jyj implica que kxk � kyk, se repite el anterior paso n

veces, es decir una vez por cada componente. �

Una matriz de ordenm�n puede ser vista como un vector que pertenece

al espacio Rmn , de esta manera de�nir la norma de una matriz como la de

un vector, pero se perder��a as�� muchas de las propiedades que tiene una

aplicaci�on lineal. Es por eso la:

De�nici�on II.1.4.- Sea A una matriz de m� n, se de�ne su norma como

kAk = supx6=0

kAxkkxk = sup

kxk=1

kAxk : (II:1:1)

La de�nici�on de la norma de una matriz depende evidentemente de las

normas elegidas para kxk y kAxk. Sin embargo puede ser veri�cado sin

ning�un problema, que la norma de una matriz, veri�ca las condiciones de

norma de un vector. La demostraci�on es una simple veri�caci�on de estas

condiciones, utilizando la de�nici�on de supremo. Adem�as si las norma de los

espacios Rn y Rm son mon�otonas o absolutas, es facil veri�car que la norma

Page 38: alisis erico

II.1 Condici�on del Problema lineal 27

de matriz inducida por �estas, es todav��a mon�otona; es su�ciente utilizar

la de�nici�on para probar esta a�rmaci�on. Por otro lado kAk es el n�umeropositivo m�as peque~no � que satisface kAxk � � kxk, por lo tanto

kAxk � kAk kxk ; 8x 2 Rn : (II:1:2)

Una norma sobre el espacio de matrices veri�ca las siguientes propiedades,

dada por la:

Proposici�on II.1.5.- Cualquier norma sobre el espacio de las matrices

Mm(R) satisface las propiedades adicionales siguientes:

kIk = 1; (II:1:3)

kABk � kAk kBk : (II:1:4)

Demostraci�on.- La relaci�on (II.1.3) de la proposici�on es consecuencia

inmediata de la de�nici�on de la norma de una matriz.

La relaci�on (II.1.4) es consecuencia de las observaciones hechas despu�es de

la de�nici�on, en efecto

kABxk � kAk kBxk � kAk kBk kxk ;kABxkkxk � kAk kBk ;

kABk � kAk kBk :�

Se ha dado las propiedades esenciales de la norma de matrices, pero es

necesario conocer algunas de �estas por su utilizaci�on frecuente. Utilizando

la misma notaci�on que en las normas de los vectores de�nidas al inicio de

la secci�on, se puede utilizar la misma notaci�on en los ��ndices de las normas

de las matrices, con la convenci�on que las normas de los vectores tienen los

mismos ��ndices.

Teorema II.1.6.- Sea A una matriz de n�m, entonces:

kAk1 = maxj=1;:::;m

nXi=1

jaij j ; (II:1:5)

kAk2 =pvalor propio m�as grande de At

A; (II:1:6)

kAk1= max

i=1;:::;n

mXj=1

jaij j : (II:1:7)

Page 39: alisis erico

28 II Sistemas Lineales

Demostraci�on.- Se comenzar�a por kAk1, se tiene:

kAxk1 =nXi=1

������mXj=1

aijxj

������ �nXi=1

mXj=1

jaij j jxj j

�mXj=1

nXi=1

jaij j!jxj j �

max

j=1;:::;m

nXi=1

jaij j!kxk1 ;

por lo tanto kAk1 � maxj=1;:::;m

nXi=1

jaij j :

Se mostrar�a, que la igualdad se cumple, en efecto, sea jo tal que:nXi=1

jaijo j = maxj=1;:::;m

nXi=1

jaij j ; y �x tal que �xjo = 1; xi = 0 si i 6= jo;

de esta manera kA�xk =

0B@ a1jo

...

amjo

1CA 1

=

nXi=1

jaijo j k�xk1 :

Para la k k2 se tiene:

kAxk22 = hAx;Axi = xtAtAx;

ahora bien AtA es una matriz sim�etrica de�nida positiva, de donde los

valores propios son reales no negativos, adem�as es posible formar una base de

vectores propios ortonormales. Sea fe1; : : : ; emg una base de vectores propios

ortonormales, entonces x =

mXi=1

�iei y Ax =

mXi=1

�i�iei, donde los �i � 0 son

los valores propios de A. Por lo tanto, se tiene

kAxk22 =mXi=1

�2i�

2i � max

i=1;:::;m�i

mXi=1

�2i = max

i=1;:::;m�i kxk2 :

Para obtener la igualdad, es su�ciente tomar x = ejo , donde �jo es el

autovalor m�as grande.

Para la k k1

se tiene:

kAxk1= max

i=1;:::;n

������mXj=1

aijxj

������ � maxi=1;:::;n

0@ mXj=1

jaij j jxj j

1A� max

i=1:::;n

0@ mXj=1

jaij j maxj=1;:::;m

jxj j

1A �0@ maxi=1;:::;n

mXj=1

jaij j

1A kxk1;

as�� kAk1� max

j=1;:::;m

mXj=1

jaij j :

Page 40: alisis erico

II.1 Condici�on del Problema lineal 29

Para obtener la igualdad es su�ciente tomar x = 1, donde 1 = (1; : : : ; 1)t.

La Condici�on de una Matriz

La resoluci�on de un sistema lineal de ecuaciones debe hacer meditar sobre

muchos aspectos relacionados, como ser la existencia de la soluci�on, si el

problema a resolver est�a bien condicionado, conocer una estimaci�on del error

cometido en la soluci�on num�erica, etc. Se tiene inicialmente el sistema de

ecuaciones

Ax = b; donde A 2Mn(R), y b 2 Rn ; (II:1:8)

el problema es encontrar x 2 R que sea soluci�on del sistema (II.1.8), esta

situaci�on puede escribirse formalmente como

P(A; b) = x:

De esta manera la condici�on del problema est�a dada por��P(A; b)�P( �A;�b)��jP(A; b)j � cond � eps; (II:1:9)

donde:

�aij = aij(1 + �ij); j�ij j � eps; (II:1:10)

�bi = bi(1 + �i); j�ij � eps: (II:1:100)

Si se plantea P( �A;�b) = �x, se tienekx� �xkkxk � cond � eps. Por otro lado,

considerando que solamente normas mon�onotas son utilizadas, se tiene: 0@ a11�11 � � � a1n�n1

......

...

an1�n1 � � � ann�nn

1A � eps kAk ;

de esta manera �A�A

� eps kAk y �b� b

� eps kbk : (II:1:11)

Suponiendo que la matriz sea inversible, se puede enunciar el siguiente

teorema, pero antes una de�nici�on es necesaria.

De�nici�on II.1.7.- La condici�on de una matriz A inversible se de�ne como

cond(A) = kAk A�1 : (II:1:12)

Page 41: alisis erico

30 II Sistemas Lineales

Teorema II.1.8.- Sea A una matriz con detA 6= 0, sup�ongase que �A�A

� kAk �A, �b� b

� kbk �b. Si �Acond(A) < 1, entonces

k�x� xkkxk � cond(A)

1� �Acond(A)(�A + �b): (II:1:13)

Si adem�as se tiene �Acond(A) <1

2 , entonces la condici�on del problema

resolver Ax = b es � 2cond(A).

Demostraci�on.- Se tiene Ax = b y �A�x = �

b, de donde:

Ax� �A�x = b� �

b y Ax�A�x + �Ax� �

A�x = b� �b;

A(x � �x) = ( �A�A)�x+ (b� �b); x� �x = A

�1( �A�A)�x +A�1(b� �

b);

introduciendo las desigualdades en las normas se obtiene:

kx� �xk � A�1 �

A�A

k�xk+ A�1 �b� b

� A�1 (kAk �A (kxk+ k�x� xk) + kbk �b)

� A�1 kAk (�A (kxk+ k�x� xk) + kxk �b) ;

de esta manerak�x� xkkxk � cond(A)

1� �Acond(A)(�A + �b): �

Como la condici�on del problema lineal est�a ��ntimamente ligada a la

condici�on de la matriz, es importante conocer algunas de sus propiedades,

dadas por la:

Proposici�on II.1.9.- La condici�on de una matriz satisface las siguientes

propiedades:

cond(A) � 1; (II:1:14)

cond(I) = 1; (II:1:15)

cond(�A) = cond(A); � 2 R: (II:1:16)

Demostraci�on.- Veri�caci�on inmediata. �

Ejemplos

1.- Q ortogonal, es decir QtQ = I , la condici�on respecto a la norma k k2

esta dada por

cond2(Q) = 1: (II:1:17)

2.- Sea la matriz A dada por

A =1

h

0BBBBB@4 1 0 � � � 0

1 4 1 � � � 0...

. . .. . .

......

... � � � 1 4 1

� � � � � � 1 4

1CCCCCA ;

Page 42: alisis erico

II.1 Condici�on del Problema lineal 31

entonces kAk1= 6

h

, adem�as A = 4

h

(I +N) donde

N =

0BBB@0 1

4 0 � � � 01

4 0 1

4 � � � 0

.... . .

. . . � � �...

0 � � � 0 1

4 0

1CCCA ; kNk1=

1

2< 1:

Se deduce que

A�1 =

h

4(I +N)�1 =

h

4(I �N +N

2 �N3 + � � �);

A�1 1� h

4(1 + kNk+

N

2 + � � �)

� h

4

�1

1� kNk

�� h

2;

entonces cond1(A) � 3, por lo tanto, la matriz es bien condicionada.

3.- El siguiente ejemplo muestra la existencia de una matriz mal condi-

cionada.

Sea H la matriz de n� n, llamada matriz de Hilbert, de�nida por

hij =1

i+ j � 1; i; j = 1; : : : ; n:

H es una matriz sim�etrica de�nida positiva, motivo por el cual la

condici�on respecto a la norma euclidiana est�a dada por

cond2H =�max

�min;

donde los � son valores propios de H . Se puede mostrar que

cond2H � cen: (II:1:18)

Se puede observar claramente que las matrices de Hilbert son mal

condicionadas, inclusive para n bastante peque~no.

4.- Finalmente, este ejemplo muestra la existencia de otra matriz mal

condicionada, como ser las matrices de Vandermonde. Sea V la matriz

de n� n de�nida por

V =

0BB@1 1 � � � 1

c1 c2 � � � cn

...... � � �

...

cn�11 c

n�12 � � � c

n�1n

1CCA ;

Page 43: alisis erico

32 II Sistemas Lineales

donde los ci son diferentes. Se puede mostrar que la cond2V � bn,

donde b > 1.

Ahora bien, la estimaci�onk�x�xk

kxk � 2cond(A)eps puede ser demasiada

pesimista, para ver esto, consid�erese el siguiente ejemplo,�1 1

0 108

��x

y

�=

�2

1

�:

Si se llama A a la matriz del sistema, se tiene kAk2 = 108 y A�1 � 1. El

sistema con los errores de redondeo incorporados, est�a dado por:�1 + �1 1 + �2

0 108(1 + �3)

�=

��x

�y

�= ( 2(1 + �4) 1 + �5 ) ;

�y = 1081 + �5

1 + �3

' 10�8(1 + �5 � �3);

de dondejy � �yjjyj � 2eps:

Calculando �x; se tiene

�x =2(1 + �4)� (1 + �2)�y

1 + �1

=2� 10�8 + 2�4 � 10�8(�2 + �5 � �3)

1 + �1

=x+ 2�1 � 10�8(�2 + �5 � �3)

1 + �1

' x(1 + 4eps);

por lo tanto,jx� �xjjxj � 4eps:

El problema es bien condicionado, aunque la matriz A tenga una gran

condici�on. Si se multiplica el sistema de ecuaciones por una matriz diagonal

D se obtiene, el nuevo problema dado por

DAx = Db;

por el teorema II.1.8, se tiene

kx� �xkkxk � 2cond(DA)eps; si cond(DA)eps <

1

2:

En el ejemplo anterior, se plantea

D =

�1 0

0 10�8

�; as�� DA =

�1 1

0 1

�;

Page 44: alisis erico

II.1 Condici�on del Problema lineal 33

obteniendo el:

Corolario II.1.10.- Con las misma hip�otesis del teorema II.1.8, y adem�as

si cond(DA)eps < 1

2 , se tiene

La condici�on del problema � 2 infD diagonal

cond(DA): (II:1:19)

Ejercicios

1.- a) Sea k k de�nida en Rn . La bola unitaria cerrada se de�ne como

�B =

�x 2 Rn

�� kxk � 1;

mostrar que la bola unitaria es un conjunto convexo.

b) SeaD un conjunto convexo acotado, en cuyo interior est�a 0. Si se supone

que D es equilibrado, es decir si x 2 D implica que �x 2 D. Mostrar que

se puede de�nir una norma cuya bola unitaria cerrada sea precisamente

D.

2.- >Es la funci�on f(x) = jx1 � x2j + jx2j una norma sobre R2? Si lo es, >es

mon�otona? Dibujar la bola unitaria.

3.- Dar las condiciones para que una norma sea mon�otona, observando su

bola unitaria cerrada.

4.- Para una matriz A se de�ne la norma de Frobenius como

kAkF =

vuut nXi=1

nXj=1

jaij j2:

a) Mostrar que kAkF es una norma sobre Rn�n .

b) Veri�car la desigualdad

kAk2 � kAkF �pn kAk2 :

5.- Veri�car la desigualdad

maxi;jjaij j � kAk2 � n:max

i;jjaij j :

6.- Sea A una matriz con detA 6= 0. Mostrar que

A�1 = � min

kxk=1kAxk

�:

Page 45: alisis erico

34 II Sistemas Lineales

7.- Sea R una matriz triangular inversible. Mostrar que:

jriij � kRkp ; jriij�1 � R�1 p; para p = 1; 2;1:

Deducir que

condp(R) � maxi;k

jriijjrkk j

:

8.- Sea

A =

0BBBBB@2�

1

h0+ 1

h1

�0 � � � � � � 0

1

h12�

1

h1+ 1

h2

�1

h2� � � 0

0. . .

. . .. . .

...

0 � � � 0 1

hn�22�

1

hn�2+ 1

hn�1

1CCCCCAla matriz, que se encuentra en la interpolaci�on spline. Mostrar:

a) cond1(A) puede ser arbitrariamente grande.

(Si maxhi=minhi �!1).

b) Existe una matriz diagonal D tal que cond1(DA) � 3.

Page 46: alisis erico

II.2 M�etodos Directos

En esta secci�on se desarrollar�a los algoritmos de resoluci�on directa de

sistemas lineales m�as comunes en la actualidad. El problema a resolver es

Ax = b; (II:2:1)

donde A 2 Mn(R), x; b 2 Rn . Por los resultados obtenidos en la teor��a del

Algebra Lineal, este sistema de ecuaciones lineales tiene una sola soluci�on,

si y solamente si detA 6= 0. Para mostrar la importancia de contar con

algoritmos cuyo costo en operaciones sea m��nimo, vale la pena dar el siguiente

ejemplo de resoluci�on de este sistema de ecuaciones lineales. El ejemplo

consiste en la utilizaci�on de la regla de Cramer, que en si misma constituye

uno de los resultados te�oricos m�as hermosos que se ha obtenido. Para ilustrar

el m�etodo de Cramer, se debe hacer algunas convenciones sobre la notaci�on.

Para comenzar una matriz A de n� n se puede escribir como

A = (A1; : : : ; An)

donde Ai es la i-esima columna de la matriz A. Dada una matriz A y un

vector b 2 Rn , se denota por

A(j) = (A1; : : : ; Aj�1; b; Aj+1; : : : ; An;

la matriz obtenida remplazando la j-esima columna por el vector b. Ahora

bien, la soluci�on del sistema (II.2.1) est�a dada por

xi =detA(i)

detA;

donde x = (x1; : : : ; xn). Por lo tanto, la resoluci�on del sistema implica el

c�alculo de n+1 determinantes. Si para encontrar el valor de los determinantes

se utiliza la siguiente relaci�on

X�2Sn

signo(�)

nYi=1

ai�(i);

donde Sn es el grupo de permutaciones de n elementos, se debe efectuar n!

sumas. Si se desea resolver un sistema de 69 ecuaciones con el mismo n�umero

de incognitas, suponiendo que cada suma se efectua en 10�9 segundos,

se tardar��a aproximadamente 6:75 � 1049 a~nos en llegar a la soluci�on del

Page 47: alisis erico

36 II Sistemas Lineales

problema. Como conclusi�on se puede decir que existen m�etodos cuyo valor

te�orico es importante, pero su ejecuci�on num�erica es desastrosa, raz�on por

la cual es imprescindible implementar algoritmos cuyo costo no sea muy

elevado.

El Algoritmo de Gauss

Uno de los algoritmos m�as utilizados, precisamente por su relativo bajo

costo, es el Algoritmo de Eliminaci�on de Gauss. Consid�erese el sistema de

ecuaciones dado por

8>><>>:a11x1 + a12x2 + � � � +a1nxn = b1

a21x1 + a22x2 + � � � +a2nxn = b2

......

an1x1 + an2x2 + � � � +annxn = bn

:

El Algoritmo de Gauss consiste en:

Primer paso Si a11 6= 0, li1 =ai1a11

, para i = 2; : : : ; n.

Se calcula lineai � li1 � linea1, para i = 2; : : : ; n.

Si a11 = 0 se intercambia lineas.

Obteniendose el sistema equivalente dado por

8>><>>:a11x1 + a12x2 + � � � + a1nxn = b1

a

(1)22 x2 + � � � + a

(1)2n xn = b

(1)2

......

a

(1)n2 x2 + � � � + a

(1)nnxn = b

(1)n

:

Paso 2 Si a(1)22 6= 0, li1 =

a

(1)i2

a

(1)22

, para i = 3; : : : ; n.

Se calcula lineai � li2 � linea2, para i = 3; : : : ; n.

Si a22 = 0 se intercambia lineas.

Se repite el procedimiento hasta obtener un sistema triangular de ecuaciones

como el siguiente

8>><>>:r11x1 + � � � + r1;n�1xn�1 + r1nxn = c1

......

rn�1;n�1xn�1 + rn�1;nxn = cn�1

rnnxn = cn

:

Page 48: alisis erico

II.2 M�etodos Directos 37

De donde se tiene:

xn =cn

rnn

;

xn�1 =cn�1 � rn�1;nxn

rn1;n�1

;

...

x1 =c1 � r12x2 � � � � � r1nxn

r11

:

(II:2:2)

Si se utiliza la notaci�on matricial, se obtiene el siguiente esquema del

algoritmo de Gauss, con las matrices aumentadas:

(A; b)0BBBB@� � � � � � �� � � � � � �

...

� � � � � � �� � � � � � �

1CCCCA!

�A(1); b

(1)�

0BBBB@� � � � � � �0 � � � � � �

...

0 � � � � � �0 � � � � � �

1CCCCA!

�A(2); b

(2)�

0BBBB@� � � � � � �0 � � � � � �0 0 � � � � �...

...

0 0 � � � � �

1CCCCA

� � � �!

�A(n�1)

; b(n�1)

�0BBBB@� � � � � � �0 � � � � � �0 0 � � � � �...

.... . .

. . .

0 0 � � � 0 �

1CCCCA :

Teorema II.2.1.- Sea detA 6= 0. El algoritmo de Gauss da la descom-

posici�on siguiente:

PA = LR; (II:2:3)

donde:

R =

0@ r11 � � � r1n

. . ....

0 rnn

1A; L =

0BB@1 0

l21 1...

. . .

ln1 ln2 � � � 1

1CCA ; (II:2:4)

y P es una matriz de permutaci�on.

Demostraci�on.- Sup�ongase, que las permutaciones necesarias han sido

efectuadas al principio, es decir se aplica el Algoritmo de Gauss a la matriz

Page 49: alisis erico

38 II Sistemas Lineales

PA. Para no complicar la notaci�on se escribe A, en vez de PA. Utilizando

el mismo esquema dado m�as arriba, se obtiene:

A �! A(1) �! � � � �! A

(n�1) = R;

donde:

A(1) =

0BBBB@1 0 0 � � � 0

�l21 1 0 � � � 0

�l31 0 1 0 � � � 0...

.... . .

. . .

�ln1 0 � � � 0 1

1CCCCA = L1A;

A(2) =

0BBBB@1 0 0 � � � 0

0 1 0 � � � 0

0 �l32 1 0 � � � 0...

.... . .

0 �ln2 0 � � � 1

1CCCCA = L2A;

por lo tanto

R = Ln�1Ln�2 � � �L2L1A:

Lo �unico que falta mostrar, es que

L�1 = Ln�1Ln�2 � � �L2L1;

y para eso, se tiene:

Li = I � Vi; donde Vi =

0BBBBBBBBB@

0 0

0. . .

0

li+1;i 0...

.... . .

lni 0 � � � 0

1CCCCCCCCCA:

Se puede veri�car facilmente que ViVj = 0 para i = 1; : : : ; n; de donde se

obtiene �nalemente:

L�1i = I + Vi;

L = I + V1 + V2 + � � �+ Vn�1: �

Muchas veces, es necesario calcular sistemas de la forma:

Ax1 = b1;

Ax2 = b2:(II:2:5)

Page 50: alisis erico

II.2 M�etodos Directos 39

Se calcula una vez la descomposici�onLR y se resuelve de la manera siguiente:

Ly = b;

Rx = y:

(II:2:6)

Teorema II.2.2.- La descomposici�on LR da el siguiente resultado,

detA = �r11r22 � � � rnn; (II:2:7)

donde los rii son coe�cientes de la diagonal de R.

Demostraci�on.- Utilizando identidades en los determinantes se tiene

detP detA = detL detR:

El costo de la descomposici�on LR.

Para evaluar cuantas operaciones son necesarias para llegar a la descom-

posici�on LR de una matriz A 2Mn(R), se procede de la manera siguiente:

A �! A(1)

C�alculo de los li1: n� 1 divisiones

Para cada �la i, es necesario efectuar

n�1 multiplicaciones mas adiciones, loque hace un total de (n � 1)2 multipli-

caciones y adiciones.

Por lo tanto, contando el n�umero de operaciones en cada �etapa del algoritmo,

se tiene

# operaciones � (n� 1)2 + (n� 2)2 + � � �+ 22 + 12

=

n�1Xi=1

i2

�Z n

0

x2dx

=n3

3: (II:2:8)

La resoluci�on de LRx = b, implica aproximadamente n2

2 multiplicaciones

m�as adiciones en la soluci�on de Ly = b. Igual n�umero de operaciones se

tiene para la resoluci�on de Rx = y, lo que hace un total aproximado de n2

operaciones.

Page 51: alisis erico

40 II Sistemas Lineales

La elecci�on del pivote

De�nici�on II.2.3.- Sea A una matriz, se llama pivote de la matriz A al

coe�ciente a11.

Para ilustrar la necesidad en elegir un buen pivote, consid�erese el

siguiente ejemplo. La precisi�on de los c�alculos tienen tres cifras signi�cativas

en base 10. Sea el sistema de ecuaciones dado por�10�4x1 + x2 = 1

x1 + x2 = 2: (II:2:9)

La soluci�on exacta de este sistema de ecuaciones est�a dada por:

x1 = 1; 000100010001000 � � � ;x2 = 0; 999899989998999 � � � :

(II:2:10)

Ahora bien, aplicando el algoritmo de Gauss con 10�4 como pivote, se tiene:

l21 =a21

a11

= 0; 100 � 105;

La segunda linea del sistema se convierte en

�0; 100 � 105x2 = �0; 100 � 105;de donde

x2 = 0; 100 � 101;resolviendo x1 se tiene

0; 100 � 10�3x1 = 0; 100 � 101 � 0; 100 � 101;por lo tanto

x1 = 0: (II:2:11)

Ahora, apl��quese el algoritmo de Gauss con 1 como pivote, es decir inter-

cambiando la primera ecuaci�on con la segunda, se tiene:

l21 =a21

a11

= 0; 100 � 10�5;

La segunda linea del sistema se convierte en

�0; 100 � 101x2 = 0; 100 � 101;de donde

x2 = 0; 100 � 101;resolviendo x1, se tiene

0; 100 � 101x1 = 0; 200 � 101 � 0; 100 � 101;por lo tanto

x1 = 0:100 � 101: (II:2:12)

Page 52: alisis erico

II.2 M�etodos Directos 41

La explicaci�on de este fen�omeno consiste en que la sustracci�on es

una operaci�on mal condicionada, cuando las cantidades a restar son muy

parecidas; en efecto, consid�erese el siguiente sistema�a11x1 + a12x2 = b1

a21x1 + a22x2 = b2; (II:2:13)

al aplicar el algoritmo de Gauss se obtiene:

l21 =a21

a11

a

(1)22 = a22 � l21a12;

b

(1)2 = b2 � l21b1;

a

(1)22 x2 = b

(1)2 :

Si jl21j � 1 se tiene:

a

(1)22 � �l21a12; b

(1)2 � �l21b1;

x2 �b1

a12

;

x1 =1

a11

(b1 � a12x2) �1

a11

(b1 � b1) :

Para solucionar este problema, se realiza una b�usqueda de pivote parcial,

que consiste en:

Se escoge el pivote ai1 tal que

jai1j � jaj1j j = 1; : : : ; n:

Se procede de la misma manera para cada paso del algoritmo

de Gauss.

La Estabilidad del Algoritmo de Gauss

Sea A una matriz cuyo determinante es diferente de 0. Se desea saber cual es

el error cometido por el algoritmo de Gauss para encontrar la descomposici�on

A = LR. No se considera las permutaciones, puesto que no se comete error

de redondeo.

Si se aplica el algoritmo de Gauss, se obtiene las matrices L y R, ll�amese

A = LR; la descomposici�on exacta de A:

Para saber, si el algoritmo es num�ericamente estable, se utiliza la noci�on de

baackward analysis dada en cap��tulo I. Es decir encontrar una constante que

veri�que:jaij � aij jjaij j

� C � eps: (II:2:14)

Page 53: alisis erico

42 II Sistemas Lineales

Por consiguiente, es necesario estimar la diferencia���A� A

��� elemento por

elemento. Se tiene el siguiente:

Teorema II.2.4.- Wilkinson. Sea detA 6= 0; L, R el resultado num�erico de

la descomposici�on LR con b�usqueda de pivote jlij j � 1. Entonces

���A� LR

��� � 2a eps

0BBBBBB@

0 0 � � � 0

1 1 � � � 1

1 2 � � � 2

1 2 3 � � � 3...

......

1 2 3 � � � n� 1

1CCCCCCA ; (II:2:15)

donde a = maxi;j;k

���a(k)ij

��� yA(0) �! A

(1) �! � � � �! A(n�1)

:

Como resultado de este teorema, el algoritmo de Gauss es num�ericamente

estable, siempre y cuando n no sea demasiado grande. La experiencia

num�erica indica que es aconsejable utilizar la descomposici�on de Gauss para

sistemas no mayores a 1000 ecuaciones.

Demostraci�on.-Al efectuar la descomposici�onLR, considerando los errores

de redondeo, se tiene el siguiente esquema:

A(0) �! A

(1) �! � � � �! A(n�1) = R

Sin considerar los errores de redondeo se tiene L1A = A(1), de donde

L1 =

0BBBB@1

�l21 1

�l31 0 1...

...

�ln1 0 1

1CCCCA ;es la matriz L1 con los errores de

redondeo.

Por otro lado, se tiene

L = L�11 L

�12 � � �L�1n�1;

obteniendo

A� LR =L�11

�L1A� A

(1)�+ L

�11 L

�12

�L2A

(1) � A(2)�

+ � � ��L�11 L

�12 � � �L�1n�1

��Ln�1A

(n�2) � A(n�1)

�:

Page 54: alisis erico

II.2 M�etodos Directos 43

Ahora bien, los coe�cientes de la matriz obtenida en el primer paso, est�an

dadas por

a

(1)ij =

�aij � li1a1j(1 + �1)

�(1 + �2); i � 1;

que da como consecuencia�L1A� A

(1)�ij=li1a1j � aij

=li1a1j ��aij � li1a1j(1 + �1)

�(1 + �2)

=� aij�2 + li1a1j�2 + li1a1j�1 + li1a1j�1�2

=� a

(1)

ij �2 + li1a1j�1 + li1a1j�1�2;

obteniendo as��:���L1A� A(1)��� � 2a eps donde a = max

i;j;k

���a(k)ij

��� ; i � 2:

Bajo forma matricial, el resultado anterior est�a dado por

���L1A� A(1)��� � 2a eps

0BB@0 � � � 0

1 � � � 1...

...

1 � � � 1

1CCA :

Continuando con el mismo procedimiento en la demostraci�on, se obtiene

���L2A(1) � A

(2)��� � 2a eps

0BBBB@0 0 � � � 0

0 0 � � � 0

0 1 � � � 1...

......

0 1 � � � 1

1CCCCA ;

resultados similares tambien se obtienen para los dem�as pasos del algoritmo

de Gauss con lo que se obtiene le resultado deseado. �

El Algoritmo de Cholesky

Un caso particular de sistema de ecuaciones lineales, es donde la matriz A

es:

De�nici�on II.2.5.- Una matriz A 2Mn(R) es sim�etrica y de�nida positiva,

si cumple las siguientes dos condiciones:

At = A;(II:2:16)

xtAx > 0; 8x 2 Rn ; x 6= 0:(II:2:17)

Page 55: alisis erico

44 II Sistemas Lineales

Teorema II.2.6.- Sea A sim�etrica y de�nida positiva, entonces:

a) El algoritmo de Gauss es posible sin b�usqueda de pivote.

b) La descomposici�on A = LR satisface

R = DLt; con D = diag(r11; r22; � � � ; rnn): (II:2:17)

Demostraci�on.- Sea A sim�etrica y de�nida positiva, dada por

A =

0@ a11 � � � a1n...

...

an1 � � � ann

1A:

El coe�ciente a11 de la matriz A es diferente de 0, porque la matriz A es

de�nida positiva y a11 = et1Ae1 donde e

t1 = (1; 0; � � � ; 0). Despu�es del primer

paso del algoritmo de Gauss, se obtiene:

A(1) =

0BB@a11 a12 � � � a1n

0...

0

C(1)

1CCA ; li1 =ai1

a11

;

de donde se tiene

c

(1)ij = aij � li1a1j = aij �

ai1a1j

a11

:

Por lo tanto es su�ciente mostrar que C(1) es sim�etrica y de�nida positiva.

En efecto, expresando la matriz A como�a11 z

t

z C

�;

se tiene

C(1) = C � 1

a11

zzt:

Hay que mostrar que

ytC(1)y = y

tCy � 1

a11

�ytz

�2> 0; 8y 6= 0:

Por hip�otesis la matriz A es de�nida positiva, de donde

(x1 yt )

�a11 z

t

z C

��x1

y

�= a11x

21 + x1z

ty + y

tzx1 + y

tCy > 0;

Page 56: alisis erico

II.2 M�etodos Directos 45

para x1 2 R y y 2 Rn�1 los dos no nulos al mismo tiempo.

Planteando x1 = �ytz

a11, se tiene

(ytz)2

a11

� 2 (zty)2

a11

+ ytCy > 0;

por consiguiente

ytCy � 1

a11

�ytz

�2> 0:

La descomposici�on LR es �unica, si �esta existe, en efecto, si

A = L1R1 = L2R2;

dos descomposiciones de A. Se tiene

L�12 L1 = R2R

�11 ;

las matrices del tipo L, como aqu�ellas de tipo R forman subgrupos dentro

el grupo de las matrices inversibles, deduciendose que

L�12 L1 = I;

por lo tanto L1 = L2 y R1 = R2. Para demostrar la parte b) del teorema, se

de�ne la matriz L1, como

Lt1 = D

�1R;

donde D = diag(r11; � � � ; rnn), hay veri�car que L1 = L. Las siguientes

identidades se cumplen:

A = LR = LDLt1;

At = L1DL

t;

como A es sim�etrica y por la unicidad de la descomposici�on LR, se deduce

L = L1. �.

De�nici�on II.2.7.- Sea D una matriz diagonal a coe�cientes no negativos,

entonces:

D

12 = diag

�pd11; � � � ;

pdnn

�: (II:2:18)

Si se de�ne �L = LD

12 , se tiene

A = �L�Lt;

que es la descomposici�on de Cholesky de la matriz A sim�etrica y de�nida

positiva. Para simpli�car notaci�on, se escribe L, en lugar de �L. Entonces los

Page 57: alisis erico

46 II Sistemas Lineales

coe�cientes de la matriz L de la descomposici�on de Cholesky de A, est�an

dados por:

para k = 1; : : : ; n:

lkk =qakk � l

2k1 � l

2k2 � � � � � l

2k;k�1;

lik =aik � li1lk1 � � � � � li;k�1lk;k�1

lkk

; i = 1; : : : ; k � 1:

(II:2:19)

El costo en operaciones, despreciando el c�alculo de las raices cuadradas,

para obtener la descomposici�on de Cholesky, est�a dado por

nXk=1

k(n� k) �Z n

0

x(n� x)dx =n3

6: (II:2:20)

La resoluci�on de la ecuaci�on Ax = b, donde A es una matriz sim�etrica y

de�nida positiva, se puede efectuar en dos pasos utilizando la descomposici�on

de Cholesky:Ly = b;

Ltx = y;

los cuales necesitan un total aproximado, lo mismo que en el algoritmo de

Gauss,

n2 operaciones.

La estabilidad de la descomposici�on de Cholesky est�a dada por el

siguiente:

Teorema II.2.8.- Sea A una matriz sim�etrica y de�nida positiva. L el

resultado num�erico de la descomposici�on de Cholesky, entonces

���A� LLt��� � a eps

0BBBB@1 1 1 � � � 1

1 2 2 � � � 2

1 2 3 � � � 3...

......

1 2 3 � � � n

1CCCCA ; (II:2:21)

donde a = maxijjaij j.

Demostraci�on.- Se demuesta de la misma manera que el teorema II.2.4

referente a la estabilidad de la descomposici�on LR.

Page 58: alisis erico

II.2 M�etodos Directos 47

Ejercicios

1.- Escribir una subrutina DEC(N,NDIM,A,B,IP,IER) que calcule la des-

composici�on LR, tomando en cuenta la b�usqueda parcial de pivote.

Luego escribir una subrutina SOL(N,NDIM,A,B,IP) que permita resolver

Ax = b utilizando la descomposicion obtenida por DEC.

a) Resolver 0B@5 2 �1 3

1 20 3 4

0 1 1 30

2 8 �25 4

1CAx =

0B@9

28

32

�11

1CA :

b) Calcular la inversa de la matriz de Hilbert dada por

H =

�1

i+ j

�ni;j=1

para n = 2; 3; 4; 5:

2.- a) Calcular la descomposici�on de CholeskyLLt para la matriz de Hilbert

H =

�1

i+ j

�ni;j=1

; n = 15:

b) Comparar el resultado num�erico con los valores exactos,

ljk =

p2k � 1 � (j � 1)! � (j � 1)!

(j � k)!(j + k � 1)!: (II:2:22)

>Cu�antas cifras son exactas?

c) Si L es el resultado num�erico, calcular el residuo

A� LLt;

calcular tambi�en el residuo A�LLt para la matriz L dada por (II.2.22).

3.- Calcular cond1(An) para las matrices:

a) de Hilbert

b) de Vandermonde (aij) =�c

j�1i

�; i; j = 1 � � �n con ci =

in,

para n = 1; 2; 3; : : : ; 15. Calcular tambi�en 1nlog10(cond1(An)) y encon-

trar una f�ormula que aproxime cond1(An).

4.- Sea A una matriz-banda, sim�etrica y de�nida positiva, p el grosor de

la banda. Mostrar que, L de la descomposici�on de Cholesky es tambi�en

una matriz-banda. Si n es el orden de la matriz, sabiendo que n � p,

>Cuantas multiplicaciones son necesarias para calcular L?

Page 59: alisis erico

II.3 M�etodos Iterativos

En la secci�on II.2, se analiz�o dos m�etodos para resolver directamente sistemas

de ecuaciones lineales. Un m�etodo directo de resoluci�on de un sistema de

ecuaciones deber��a dar el resultado num�erico igual a la soluci�on exacta, si

no se considerase los errores de redondeo, es decir, si se contase con un

dispositivo de c�alculo con una precisi�on in�nita, desgraciadamente �este no

es el caso. Si bien, un m�etodo directo da una soluci�on que se aproxima a

la exacta, la principal desventaja de utilizarlos, reside en el hecho en que

cuando se debe resolver grandes sistemas lineales, la propagaci�on del error

de redondeo es muy grande, desvirtuando su valor; adem�as, en muchos casos

no se toma en cuenta muchas de las particularidades que pudiese tener la

matriz del sistema lineal, o �nalmente no es necesario obtener una soluci�on

exacta, si no una aproximaci�on de �esta. Los m�etodos que ser�an estudiados

en esta secci�on, son iterativos en el sentido en que se utilizan las soluciones

anteriores para obtener la siguiente. Entre los m�etodos que ser�an analizados

se tiene: Jacobi, Gauss-Seidel, SOR.

M�etodos de Jacobi y Gauss-Seidel

Estos m�etodos son utilizados para resolver el sistema de ecuaciones, dado

por

u = Au+ b: (II:3:1)

El m�etodo de Jacobi consiste en la utilizaci�on de la soluci�on anterior para

calcular la nueva soluci�on, es decir

u(k+1) = Au

(k) + b: (II:3:2)

Obviamente las soluciones obtenidas por el m�etodo de Jacobi no son exactas,

pero son aproximaciones de �estas.

Para la formulaci�on del m�etodo de Gauss-Seidel, consid�erese la matriz

A como

A = L+ U; (II:3:3)

donde:

L =

0BB@0 � � � 0

a21 0 � � � 0...

. . ....

an1 � � � an;n�1 0

1CCA ; U =

0BB@a11 a12 � � � a1n

0 a22 � � � a2n

.... . .

...

0 � � � 0 ann

1CCA :

Page 60: alisis erico

II.3 M�etodos Iterativos 49

El m�etodo de Gauss-Seidel est�a dado por:

u(k+1) = Lu

(k+1) + Uu(k) + b; (II:3:4)

cuya formulaci�on equivalente es

u(k+1) = (I � L)

�1Uu

(k) + (I � L)�1

b: (II:3:5)

Una vez formulados estos m�etodos, es importante, saber que condiciones

tiene que cumplir la matriz A, para que estos sean convergentes. Si se denota

por u� la soluci�on exacta de (II.3.1), se de�ne

e(k) = u

(k) � u�; (IV:3:6)

el error cometido en la k-esima iteraci�on. Por consiguiente, e(k) son los

resultados obtenidos en las iteraciones de uno de los m�etodos de�nidos m�as

arriba del problema

e = Ae; (IV:3:7)

de donde el m�etodo ser�a convergente, siempre y cuando

limn!1

e(n) = 0: (IV:3:8)

Existe una clase de matrices, para las cuales estos m�etodos son conver-

gentes. Una de sus caracter��sticas est�a dada por la:

De�nici�on II.3.1.- Una matriz A es irreducible si para cada (i; j), existe

una sucesi�on l0 = i; l1; � � � ; lm = j tal que

alk;lk+16= 0:

Gr�a�camente se puede visualizar mediante la noci�on de grafo dirigido,

en Grimaldi se puede encontrar una explicaci�on bastante detallada sobre

las aplicaciones de la teor��a de grafos. Consid�erese el grafo G compuesto del

conjunto de v�ertices V y el conjunto de aristas A, de�nido por:i) V = f1; 2; : : : ; ng,ii) (i; j) 2 A () aij 6= 0.

Para comprender esta de�nici�on, consid�erese los dos siguientes ejemplos,

sean:

A =

0BB@0 1

21

2 0

1 0 0 0

0 0 0 1

20 0 1

2 0

1CCA1 2

3 4

GA

Page 61: alisis erico

50 II Sistemas Lineales

B =

0B@0 1 0 0

1 0 1 0

0 1 0 1

0 0 1 0

1CA1 2

3 4

GB

Se puede observar facilmente, que la matriz A no es irreducible, mientras

que la matriz B si es irreducible.

Con la de�nici�on anterior se puede formular el siguiente teorema que da

una condici�on su�ciente, para que los m�etodos de Jacobi, como de Gauss-

Seidel, sean convergentes.

Teorema II.3.2.- Sea A una matriz no-negativa (aij � 0), con las siguientes

propiedades:

i)

nXj=1

aij � 1; i = 1; : : : ; n;

ii) Existe io, tal que

nXj=1

aioj < 1;

iii) A es irreducible;

entonces los m�etodos de Jacobi y Gauus-Seidel convergen hacia una soluci�on

�unica, adem�as existe � < 1, tal que e(k) 1

� C�k�1

e(0) 1

: (II:3:9)

Demostraci�on.- Se mostrar�a para el m�etodo de Jacobi. Se tiene

e(k+1) = Ae

(k);

sea � = max���e(0)i

���, de donde���e(1)i

��� �Xj

aij

���e(0)j

���| {z }��

� �;

con desigualdad estricta para i = io.

Page 62: alisis erico

II.3 M�etodos Iterativos 51

Puesto que la matriz A es irreducible, entonces los coe�cientes de An

son todos no nulos, en efecto

(An)ij =Xk1

� � �Xkn�1| {z }

n�1 veces

aik1ak1k2 � � � akn�1j

tiene un t�ermino no nulo. Adem�as para l �jo, se tieneXk

(A2)lk =Xk

Xj

aljajk

=Xj

alj

Xk

ajk

!�Xj

alj � 1:

Por inducci�on matem�atica, se deduce la desigualdad anterior para todas las

potencias de A, e inclusoXk

(An+1)lk =Xk

Xj

alj(An)jk

=Xj

alj

Xk

(An)jk

!<

Xj

alj � 1:

Por otro lado, utilizando la desigualdad (II.1.2), se tiene: Ae(0) 1

� kAk1

e(0) 1

� �; e(k) 1

= Ae(k�1)

1

� �:

Estas desigualdades se vuelven estrictas para No bastante grande, por

ejemplo No = n+ 1, por lo tanto e(No) 1

� �

e(0) 1

;

planteando

� =

0@ e(No) 1 e(0) 1

1A1

No

;

Page 63: alisis erico

52 II Sistemas Lineales

se tiene que � < 1, de donde la convergencia. El mismo procedimiento se

sigue para mostrar el m�etodo de Gauss-Seidel. �

El Teorema de Perron-Frobenius

Indudablemente por las consecuencias que implica el teorema de Perron-

Frobenius, es que vale la pena estudiarlo como un tema aparte. Es un

teorema cuya demostraci�on ha llevado mucho esfuerzo de parte de muchos

matem�aticos. Se enunciar�a este teorema sin dar una demostraci�on rigurosa,

sino los pasos de �esta.

Teorema II.3.3.- Sea A una matriz no negativa irreducible, entonces:

i) Existe un vector propio u, con ui > 0 respecto a un valor propio

r > 0.

ii) Todos los otros valores propios � de A son j�j < r. Sola

excepci�on posible � = re

i2�

n valor propio simple.

iii) r depende de manera estrictamente mon�otona de todos los

elementos de A.

Demostraci�on.- Se comenzar�a por el punto i). Sea u 2 Rn , tal que ui > 0;

entonces

v = Au;

de�niendo

ri =v1

ui

;

si los ri son todos iguales, el punto i) est�a demostrado; sino es posible variar

el vector u de manera que

[rmin; rmax]| {z }nuevo

�6=[rmin; rmax]| {z }antiguo

;

obteniendo una sucesi�on de intervalos estrictamente encajonados, siendo el

l��mite r.

No hay otro vector propio con ui > 0. Sea el cono

K = f(u1; : : : ; un)jui � 0g :

Como la matriz A es no negativa, se tiene

A(K) � K:

No es posible tener:

Au = �u; u 2 K;Av = �v; v 2 K;

�con � 6= �:

Page 64: alisis erico

II.3 M�etodos Iterativos 53

En efecto, sup�ongase que � < � y sea w = �u + tv, tal que t sea lo m�as

peque~no posible, de manera que w 2 K, entonces

Aw = ��u+ t�v 62 K;

por consiguiente, no puede haber m�as de un valor propio cuyo vector propio

est�e en el interior del cono.

Adem�as, r es un valor propio simple, ya que si no lo fuera, una peque~na

perturbaci�on en la matriz A llevar��a al caso de los valores propios simples,

caso que ha sido ya estudiado m�as arriba.

Por otro lado, no hay vectores propios en el borde del cono K. Efectiva-mente, sea u 2 @K, vector propio. Por hip�otesis, algunos de las componentesde u son nulos, pero al menos una de las componentes es diferente de 0. De

donde

u+Au+ � � �+Anu = (1 + �+ � � �+ �

n)u:

Como A es irreducible, existe No � n con

aNo

ij > 0; 8i; j;

por lo tanto

(Anu)j > 0; 8j;

conduciendo a una contradicci�on.

ii) Sean � otro valor propio de A, v su vector propio respectivo, sup�ongase

que � 2 R, se de�ne

w = u+ tv;

donde u 2 K vector propio, t sea lo m�as grande posible de manera que w 2 K,ver la �gura IV.3.1.

u

v

w Κ

Figura IV.3.1. Demostraci�on, Teorema Perron-Frobenius.

Page 65: alisis erico

54 II Sistemas Lineales

Si j�j > r, Aw sale de K, lo que es imposible.Para � complejo se tiene

Av = (� + i�)v;

donde � = � + i�, v = v1 + iv2 siendo los vj a coe�cientes reales. Por lo

tanto:Av1 = �v1 � �v2;

Av2 = �v1 + �v2;

el mismo an�alisis que para el caso real, da el mismo resultado.

iii) La monoton��a de r se muestra, despu�es de hacer un an�alisis sobre el

polinomio caracter��stico. �

Las consecuencias del teorema de Perron-Frobenius son muchas, entre las

cuales, la de mayor utilidad para el tema expuesto, reside sobre el teorema

II.3.2. En efecto, como la matriz A es no negativa e irreducible existe una

valor propio r > 0 m�as grande en modulo que los otros. Si la suma de las

lineas de la matriz A fuese igual a 1 se tendr��a que r = 1, pero existe una

�la cuya suma es inferior a 1, de donde por el punto iii) del teorema de

Perron-Frobenius, se tiene r < 1. Por consiguiente, todos los valores propios

en valor absoluto son inferiores a 1, dando la consiguiente convergencia de

los m�etodos de Jacobi y Gauss-Seidel.

Continuando el estudio de los m�etodos de Jacobi y Gauss-Seidel se tiene

otro resultado importante como el:

Teorema II.3.4.- Sea � el valor propio de A mas grande en m�odulo y � el

valor propio m�as grande en m�odulo de

(I � L)�1

U: (II:3:10)

Si � < 1, entonces � < �, para toda matriz A irreducible no negativa.

Demostraci�on.- Se tiene

(I � L)�1

= I + L+ L2 + � � �+ L

m;

de donde (I � L)�1

U es una matriz no negativa.

Sup�ongase que x es vector propio respecto a �, por consiguiente

(I � L)�1

Ux = �x;

Ux = �x� L�x;

(�L+ U) = �x;

por el teorema de Perron-Frobenius, � � 0; si � = 0 no hay nada que

demostrar, si no �L+

U

�x = x:

Page 66: alisis erico

II.3 M�etodos Iterativos 55

Utilizando nuevamente el teorema de Perron-Frobenius, es necesario que

� < 1, por que de lo contrario algunos coe�cientes de L + U

�ser�an mas

peque~nos que de L+ U y por lo tanto 1 < �

Nuevamente por el teorema de Perron-Frobenius, se tiene que el valor

propio maximal de �L+ U es estrictamente menor al valor propio maximal

de L+ U . �

Como consecuencia de este teorema se tiene que el m�etodo de Gauss-

Seidel converge m�as r�apidamente a la soluci�on que el m�etodo de Jacobi, si la

matrizA es no negativa, irreducible y con valor propio maximal m�as peque~no

que 1.

Una propiedad muy importante de algunas matrices, est�a dada por la:

De�nici�on II.3.5.- Una matriz A = L + U , como en (II.3.3), posee la

property A de Young, si los valores propios de la matriz de�nida por

�L+1

U =

�1�U

�L

�(II:3:11)

son independientes de �.

Ejemplos

1.- La matriz A de�nida por

A =

�0 B

C 0

�;

donde B y C son matrices cuadradas del mismo orden. A posee la

property A. En efecto, si

�x

y

�es un vector propio de A se tiene:

�B

C

��x

y

�= �

�x

y

�;�

1�B

�C

��x

�y

�= �

�x

�y

�:

2.- La matriz tridiagonal con coe�cientes diagonales nulos, dada por0BB@0 a

b 0 c

d 0 e

. . .. . .

1CCA

Page 67: alisis erico

56 II Sistemas Lineales

posee la property A. Pues, se tiene:0BB@0 a

b 0 c

d 0 e

. . .. . .

1CCA0BB@x

y

z

...

1CCA = �

0BB@x

y

z

...

1CCA ;

0BBB@0 1

�a

�b 0 1�c

�d 0 1�e

. . .. . .

1CCCA0BB@

x

�y

�2z

...

1CCA = �

0BB@x

�y

�2z

...

1CCA :

Teorema II.3.6.- Sea A una matriz no negativa, irreducible, con valor

propio maximal � < 1 y con la property A, entonces

� = �2; (II:3:12)

donde � es le valor propio m�as grande de la matriz inducida por el m�etodo

de Gauss-Seidel.

Demostraci�on.- Sea x el vector propio respecto a �, de donde

(�L+ U)x = �x;

dividiendo esta expresi�on porp� y aplicando la property A, se tiene�

p�L+

1p�

U

�x =p�x;

de dondep� es el valor propio maximal de A. �

Si la matriz A es irreducible, no negativa, con valor propio maximal

menor a 1 y adem�as con la property A, se tiene:

| M�etodo de Gauss-Seidel converge 2 veces m�as rapido que el de Jacobi.

| M�etodo de Gauss-Seidel ocupa la mitad de sitio de memoria.

| M�etodo de Gauss-Seidel ocupa la mitad de plaza de c�alculo.

| Pero Jacobi puede ser paralelizado, en cambio Gauss-Seidel no.

M�etodo de Sobrerelajaci�on SOR

Las siglas SOR signi�can en ingl�es Successive over relaxations. Es una

modi�caci�on del m�etodo de Gauss-Seidel. Consiste en utilizar un factor de

sobrerelajaci�on !. Primero se efectua una iteraci�on de Gauss-Seidel para

luego corregir con !, en s��ntesis el m�etodo SOR est�a dado por:

u(k+ 1

2) = Lu

(k+1) + Uu(k) + b;

u(k+1) = u

(k) + !

�u(k+ 1

2) � u

(k)�;

! > 1:

(II:3:13)

Page 68: alisis erico

II.3 M�etodos Iterativos 57

Haciendo el c�alculo de u, componente por componente, se tiene:

uauxi =Xj<i

aiju(k+1)j +

Xj�i

aiju(k)j + bi;

u

(k+1)

i = u

(k)i + !

�uauxi � u

(k)i

�:

(II:3:14)

Para ver la velocidad de convergencia de este m�etodo, es necesario hacer un

estudio sobre la convergencia. Una iteraci�on de SOR puede ser escrita como

u(k+1) = u

(k) + !Lu(k+1) + (!U � !I)u(k) + !b;

es deciru(k+1) = !Lu

(k+1) + (!U + (1� !)I)u(k) + !b;

por lo tantou(k+1) = (I � !L)

�1h(!U + (1� !)I)u(k) + !b

i: (II:3:15)

Sea � un valor propio de u(k+1) = (I � !L)�1

(!U + (1� !)I) y x el

vector propio asociado, entonces:

(I � !L)�1

(!U + (1� !)I)x = �x;

(!U + (1� !)I)x = � (I � !L)x;

!Ux+ (1� !)x = �x� �!Lx;

!Ux = (�� 1 + !)x� �!Lx;

(�L+ U)x =�� 1 + !

!

x;

dividiendo porp� se obtiene�

p�L+

1p�

U

�x =

�� 1 + !

!

p�

x;

de donde, se ha mostrado el siguiente:

Teorema II.3.7.- Sea A una matriz irreducible, no negativa y con la

property A. Si � es un valor propio de la matriz obtenida por SOR, entonces

� =�� 1 + !

!

p�

(II:3:16)

es valor propio de la matriz A.

El problema ahora, es determinar !, de manera que los valores propios

� sean lo m�as peque~nos posibles. Se tiene:

�� 1 + ! = �!

p�;

(�+ (! � 1))2= �

2!2�;

(II:3:17)

Page 69: alisis erico

58 II Sistemas Lineales

dando la ecuaci�on de segundo grado

�2 +

�2(! � 1)� �

2!2��+ (! � 1)2 = 0: (II:3:18)

Si �1; �2, las dos raices de esta ecuaci�on, son complejas; entonces ambas son

conjugadas, de donde

j�j = j! � 1j :Por lo tanto, condici�on necesaria para la convergencia es

�1 < ! < 2: (II:3:19)

Si �1; �2 son raices reales de (II.3.18), se tiene que uno de los raices es m�as

grande que la otra, a menos que �1 = �2. Esto sucede cuando la par�abola

�!

p� corta tangencialmente con la recta � � 1 + !. Ver �gura II.3.2, por

consiguiente, el discriminante de la ecuaci�on (II.3.18) es nulo, es decir:�2(! � 1)� �

2!2�2

= 4(! � 1)2;

�2!2 = 4(! � 1);

�2!2 � 4! + 4 = 0:

De donde, se ha demostrado el:

Teorema II.3.8.- El ! optimal est�a dado por

w =2

1 +p1� �

2; (II:3:20)

y el radio espectral de la matriz SOR correspondiente es

�max = w � 1 =1�p1� �

2

1 +p1� �

2: (II:3:21)

λ

λ

λ

µµµ

1

2

3

12

µ raices conjugadas.

Figura IV.3.2 Determinaci�on de w optimal.

Page 70: alisis erico

II.3 M�etodos Iterativos 59

Estudio de un problema modelo

Una de las aplicaciones m�as importantes de la utilizaci�on de m�etodos iter-

ativos para resolver sistemas lineales, consiste en la resoluci�on num�erica de

ecuaciones con derivadas parciales de tipo el��ptico. Consid�erese el siguiente

problema tipo:

�4u = f; sobre = [0; 1]� [0; 1];

f j@ = 0:(II:3:22)

Utilizando el m�etodo de diferencias �nitas, se discretiza la ecuaci�on de

derivadas parciales con un esquema de diferencias centradas. El cuadrado

es dividido en una malla uniforme de tama~no

h =1

n+ 1; (II:3:23)

se plantea:

xi = ih; i = 0; : : : ; n+ 1;

yj = jh; j = 0; : : : ; n+ 1;(II:3:24)

denotando

uij = u(xi; yj); fij = f(xi; yj): (II:3:25)

Discretizando la ecuaci�on para esta malla, se obtiene las siguientes ecua-

ciones:

�ui;j+1 + ui;j�1 + ui+1;j + ui�1;j � 4ui;j

h2

= fij ;

(i = 1; : : : ; n;

j = 1; : : : ; n;

u0j = 0; j = 0; : : : ; n+ 1;

un+1;j = 0; j = 0; : : : ; n+ 1;

ui0 = 0; i = 0; : : : ; n+ 1;

ui;n+1 = 0; i = 0; : : : ; n+ 1:

Cambiando la forma de las ecuaciones, se tiene

uij =1

4

�ui;j+1 + ui;j�1 + ui+1;j + ui�1;j + h

2fij

�;

(i = 1; : : : ; n;

j = 1; : : : ; n;

que en notaci�on matricial, tiene la forma

u = Au+1

4h2f; (II:3:26)

Page 71: alisis erico

60 II Sistemas Lineales

donde:

u = (u11; : : : ; u1n; u21; : : : ; u2n; : : : ; un1; : : : ; unn)t;

f = (f11; : : : ; f1n; f21; : : : ; f2n; : : : ; fn1; : : : ; fnn)t;

A =1

4

0BBBB@B I

I B I

. . .. . .

. . .

I B I

I B

1CCCCA ;

B =

0B@ 0 1

1. . .

. . .. . . 0

1CA ; I =

0@ 1. . .

1

1A:

De�nici�on II.3.9.- El producto tensorial de dos matrices P de orden n�my Q de orden l � k se de�ne como la matriz

P Q =

0B@ p11Q � � � p1mQ

......

pn1Q � � � pnmQ

1CA ; (II:3:27)

de orden nl�mk.

Por lo tanto, la matriz A del problema se escribe como

A =1

4(B I + I B) :

Para hacer estimaciones del costo de operaciones, al encontrar la soluci�on

con un error �jado de antemano, es necesario determinar la condici�on de

la matriz A, como as�� mismo el radio espectral de A para determinar la

velocidad de convergencia de los m�etodos de Jacobi, Gauss-Seidel y SOR.

Para tal efecto, se tiene la:

Proposici�on II.3.10.- El producto tensorial de matrices veri�ca la siguiente

propiedad

(B C) (D E) = BD CE: (II:3:28)

Demostraci�on.- Se deja como ejercicio �

Sean, yk y �k el vector y el escalar respectivamente, de�nidos por:

yk =

�sin(

ki�

n+ 1)

�ni=1

;

�k = 2 cos(k�

n+ 1);

(II:3:29)

Page 72: alisis erico

II.3 M�etodos Iterativos 61

puede veri�carse como ejercicio que yk es un vector propio de B asociado al

valor propio �k. Se tiene, utilizando (II.3.28)

A(yk yl) =1

4((B I)(yk yl) + (I B)(yk yl))

=1

4(�k + �l)(yk yl);

de donde se ha demostrado el:

Teorema II.3.11.- Los valores propios de A est�an dados por:

1

4(�k + �l) =

1

2

�cos(

k�

n+ 1) + cos(

l�

n+ 1)

�: (II:3:30)

La matriz B es tridiagonal con los coe�cientes de la diagonal nulos,

por consiguiente tiene la property A, veri�car el segundo ejemplo sobre esta

propiedad. Como la matriz A es igual a la suma de dos productos tensoriales

entre B y I , �esta tambi�en veri�ca la property A. Conociendo los valores

propios de A, se est�a en la posibilidad de aplicar los teoremas relativos a la

convergencia de los m�etodos de Jacobi, Gauss-Seidel y SOR.

Utilizando el anterior teorema, se tiene que el valor propio maximal de

A es igual a

�max = cos(�

n+ 1): (II:3:31)

Recordando el m�etodo de Jacobi se tiene:

u(k+1) = Au

(k) + f;

U� = AU

� + f;

e(k) = u

� � u(k);

e(k+1) = Ae

(k);

donde u� es la soluci�on exacta del problema lineal, e(k) el error en k-esima

iteraci�on.

Existe una base de vectores propios de la matriz A, para la cual el primer

vector est�a asociado a �max, de donde se tiene

e

(k+1)i = �ie

(k)i ; i = 1; : : : ; n2;

donde e(k)i es la i-esima componente respecto a la base. Por consiguiente

e

(N)1 = �

Ni e

(0)i ;

Page 73: alisis erico

62 II Sistemas Lineales

obteniendose as�� el n�umero de iteraciones necesarias para conseguir una

precisi�on relativa de 10�m. Por las siguientes relaciones:

�n1 � 10�m;

N ln�max � �m ln 10;

N ln�1� �

2

2(n+ 1)2�� �m ln 10;

�N �2

2(n+ 1)2� �m � 2:3;

por lo tanto

N =2m � 2:3

�2

(n+ 1)2 � 1

2mn

2: (II:3:32)

Ahora bien, una iteraci�on equivale m�as o menos 4n2 operaciones, de donde

el trabajo necesario es 2mn4 operaciones.

Considerando, que el m�etodo de Gauss-Seidel se realiza en la mitad de

operaciones respecto al de Jacobi, y por el teorema II.3.6, el n�umero de

iteraciones para llegar a una precisi�on relativa de 10�m es la mitad de Jacobi.

Las siguiente tabla indica el n�umero de operaciones, tiempo para diferentes

precisiones requeridas.

Tabla II.3.1. Valores para el m�etodo de Jacobi.

n Precisi�on # operaciones Tiempo de C�alculo

10 10�2 105 0:1sec

100 10�4 109 103sec � 20min

1000 10�6 1013 107sec � 7; 7a~nos

Para el m�etodo de Gauss-Seidel los valores, se obtienen de la tabla II.3.1,

dividiendo por 4 los valores para n�umero de operaciones y tiempo de c�alculo.

En este tipo de problema es donde se ve la verdadera potencia del m�etodo

SOR, respecto a los m�etodos de Jacobi y Gauss-Seidel. Para estimar el

tiempo de c�alculo, como el n�umero de operaciones es necesario estimar !

optimal, como tambi�en �max del teorema II.3.8. Utilizando desarrollos de

Taylor para la raiz cuadrada, como para el cociente, se obtiene:

umax � 1� 2�

n+ 1;

!op � 2

�1� �

n+ 1

�:

(II:3:33)

Page 74: alisis erico

II.3 M�etodos Iterativos 63

Por lo tanto, el n�umero de iteraciones para obtener una precisi�on relativa de

10�m es approximadamente igual a

N � 0:4mn: (II:3:34)

Para una precisi�on de 10�6 se tiene la siguiente tabla:

Tabla II.3.2. Valores para el m�etodo SOR.

n # Operaciones Tiempo de C�alculo !op

10 104 10�2sec 1; 42

100 107 10sec 1; 93

1000 1010 104sec � 3horas 1; 9937

Para el problema con

f =

(1; sobre [1=4; 3=4]� [1=4; 3=4] ;

�1; sino;(II:3:34)

se obtiene utilizando SOR, los valores de u gra�cados en �gura II.3.3.

Figura II.3.3. Gr�a�ca de la soluci�on del problema (II.3.34).

Page 75: alisis erico

64 II Sistemas Lineales

Ejercicios

1.- Para resolver iterativamente el problema Ax = b, se considera la

iteraci�on

Mx(k+1) = Nx

k + b; con A =M �N:

Determinar M y N para los m�etodos de Jacobi y Gauss-Seidel.

Programar los dos m�etodos y aplicarlos al problema

0B@4 �1 0 �1�1 4 �1 0

0 �1 4 �1�1 0 �1 4

1CAx =

0B@3

�37

1

1CA ;

la soluci�on exacta es x� = ( 1 0 2 1 ). Estudiar la velocidad de

convergencia x(k+1) � x

x(k) � x�

para los dos m�etodos.

2.- (Estudio de la demostraci�on del Teorema de Perron-Frobenius). Sea

A =

0B@0 1=2

1=2 0 1=2

1=2 0 1=2

1 0

1CA :

Para un vector positivo u dado, se calcula v = Au y se de�ne ri = vi=ui.

Para el vector u = (1; 1; 1; 1)t se obtiene de esta manera r1 = 1=2,

r2 = r3 = r4 = 1.

Modi�car este vector con peque~nas perturbaciones, para llegar a

1

2< ri < 1 para todo i:

3.- (Un teorema de la teor��a de grafos). Se da un grafo conexo de n nudos

y se de�ne una matriz A por

aij =1 si i 6= j y el nudo i est�a ligado al nudo j;

0 si i = j o el nudo i no est�a ligado al nudo j;

Page 76: alisis erico

II.3 M�etodos Iterativos 65

Ejemplo:

6 3

45

2

1

() A =

0BBBBB@1

1 1

1 1 1

1 1

1

1

1CCCCCADemostrar: Sea r el valor propio maximal de A, entonces se tiene siempre

r >

p3;

excepto en los casos:

r=1; para un grafo;

r=p2; para un grafo;

r=(1 +p5=2); para un grafo;

r=p3; para dos grafos.

4.- Demostrar que la matriz bloque

A =

0@ 0 B

C 0 D

E 0

1Averi�ca la property A.

5.- (Producto de Kronecker). Sea B = (bij) una matriz de n�n y C = (cij)

una matriz m�m. Se de�ne A = B C, una matriz nm� nm, por

A = B C =

0@ b11C � � � b1nC

......

bn1C � � � bnnC

1A:

a) Mostrar: si x es un vector propio de dimensi�on n e y es un vector de

dimensi�on m, entonces

(Bx) (Cy) = (B C)(x y)

donde x y est�a de�nido similarmente.

b) Deducir que: si

x es vector propio de B; con valor propio �;

y es vector propio de C; con valor propio �;

entonces

x y es vector propio de B C; con valor propio � � �:

Page 77: alisis erico

II.4 M�etodos Minimizantes

Otra clase de m�etodos com�unmente utilizados en la resoluci�on de grandes

sistemas lineales, son los m�etodos de tipo gradiente que consisten en la

resoluci�on un problema de minimizaci�on equivalente. Esta clase de m�etodos

se aplica a la resoluci�on de

Ax = b; (II:4:1)

donde A es una matriz sim�etrica de�nida positiva.

La equivalencia con el problema de minimizaci�on, est�a dada por la

siguiente:

Proposici�on II.4.1.- SiA es sim�etrica y de�nida positiva, los dos problemas

siguientes son equivalentes:

f(x) =1

2xtAx� x

tb+ c! min; (II:4:2)

Ax = b: (II:4:2)

Demostraci�on.- El primer problema puede ser escrito como

1

2

Xi;j

xiaijxj �Xj

xjbj + c! min : (II:4:4)

El procedimiento para encontrar el m��nimo, consiste en derivar f , de donde

@f

@xk

=1

2

Xj

akjxj +1

2

Xi

xiaik � bk = 0:

Puesto que A es sim�etrica, se tieneXj

akjxj � bk = 0:

Si x es soluci�on de (II.4.2), se tiene que x es soluci�on del problema (II.4.3).

Ahora bien, si x es soluci�on de (II.4.3), es un punto cr��tico de la funci�on

f , pero como A es de�nida positiva, se tiene que f posee x como un m��nimo.

Page 78: alisis erico

II.4 M�etodos Minimizantes 67

M�etodo del Gradiente

El gradiente de f , utilizando la demostraci�on de la anterior proposici�on,

est�a dado por

rf(x) = Ax� b: (II:4:5)

Sea xo un punto de partida, se tiene:

f(x) = f(xo) + hrf(xo); x� xoi+1

2(x � xo)

tA(x� xo);

= f(xo) + kx� x0k krf(xo)k cos � +1

2(x� xo)

tA(x � xo);

donde � es el �angulo entre rf(xo) y x � x0. Como se busca que f(x) sea

m��nimo,rf(xo) y x�xo deben tener la misma direcci�on y el mismo sentido.Sup�ongase que se ha encontrado este x, que se lo denota por x1, se

puede plantear para k � 0, obteniendo as��, el m�etodo del gradiente

xk+1 = x

k � �kgk; (II:4:6)

donde gk = rf(xk). El problema, por consiguiente, es determinar �k

teniendo en cuenta las observaciones anteriores, se de�ne la funci�on G(�)

por

G(�) =1

2(xk � �g

k)tA(xk � �gk)� (xk � �g

k)tb; (II:4:7)

de donde, el m��nimo de G est�a en �k, dado por

�k =gktgk

gktAg

k: (II:4:8)

Una ilustraci�on de las iteraciones del m�etodo del gradiente est�a dada en la

�gura II.4.1.

x

x

x

x

o

1

2

Figura II.4.1 Ilustraci�on m�etodo del gradiente.

Page 79: alisis erico

68 II Sistemas Lineales

Planteando hk = Ag

k, se tiene la versi�on algor��tmica del m�etodo del

gradiente:

1 x := xo;

2 g := Ax� b;

3 Si jgj � TOL, entonces FIN;

4 h := Ag;

5 � :=hg; gihg; hi ;

6 x := x� �g;

7 retornar al paso 2.

La velocidad de convergencia del m�etodo del gradiente, est�a dada por

el teorema siguiente, que ser�a enunciado sin demostraci�on.

Teorema II.4.2.- Sean, A sim�etrica y de�nida positiva, �max el valor propio

m�as grande, �min el valor propio m�as peque~no de A, por lo tanto

� =�max

�min

= cond2A;

entonces xk � x

� � ��� 1

�+ 1

�k x0 � x

� ; (II:4:9)

donde x� es la soluci�on exacta.

Adem�as, se tiene el:

Teorema II.4.3.- Existe, x0 tal que

xk � x

� = ��� 1

�+ 1

�k x0 � x

� : (II:4:10)

Demostraci�on.- En un referencial con un origen adecuado y una base de

vectores propios de A, el problema (II.4.2) puede formularse como

1

2xt �Ax� c! min;

es decir�Ax = 0; (II:4:11)

donde �A = diag(�min; : : : ; �max). Dividiendo (II.4.11) por �max, se obtiene

el sistema equivalente

Ax =

0@ 1. . .

1Ax = 0: (II:4:12)

Page 80: alisis erico

II.4 M�etodos Minimizantes 69

Por lo tanto, se puede suponer que A tiene la forma de A. Planteando

x0i = 0; para i = 2; : : : ; n� 1;

el problema se reduce a resolver�1 0

0 �

��x

y

�=

�0

0

�: (II:4:13)

El siguiente paso, es encontrar (x0; y0)t, que al aplicar el m�etodo del

gradiente, se tenga �x1

y1

�=

�qx

0

�qy0�:

Ahora bien, una iteraci�on del m�etodo del gradiente da:

g0 =

�x0

�y0

�;�

x1

y1

�=

�x0

y0

�� �

�x0

�y0

�=

�(1� �)x0

(1� ��)y0)

�;

de donde:q = 1� �;

�q = 1� �� ;

despejando q, se obtiene

q =�� 1

�+ 1:

Puesto que la oscilaci�on encontrada no depende del punto inicial, las itera-

ciones siguientes presentar�an el mismo fen�omeno. Con lo que se ha mostrado

el teorema. �

M�etodo del Gradiente Conjugado

La �ultima demostraci�on muestra que en determinadas ocasiones el m�etodo

del gradiente conduce a una oscilaci�on en torno a la soluci�on, haciendo

que la convergencia no sea tan r�apida como se espera, pudiendo mejorar

esta situaci�on, tomando aparte de la direcci�on del gradiente otra direcci�on

alternativa. El m�etodo del gradiente conjugado consiste en tomar tambi�en

la direcci�on conjugada al gradiente. Para poder enunciar tal m�etodo es

necesario dar los elementos te�oricos para su comprensi�on.

Proposici�on II.4.4.- Sea f(x) = 1

2xtAx � x

tb, donde A es una matriz

sim�etrica y de�nida positiva. Sea d una direcci�on, entonces los m��nimos de

f(x) sobre las rectas paralelas a d se encuentran en el hiperplano

dt(Ax � b) = 0: (II:4:14)

Page 81: alisis erico

70 II Sistemas Lineales

Demostraci�on.- Si x pertenece a una recta de direcci�on d, es de la forma

x = a+ �d; donde � 2 R:

Se de�ne la funci�on g, como g(t) = f(a+ td), por lo tanto esta funci�on tiene

un m��nimo en t0, si

g0(to) = d

tf0(a+ t

od) = 0;

es decir, si se cumple

dt (A(a+ t

od)� b) = 0:

De�nici�on II.4.5.- Dos direcciones d1 y d2 son conjugadas respecto a A si

d1tAd

2 = 0: (II:4:15)

Con lo enunciado anteriormente, se puede formular el m�etodo del gradiente

conjugado.

Sea x0 un punto de partida, el gradiente inicial est�a dado por

g0 = Ax

0 � b;

se de�ne

d0 = �g0:

Sup�ongase, que se ha efectuado k iteraciones, es decir, se conoce dk, gk y xk;

entonces se de�ne:

�k =�dk; g

k�

dk; Ad

k� ;

xk+1 = x

k + �kdk;

gk+1 = Ax

k+1 � b = gk + �kAd

k;

dk+1 = �gk+1 + �kd

k:

(II:4:16)

Para determinar �k, se impone la condici�on que dk+1 y dk sean conjugados,

por consiguiente

gk+1t

Adk = �kd

ktAd

k;

de donde

� =

gk+1

; Adk�

dk; Ad

k� : (II:4:17)

Page 82: alisis erico

II.4 M�etodos Minimizantes 71

La versi�on algor��tmica est�a dada por:

1 x := punto de partida;

2 g := Ax� b;

3 d := �g;4 h := Ad;

5 � :=hd; gihd; hi ;

6 x := x+ �d;

7 g := g + �h;

8 si jgj � 10�6, entonces �n algoritmo;

9 �; =hg; hihd; hi ;

10 d := �g + �d;

11 Retornar al paso 4.

Teorema II.4.6.- Con el algoritmo del Gradiente Conjugado se tiene:dk; Ad

l�= 0; l < k;

gk; g

l�= 0; l < k:

(II:4:18)

Demostraci�on.- Por inducci�on sobre k.

Para k = 1 se tiened0; Ad

1�= 0 por construcci�on del m�etodo,

g1; g

0�=g0; g

0���0Ag

0; g

0�

= 0:

Sup�ongase cierto para k, por la construcci�on de gk+1, se tienegk+1

; dk�= 0,

entonces: gk+1

; gk�=gk+1

; dk�| {z }

0

+�k�1gk+1

; dk�1�

= �k�1

gk; d

k�1�| {z }

0

+�k�k�1Ad

k; d

k�1�| {z }

0 hip. ind

;

gk+1

; gl�=gk; g

l�| {z }

0

+�kAd

k; d

l�

= 0;

dk+1

; Adl�= c1

gk+1

; Adl�+ c2

dk; Ad

l�| {z }

0 hip. ind

= c1

gk+1

; gl�= 0:

Page 83: alisis erico

72 II Sistemas Lineales

En el ejercicio 4, se tiene otras f�ormulas para �k; �k �

De�nici�on II.4.7.- Se de�ne la norma natural del problema por

kxkA =pxtAx: (II:4:19)

Teorema II.4.8.- El error del m�etodo del Gradiente Conjugado, despu�es

de l iteraciones satisface x� � x

l A�M

x� � x

0 A; (II:4:20)

donde

M = inf�i2R

sup

� v.p. A

��1 + �1�+ �2�2 + � � �+ �l�

l��!

: (II:4:21)

Corolario II.4.9.- Si A tiene solamente l valores propios diferentes, en-

tonces el m�etodo del Gradiente Conjugado da la soluci�on exacta despu�es de

l iteraciones.

Demostraci�on del teorema.- Se puede suponer por traslaci�on, que b = 0,

de donde la soluci�on exacta es x� = 0, por lo tanto el error cometidos es

el = x

l. Se tiene d0 = �g0, de�niendo E1 por:

E1 =�x = x

0 + �1d0

=�x = x

0 + 1Ax0

=�x = (I + 1A)x

0:

x1 es el punto de E1 que minimiza f(x) =

1

2xtAx:

E2 =�xjx = x

0 + �1d0 + �2d

1

=�xjx = (I + 1A+ 2A

2)x0:

x2 minimiza f(x) en E2. Continuando se llega a

El =�xjx = (I + 1A+ � � �+ lA

l)x0;

xl minimiza f(x) en El.

Sean v1; : : : ; vn vectores propios normalizados de A, por lo tanto forman

una base. Por consiguiente:

x0 =

nXi=1

�ivi;

x0tAx

0 =Xi;j

�ivtiAvj�j

=Xi

�2i �i

= x0 A:

Page 84: alisis erico

II.4 M�etodos Minimizantes 73

Por otro lado, se tiene

xk = (I + 1A+ � � �+ lA

l)

nXi=1

�ivi

=

nXi=1

�i(1 + 1�i + � � �+ l�li)vi;

xlAx

l =

nXi=1

�2i �i(1 + 1�i + � � �+ l�

li);

de donde xl 2A� max

�1;:::;�n

��1 + 1�i + � � �+ l�li

��2 x0 2A:

Polinomios de Chebichef

Sup�ongase, que se conoce los valores propios de la matriz A sim�etrica y

de�nida positiva, es decir:

0 < �min � �i � �max:

El polinomio que minimiza el polinomio del teorema II.4.8 tiene la propiedad

siguiente:

| es igual a � en �min,

| admite los valores ��;+� como valores maximos en el int�ervalo

[�min; �max] exactamente l + 1 veces,

| es igual a �� en �max.

La raz�on puede apreciarse en la �gura II.4.2, para el caso l = 2.

λλ maxmin

ε

−ε

1

Figura II.4.2 Polinomio minimizante para l = 2.

Page 85: alisis erico

74 II Sistemas Lineales

De�nici�on II.4.10.- El n-simo polinomio de Chebichef, es el polinomio de

grado n, Tn(x) tal que:

Tn(1) = 1,

Tn(�1) = (�1)n,Todos los m��nimos y m�aximos relativos son�1 y pertenecen a (�; 1; 1).

Teorema II.4.11.- Chebichef. Tn(x) est�a dado por

Tn(x) =1

2

��x+

px2 � 1

�n+�x�

px2 � 1

�n�: (II:4:22)

Demostraci�on.- Este teorema ser�a abordado en el Cap��tulo IV, motivo por

el cual la demostraci�on no es necesaria por el momento. Lo �unico que puede

decirse, es que la de�nici�on moderna de los polinomios de Chebichef est�a

dada por

Tn(x) = cosn�; donde x = cos �: (II:4:23)

Teorema II.4.12.- La constante M del teorema II.4.8, est�a dada por

M =1

Tl

��max+�min

�max��min

� : (II:4:24)

Demostraci�on.- Se utiliza la transformaci�on af��n dada por

x = �� + �;

donde:

� =2

�max � �min

;

� = ��max + �min

�max � �min

:

por consiguiente tomando 1=M = Tl(�) se tiene el resultado deseado. �

Teorema II.4.13.- Para el m�etodo del Gradiente Conjugado, se tiene la

estimaci�on xl � x

� A� 2

�p�� 1p�+ 1

�l x0 � x

� A; (II:4:25)

donde � = cond2(A), x� la soluci�on exacta.

Page 86: alisis erico

II.4 M�etodos Minimizantes 75

Demostraci�on.- Para x � 1, se tiene

jTl(x)j �1

2

�x+

px2 � 1

�l;

de donde

M � 2�x+

px2 � 1

�l ; para x � 1; (II:4:26)

particularmente para

x =�max + �min

�max � �min

=�+ 1

�� 1;

remplazando en (II.4.26), se obtiene (II.4.25). �

Con los resultados obtenidos respecto a los errores de convergencia,

tanto para el m�etodo del gradiente, como para el m�etodo del gradiente con-

jugado, se puede estimar el n�umero de iteraciones necesarias para conseguir

una precisi�on relativa de 10�b. Para el m�etodo del gradiente por (II.4.6), se

tiene:

10�b ���� 1

�+ 1

�;

�2:3b � l ln(1� 1=�)� l ln(1 + 1=�);

�2:3b � �2l=�;l � b�: (II:4:27)

Con el mismo procedimiento que para el m�etodo del gradiente, el m�etodo

del gradiente conjugado necesita aproximadamente l iteraciones, de donde

l � b

p�: (II:4:28)

M�etodo del Gradiente Conjugado Precondicionado

El corolario II.4.9 indica claramente, que el m�etodo del Gradiente Conjugado

converge a la soluci�on exacta despues de l iteraciones, siendo l el n�umero de

valores propios diferentes de la matriz A. Se puede mejorar la velocidad de

convergencia, haciendo un cambio de variables en el problema original

f(x) =1

2xtAx� x

tb:

Se de�ne x como

x = Etx;

Page 87: alisis erico

76 II Sistemas Lineales

donde E es una matriz inversible con ciertas condiciones a cumplir que ser�an

dadas m�as adelante. Para no recargar la notaci�on, se denota

Et�1 = E

�t:

Por consiguiente, el problema se convierte en

f(x) =1

2xtE�1AE

�tx� xE

�1b: (II:4:29)

El problema es encontrar E, de manera EEt � �A, � > 0 con el

menor gasto de operaciones posibles. Si EEt = �A, aplicando el m�etodo del

gradiente conjugado a (II.4.29) se tiene la soluci�on exacta despu�es de una

sola iteraci�on, en este caso, la matriz E es la descomposici�on de Cholesky

de �A. Ahora bien, realizar la descomposici�on de Cholesky signi�ca que se

puede calcular directamente la soluci�on, lo que implica un gran n�umero de

operaciones a ejecutar. La determinaci�on de E se la realiza utilizando dos

m�etodos que ser�an analizados m�as adelante.

El algoritmo del gradiente conjugado para el problema condicionado

est�a dado por:

1 x := punto de partida;

2 g := E�1AE

�tx�E

�1b;

3 d := �g;4 h := E

�1AE

�td;

5 � :=

Dd; g

EDd; h

E ;6 x := x+ � d;

7 g := g + � h;

8 si jgj � 10�6, entonces �n algoritmo;

9 �; =

Dg; h

EDd; h

E ;10 d := �g + �d;

11 Retornar al paso 4.

La implementaci�on del m�etodo del gradiente conjugado al problema

condicionado (II.4.29), tiene dos incovenientes: El primero que se debe

conocer explicitamente la matriz E y el segundo que se efectuan muchas

operaciones con la matriz E.

Planteando C = EEt, se puede formular el algoritmo, comparando

con el m�etodo del gradiente conjugado para el problema condicionado y

utilizando las identidades para �k y �k dadas en el ejercicio 4, uno se

Page 88: alisis erico

II.4 M�etodos Minimizantes 77

dar�a cuenta de las sutilezas empleadas. Por consiguiente, la formulaci�on

algor��tmica est�a dada por:

1 x := punto de partida;

2 g := Ax� b;

3 � := C�1g;

4 �o := hg; �i;5 d := ��;6 h := Ad;

7 � := �0=hd; hi;8 x := x+ �d;

9 g := g + �h;

10 si jgj � 10�6, entonces �n algoritmo;

11 � := C�1g;

12 �1 := hg; �i;13 �; = �1=�0;

14 d := ��+ �d;

15 �0 := hd; gi;16 Retornar al paso 6.

Esta formulaci�on presenta algunas novedades respecto a la formulaci�on

del m�etodo del gradiente conjugado. La m�as importante es la aparici�on

del vector �. El gasto en memoria es practicamente el mismo, pues se

puede utilizar el mismo lugar de memoria para h y �. Por las observaciones

anteriores la matriz C debe ser lo m�as parecida a la matriz A o a un m�ultiplo

de �esta. Adem�as, se debe resolver la ecuaci�on

C� = g;

motivo por el cual la matriz C debe ser la m�as simple posible. Actualmente

existen dos m�etodos muy utilizados para determinar C, dependiendo sobre

todo de las caracter��sticas de A. Estos son:

1.- Factorizaci�on Incompleta de Cholesky

La descomposici�on de Cholesky incompleta de la matriz A, est�a dada por

EEt. Los coe�cientes de E son nulos en el lugar donde los coe�cientes de A

son nulos; para los otros coe�cientes, los valores est�an dados por las f�ormulas

obtenidas para la descomposici�on de Cholesky dada en la seccion II.2, es

decir:

eii =

vuutaii �

i�1Xj=1

e2ji; (II:4:30a)

eki =

0@aki �

k�1Xj=1

ekjeji

1Aeii

: (II:4:30b)

Page 89: alisis erico

78 II Sistemas Lineales

Luego se resuelve:

Eg = g;

Et� = g:

2.- SSOR precondicionado (Axelsson, 1973)

La matriz A puede ser descompuesta en tres partes, la diagonal, la parte

inferior y la parte superior. El m�etodo SSOR consiste en de�nir la matriz

E, como una matriz triangular inferior, cuyos coe�cientes de la diagonal

son iguales a la raiz cuadrada de los coe�cientes de la diagonal de A. Los

coe�cientes de la parte inferior de la matriz E son iguales a los coe�cientes

de la parte inferior de la matriz A multiplicados por un factor de relajaci�on

positivo !, es decir:

eii =paii; (II:4:31a)

eki = !aki; ! � 0: (II:4:31b)

Luego se resulve:

Eg = g;

Et� = g:

La determinaci�on del ! optimal se realiza al tanteo, dependiendo del pro-

blema a resolver, pues por el momento no existe un criterio an�alitico para

determinar este valor optimal.

Resultados Num�ericos

El estudio te�orico y la formulaci�on de m�etodos de resoluci�on de sistemas

lineales por si solo constituye un hermoso ejercicio mental. Un m�etodo no es

bueno, hasta que ha sido probado num�ericamente en problemas concretos,

por eso es importante poder comparar la e�ciencia de los diferentes m�etodos

formulados en esta secci�on, en diferentes tipos de problemas.

Al igual que la secci�on II.3, se considerar�a una ecuaci�on a derivadas

parciales de tipo el��ptico, pues este tipo de problema, se presta mucho a la

resoluci�on de grandes sistemas lineales. Sea,

4u = �1; sobre = [0; 1]� [0; 1];

uj@ = 0:(II:4:32)

De la misma manera, que la secci�on precedente, se subdivide el dominio

en una malla uniforme de longitud 1=n+ 1, planteando:

xi = ih

yj = jh

); h =

1

n+ 1; (II:4:33)

Page 90: alisis erico

II.4 M�etodos Minimizantes 79

se obtiene el sistema de ecuaciones dado por:

ui;j+1 + ui;j�1 + ui+1;j + ui�1;j � 4uij = �h2; i; j = 1; : : : ; n;

ukj = uil = 0; k = 0 o k = n+ 1; l = 0 o l = n+ 1:

Planteando u = (u11; : : : ; u1n; u21; : : : ; u2n; : : : ; un;1 : : : ; unn)t, el sistema

lineal se escribe como

Au = h21; (II:4:34)

donde A = 4I+BIn+IB, con producto tensorial de matrices de�nido

en la anterior secci�on, In la matriz identidad de orden n� n y

B =

0B@ 0 1

1. . .

. . .. . . 0

1CA :

A es una matriz de�nida positiva y sim�etrica de orden n2 � n

2.

El problema (II.4.34) ser�a resuelto tomando valores aleatorios para u1.

Se ver�a el costo en iteraciones para diferentes valores de n. Una vez efectuados

los experimentos num�ericos, las gr�a�cas de las iteraciones del m�etodo del

gradiente conjugado precondicionado SSOR, pueden ser observadas en la

�gura II.4.3.

iter=0 iter=1 iter=2 iter=3

iter=4 iter=5 iter=6 iter=7

iter=8 iter=9 iter=10 iter=18

Figura II.4.3. Soluci�on del problema (II.4.34).

Page 91: alisis erico

80 II Sistemas Lineales

En la �gura II.4.4 se observa en una gr�a�ca el costo en iteraciones para

alcanzar una precisi�on de 10�6 para los diferentes m�etodos de tipo gradiente.

iter

Gradiante Conjugado SSOR.

101 102100

101

102

103

104

iter

n

Gradiante.

Gradiante Conjugado.

Grad. Conj. Chols. Incom.

Gradiante Conjugado SSOR.

Figura II.4.4. N�umero de iteraciones vs n.

Finalmente la tabla II.4.1, da el n�umero de iteraciones para alcanzar

una precisi�on de 10�6 utilizando el m�etodo del gradiante conjugado pre-

condicionado para diferentes valores de n y el factor de relajaci�on !. En la

�ultima columna se agrega, ! optimal en funci�on de n.

Tabla II.4.1. Determinaci�on de ! optimal.

n n ! 0:6 :65 :7 :75 :8 :85 :9 :95 !op

10 10 9 8 7 8 9 11 12 :75

20 12 12 11 10 9 10 11 14 :8

50 27 24 22 18 17 15 14 16 :9

100 43 35 37 31 27 24 20 18 :95

180 72 59 55 46 40 41 33 27 :95

Page 92: alisis erico

II.4 M�etodos Minimizantes 81

Ejercicios

1.- Mostrar que una matriz sim�etrica A es de�nida positiva si y solamente

si

det(Ak) > 0 k = 1; 2; : : : ; n donde Ak =

0@ a11 � � � a1k

......

ak1 � � � akk

1Ason los menores principales.

Indicaci�on: Intentar con la descomposici�on de Cholesky.

2.- Calcular el m��nimo de

f(x) =1

50(x1; x2)

�93 24

24 107

��x1

x2

�� 1

5(42; 21)

�x1

x2

�por el m�etodo del gradiente conjugado partiendo del valor inicial x0 = 0.

Hacer un buen gr�a�co de los puntos x0, x1, x2, de los vectores g0, g1,

d0, d1, y de las curvas de nivel de la funci�on f(x).

3.- Aplicar el m�etodo del gradiente conjugado al sistema lineal0@ 2 1 1

1 2 1

1 1 2

1Ax =

0@ 3

2

3

1Apartiendo de x0 = 0. El m�etodo converge en 2 pasos. >Por qu�e?

4.- Mostrar, utilizando las f�ormulas y las relaciones de ortogonalidad del

teorema II.4.6, las expresiones siguientes para �k y �k:

�k =

gk+1

; gk+1�

gk; g

k� ; �k =

gk; g

k�

dk; Ad

k� :

5.- Demostrar que la funci�on de la forma

f(x) = xn + �1x

n�1 + �2xn�2 + � � �+ �n

se separa lo menos posible de cero entre los l��mites x = �1 y x = +1,

est�a dada por

f(x) =Tn(x)

2n:

Page 93: alisis erico

82 II Sistemas Lineales

6.- Demostrar las relaciones de ortogonalidad

Z +1

�1

Tn(x)Tm(x)p1� x

2dx =

8>><>>:0 si n 6= m;

2si n = m 6= 0;

� si n = m = 0:

7.- (Modi�caci�on del m�etodo del gradiante conjugado para matrices no

sim�etricas o no de�nidas positivas). Sea

Ax = b (II:4:35)

un sistema lineal, donde A es una matriz arbitraria inversible. El sistema

AtAx = A

tb (II:4:36)

tiene las mismas soluciones que (II.4.35), pero la matriz C = AtA es

sim�etrica y de�nida positiva. Aplicar el m�etodo del gradiente conjugado

al sistema (II.4.36) y rescribir el algoritmo obtenido de manera que el

producto AtA no aparezca mas. Cual es la desventaja del nuevo algo-

ritmo si, por mala suerte, se aplica al sistema (II.4.35) que inicialmente

era sim�etrico y de�nido positivo.

Page 94: alisis erico

II.5 M��nimos Cuadrados

Hasta la secci�on precedente, se estudiaron problemas inherentes a la reso-

luci�on de sistemas de ecuaciones lineales donde la soluci�on existe y es �unica.

En esta secci�on se estudiar�an problemas m�as generales, donde la existencia

y unicidad no juegan un rol tan preponderante.

El problema que se estudiar�a consiste b�asicamente en el siguiente. Se

tiene como datos:

(tj ; yj); j = 1; : : : ;m; (m grande); (II:5:1)

donde tj 2 R, yj 2 R; y una funci�on de modelo

y = ' ((t; x1; : : : ; xn)) ; n � m; (II:5:2)

donde t 2 R, y 2 R y xi 2 R.Un ejemplo de funci�on de modelo, es la siguiente funci�on:

' ((t; x1; x2)) = x1 + tx2 + t2x1:

El problema consiste en encontrar x1; : : : ; xn; tales que

' ((t; x1; : : : ; xn)) � yj ; j = 1; : : : ;m: (II:5:3)

* *

** * *

**

t t t1 2 m

*

*

*

Figura II.5.1 Problema de los m��nimos cuadrados.

Sup�ongase que, ' es lineal respecto a los xi, es decir

' ((t; x1; x2)) =

nXi=1

ci(t)xi; (II:5:4)

Page 95: alisis erico

84 II Sistemas Lineales

de donde el problema se reduce a resolver el siguiente sistema lineal0BB@c1(t1) c2(t1) � � � cn(t1)

c1(t2) c2(t2) � � � cn(t2)...

...

c1(tm) c2(tm) � � � cn(tm)

1CCA| {z }

A

0@ x1

...

xn

1A| {z }

x

0BB@y1

y2

...

ym

1CCA| {z }

b

; (II:5:5)

por consiguiente, resolver

Ax � b: (II:5:6)

Planteando:

ej = '(tj ; x)� yj ; j = 1; : : : ;m; (II:5:7)

la soluci�on del problema (II.5.6), mediante el m�etodo de los m��nimos cuadra-

dos, ser�a aqu�ella en la que

mXi=1

emi �! min; (II:5:8)

es decir

kAx� bk �! min : (II:5:9)

La justi�caci�on del m�etodo de los m��nimos cuadrados, est�a dada por

dos interpretaciones. La primera:

Interpretaci�on estad��stica

Las componentes yi del vector b en (II.5.5), pueden ser vistas como

medidas experimentales. Ahora bien, toda medida experimental lleva consigo

un error, por lo tanto es completamente razonable considerar �estas como

variables aleatorias.

Puesto que, la mayor parte de las medidas experimentales siguen leyes

normales, se tiene las dos hip�otesis siguientes, para determinar la soluci�on

del problema (II.5.6):

H1: El valor yi de (II.5.5) es la realizaci�on de un suceso para la variable

aleatoria Yi, i = 1; : : : ;m. Se supone que los Yi son independientes y que

obedecen la ley normal de esperanza �i y varianza �i. Para simpli�car el

problema, se supondr�a que los �i son iguales y conocidos de antemano.

H2: El sistema sobredeterminado (II.5.6) posee una soluci�on �unica, si se

remplaza los yi por los n�umeros �i; es decir, que existe � 2 Rn �unico tal

que A� = � donde � = (�1; : : : ; �m)t.

La funci�on de distribuci�on de Yi, en Yi = yi, es igual a

fi(yi) =1p2��

exp�� 1

2(yi � �i

)2�:

Page 96: alisis erico

II.5 M��nimos Cuadrados 85

Como los Yi son independientes, el vector aleatorio Y = (Y1; : : : ; Ym)t tiene

la funci�on de distribuci�on

f(y) =

mYi=1

1p2��

exp�� 1

2(yi � �i

)2�;

donde y = (y1; : : : ; ym)t.

Efectuando c�alculos, se obtiene

f(y) = C exp

�12

mXi=1

�yi � �i

�2!:

Aplicando el principio de m�axima presunci�on, la probabilidad de medir yien lugar de �i, para i = 1; : : : ;m; est�a dada por

f(y)! max : (II:5:10)

Por lo tanto, (II.5.10) sucede si

mXi=1

�yi � �i

�2 ! min; (II:5:11)

es decirmXi=1

0@yi �

nXj=1

aijxj

1A2

! min : (II:5:12)

con lo que se ha justi�cado (II.5.7).

Interpretaci�on geom�etrica

Se de�ne el subespacio vectorial de Rm de dimensi�on n dado por

E = fAxjx 2 Rng � Rm ;la soluci�on de (II.5.9) est�a dada por el vector x

0, tal que Ax

0 � b

es

m��nima, es decir Ax0 es el vector m�as proximo perteneciente a E al vector

b, de donde el vector Ax0 � b es ortogonal al espacio E, ver �gura II.5.2.

E

b

Figura II.5.2 Interpretaci�on geom�etrica.

Page 97: alisis erico

86 II Sistemas Lineales

Teorema II.5.1.- Sea A una matriz de orden m� n, b 2 Rm , entonces:

kAx� bk2 ! min () AtAx = A

tb: (II:5:13)

Las ecuaciones de la parte derecha de la equivalencia, son las ecuaciones

normales del problema de m��nimos cuadrados.

Demostraci�on.- Utilizando la interpretaci�on geom�etrica del m�etodo de

m��nimos cuadrados se tiene:

kAx� bk2 �! min

() b�Ax ? Ay; 8y 2 Rn

() hAy; b�Axi = 0; 8y 2 Rn

() ytAt(b�Ax) = 0; 8y 2 Rn

() At(b�Ax) = 0

() AtAx = A

tb:

Se remarca inmediatamente que la matriz AtA es sim�etrica y semi-

de�nida positiva, es decir xtAtAx � 0. La matriz At

A ser�a de�nida positiva

si y solamente las columnas de A son linealmente independientes. Si �este es

el caso, se puede utilizar la descomposici�on de Cholesky para resolver

AtAx = A

tb;

pero en la mayor��a de los casos AtA es una matriz mal condicionada. Como

ejemplo vale la pena citar el siguiente ejemplo:

Se tiene, la funci�on de modelo dada por

'(t) =

nXi=1

= xiti�1

;

es decir, se trata de determinar el polinomio de grado n que mejor ajusta a los

puntos (ti; yi), i = 1; : : : ;m y 0 = t1 � t2 � � � � � tn = 1. Por consiguiente,

se debe encontrar x 2 Rn , tal que

kAx � bk2 �! min;

donde:

A =

0BB@1 t1 � � � t

n�11

1 t2 � � � tn�12

......

1 tm � � � tn�1m

1CCA ; b =

0BB@y1

y2

...

ym

1CCA :

Page 98: alisis erico

II.5 M��nimos Cuadrados 87

Por lo tanto

AtA =

0BB@m

Pti � � �

Ptn�1iP

ti

Pt2i � � �

Ptni

......P

tn�1i

Ptni � � �

Pt2n�1i

1CCA

=1

m

0BB@1 1=m

Pti � � � 1=m

Ptn�1i

1=mP

ti 1=mP

t2i � � � 1=m

Ptni

......

1=mP

tn�1i 1=m

Ptni � � � 1=m

Pt2n�1i

1CCA

� m

0BB@1 1=2 � � � 1=n

1=2 1=2 � � � 1=(n+ 1)...

...

1=n 1=(n+ 1) � � � 1=2n

1CCA ;

puesto que Z 1

0

tkdt � 1

m

Xtki :

De donde, la matriz AtA se aproxima a una matriz de tipo Hilbert, la cual es

una matriz mal condicionada, resultado visto en la primera secci�on de este

cap��tulo. Por lo tanto se debe formular un algoritmo donde la matriz AtA

no aparezca directamente.

La descomposici�on QR

Dada una matriz A de orden m�n, se busca las matrices: Q de orden m�my la matriz R de orden m� n, tales que la matriz Q sea ortogonal, es decir

QtQ = I ;

y la matriz R triangular superior, es decir

R =

nz }| {0BB@r11 � � � r1n

. . .

0 rnn

O

1CCA9>>>>>>>=>>>>>>>;m; m � n;

con

A = QR: (II:5:14)

Page 99: alisis erico

88 II Sistemas Lineales

Puesto que la matriz Q es ortogonal, para todo vector c 2 Rm , se tiene Qtc

2= kck ;

de donde

kAx� bk2 = Qt(Ax � b)

2

= Rx�Q

tb

2�! min : (II:5:15)

Por otro lado, la matriz R y el vector Qtb pueden escribirse como:

R =

�R1

0

�; Q

tb =

�c1

c2

�;

donde R1 es una matriz triangular de orden n�n y c1 2 Rn . Por consiguiente,resolver el problema (II.5.6) es resolver la ecuaci�on

R1x = c1: (II:5:16)

Ahora bien, el principal problema es encontrar un algoritmo simple y

rapido que permita descomponer la matriz A en un producto de la forma

QR. Precisamente uno de estos m�etodos consiste en la utilizaci�on de matrices

de Householder.

Matrices de Householder (1958)

Sea u 2 Rm , con kuk2 = 1. Se de�ne la matriz Q por

Q = I � 2uut; (II:5:17)

matriz que es sim�etrica y ortogonal. En efecto:

Qt =

�I � 2uut

�t=�I � 2uut

�;

QtQ =

�I � 2uut

�t �I � 2uut

�= I � 2uut � 2uut + 4uutuut

= I:

La manera como act�ua Q sobre Rm es la siguiente, sea x 2 Rm ,

Qx = x� 2uutx;

si utx = 0, se tiene inmediatamente que Qx = x, de donde Q es una simetr��a

respecto al hiperplano fxjutx = 0g, en efecto

Qu =�I � 2uut

�u = �u:

Page 100: alisis erico

II.5 M��nimos Cuadrados 89

En base a estas matrices se construir�a un m�etodo que permita descomponer

la matriz A en QR en n� 1 pasos a lo m�aximo.

Se busca una matriz Q1 = I � 2u1ut1 con ku1k2 = 1, tal que

Q1A =

0BB@�1 � � � � �0 � � � � �...

......

0 � � � � �

1CCA :

Denotando por e1 a (1; 0; : : : ; 0)t y A1 la primera columna de la matriz A,

hay que determinar Q1, tal que

Q1A1 = �1e1; � 2 R: (II:5:18)

Por las propiedades de norma se tiene j�1j = kA1k2, por consiguiente

�1 = �kA1k2 ; (II:5:19)

Q1 es una matriz de Householder, por lo tanto:

A1 � 2u1ut1A1 = �1e1;

2u1(ut1A1| {z }2R

) = A1 � �1e1;

de donde u1 tiene la misma direcci�on que A1 � �1e1. En consecuencia,

u1 =A1 � �1e1

kA1 � �1e1k2: (II:5:20)

Sabiendo que la sustracci�on es una operaci�on mal condicionada cuando las

cantidades a restar son cercanas, se plantea

�1 = �signo(a11) kA1k2 : (II:5:21)

El siguiente paso es determinar Q1Aj , donde Aj es la j-esima columna de la

matriz A, de�niendo v1 = A1 � �1e1, se tiene:

vt1v1

2=

1

2(At

1 � �1et1)(A1 � �1e1)

=1

2

�kA1k22| {z }�21

��1a11 � �1a11 + �21

�= �1(�1 � a11);

Q1Aj = Aj � 2u1ut1Aj

= Aj �2

vt1v1

v1vt1Aj

= Aj �1

�1(�1 � a11)v1v

t1Aj : (II:5:22)

Page 101: alisis erico

90 II Sistemas Lineales

Despu�es del primer paso de la descomposici�on QR, se ha obtenido

Q1A =

0BB@�1 � � � � �0...

0

�A(1)

1CCA :

El segundo paso es determinar �Q2 matriz de Householder, como en el primer

paso, de manera que

Q2Q1A =

0BB@�1 � � � � �0...

0

�Q2

�A(1)

1CCA =

0BBBB@�1 � � � � � �0 �2 � � � � �0...

0

0...

0

�A(2)

1CCCCA ;

donde

Q2 =

0BB@1 0 � � � 00...

0

�Q2

1CCA :

Costo de la descomposici�on QR

La descomposici�on se la realiza en n� 1 �etapas,

Qn�1 � � �Q2Q1| {z }Qt

A = R;

para el primer paso contando el producto escalar se efectuan:

m+ (n� 1)2m operaciones;

por lo tanto, el costo es aproximadamente igual

2(mn+ (m� 1)(n� 1) + � � � (m� n+ 1);

si n � m se tiene � 2

3n3 operaciones; si n� m se tiene � mn

2 operaciones.

Programaci�on

La descomposici�on QR presenta la ventaja que se puede utilizar las plazas

ocupadas por los coe�cientes de la matriz A, con los coe�cientes de la matriz

Page 102: alisis erico

II.5 M��nimos Cuadrados 91

R y los vectores v1. En lo que se sigue, se tiene un esquema del m�etodo de

descomposici�on QR.

A

!v1

R

�A(1)

�1

!v1 v2

R

�A(2)

�1 �2

Al �nal de la descomposici�on se obtiene la siguiente matriz

v1 v2 . . .

R

vn

�1 �2 � � � �n

Hay que observar que QR es aplicable, si las columnas de A son linealmente

independientes. Si no fuesen linealmente independientes se llegar��a a la

situaci�on de obtener un �i = 0, y la descomposici�on en este caso ser��a

num�ericamente inestable. Para evitar esta situaci�on, se puede modi�car la

descomposici�on QR de la manera siguiente. Sea A la matriz a descomponer,

se considera

kAjok2

2= max

j=1;:::;nkAjk22 ; (II:5:23)

se intercambia la primera columna A1 con Ajo y se procede el primer paso de

la descomposici�on QR, para el segundo paso se procede de la misma manera

y as�� sucesivamente. Por consiguiente, con esta modi�caci�on se obtiene la

sucesi�on decreciente,

�1 � �2 � � � � � �k > 0: (II:5:24)

Si hay vectores linealmente dependientes se llega por lo tanto al siguiente

resultado

R =

�R1 R2

0 0

�con R1 =

0@�1 � � � r1n

. . ....

�k

1A| {z }

k = rangA

: (II:5:25)

Page 103: alisis erico

92 II Sistemas Lineales

La descomposici�on QR es un instrumento num�erico que permite determinar

el rango de la matriz A. Ahora bien, debido a los errores de redondeo, el

principal problema consiste en decidir cuando un �j es nulo en la sucesi�on

decreciente (II.5.24) . Se remarca inmediatamente que, si �k+1 = 0, entonces

�k+i = 0 para i > 2.

Se de�ne la matriz R el resultado num�erico obtenido despues de k pasos

como

R =

0BB@�1

. . .

�k

R2

0 0

1CCA : (II:5:26)

Planteando

A = QR; (II:5:27)

se tiene la:

De�nici�on II.5.2.- �k+1 es despreciable, si y solamente si A� A

2� eps kAk2 : (II:5:28)

Se tiene, por consiguiente:

A� A = Q(R� R);

kAk2 = kRk2 ; A� A

2= R� R

2;

de donde

�k+1 despreciable () R� R

2� eps kRk2 ;

�k+1 es una buena aproximaci�on de R� R

2, y �1 es una buena aproxi-

maci�on de kRk2, obteniedo el siguiente resultado

�k+1 despreciable () �k+1 � eps �1: (II:5:29)

La pseudo-inversa de una matriz

El problema (II.5.6) tiene una soluci�on �unica, si el rango de la matriz A es

igual a n y est�a dada por

x = (AtA)�1At

b: (II:5:30)

Page 104: alisis erico

II.5 M��nimos Cuadrados 93

La matriz

A+ = (At

A)�1At; (II:5:31)

ser�a la matriz inversa para el problema (II.5.6).

Para el problema m�as general, donde le rango de A es � n, la descom-

posici�on QR da el siguiente resultado

R =

�R1 R2

0 0

�; con R1 =

0@�1 � � � r1k

. . .

0 �k

1A ;

planteando x = (x1; x2)t, con x1 2 Rk , se tiene

kAx� bk22 = Rx�Q

tb

22 �R1x1 +R2x2 � c1

�c2

� 22

kR1x1 +R2x2 � c1k22 + kc2k2

2 ;

de donde el:

Teorema II.5.3.- x = (x1; x2)t es soluci�on de kAx� bk2 �! min, si y

solamente si

R1x1 +R2x2 = c1: (II:5:32)

Si el rango de A es igual a n, la soluci�on es �unica; si no las soluci�ones del

problema (II.5.6) constituyen un espacio af��n. Sea por consiguiente

F = fxjx es soluci�on de (II.5.6)g ;de donde, para obtener una soluci�on �unica, el problema (II.5.6) se convierte

enkAx � bk2 �! min

kxk2 �! min; (II:5:33)

De�nici�on II.5.4.- La pseudo-inversa de la matrix A de orden m�n es la

matriz A+ de orden n�m, que expresa la soluci�on x� para todo b 2 Rm del

problema (II.5.33) como

x� = A

+b: (II:5:34)

Si la matriz A es de rango n, entonces la pseudo inversa est�a dada por la

f�ormula (II.5.31). Para el caso m�as general se tiene los siguientes resultados:

F =

��x1

x2

� ����x2 arbitrariox1 = R

�11 (c1 �R2x2)

�;

kxk22 = kx1k22 + kx2k

22

= R�11 (c1 �R2x2)

22+ kx2k22 �! min : (II:5:35)

Page 105: alisis erico

94 II Sistemas Lineales

Derivando (II.5.35), se obtiene�I + (Rt

2R�t1 )R�11 R2

�| {z }sim�etrica y de�nida positiva

x2 = Rt2R

�t1 R

�11 c1: (II:3:36)

Se ha de�nido la pseudo-inversa de la matriz A, su existencia est�a asegurada

por el hecho que el problema (II.5.33) tiene soluci�on �unica, en lo que sigue

se determinar�a de manera expl��cita esta pseudo-inversa con algunas de sus

propiedades m�as interesantes.

Teorema II.5.5.- Sea A una matriz de m�n, entonces existe dos matrices

ortogonales U y V tales que

UtAV =

0BBBBBB@

�1

. . .

�n

0

1CCCCCCA con:�1 � � � � � �k > 0;

�k+1 = � � � = �n = 0:(II:3:37)

(II.3.37) se llama la descomposici�on a valores singulares de la matriz A y

�1; : : : ; �n son los valores singulares de la matriz A.

Demostraci�on.- La matriz AtA es sim�etrica y semi de�nida positiva, por

consiguiente existe una matriz V ortogonal tal que

VtAtAV =

0B@�21

. . .

�2n

1CA ;

con �1 � � � � � �n � 0. Se busca una matriz U ortogonal tal que

AV = U

0BBBBBB@

�1

. . .

�n

0

1CCCCCCA ;

suponiendo �k > 0 y �k+1 = 0, se de�ne D la matriz diagonal de k � k con

coe�cientes �i, i = 1; : : : ; k; por consiguiente si

AV = (U1 U2 )

�D 0

0 0

�= (U1D 0 ) ;

Page 106: alisis erico

II.5 M��nimos Cuadrados 95

donde U1 est�a constituida por las primeras k columnas de U . Sean

(AV )1 las primeras k columnas de AV;

(AV )2 las otras n� k columnas de AV;

(AV )2 = 0, en efecto, sea x = (0; : : : ; 0| {z }k

; x)t, donde x 2 Rn�k , obteniendo:

xtVtAtAV x = x

t

0B@�21

. . .

�2n

1CAx = 0;

kAV xk22 = k(AV )2xk22 ; 8x:

Se de�ne U1 por

U1 = (AV )1D�1;

obteniendo columnas ortonormales, ya que

Ut1U1 = D

�1�(AV )t1(AV )1

�D�1 = I

Finalmente se construye U2, de manera que U sea ortogonal. �

Teorema II.5.6.- Sea A una matriz de m� n, siendo

UtAV = � =

0BB@�1

. . .

�k

0

0

1CCA ; (II:5:38)

la descomposici�on en valores singulares. Entonces la pseudo-inversa de A

est�a dada por

A+ = V

0BB@��11

. . .

��1k

0

0

1CCAUt: (II:5:39)

Demostraci�on.- Se tiene

kAx� bk22 = U�V t

x� b

22

= U(�V t

x� Utb) 22=

� Vt|{z}y

� Utb|{z}

c

2

2

= k�y � ck22 = �Dy10

���c1

c2

� 22

= kDy1 � c1k22 + kc2k22 :

Page 107: alisis erico

96 II Sistemas Lineales

Para que la expresi�on sea minimal es necesario que y1 = D�1c1. Por otro

lado se tiene que y = Vtx, de donde kyk2 = kxk2, de manera, que para que

x sea minimal es necesario que y2 = 0. De donde

x =V

�D�1c1

0

�=V

�D�1 0

0 0

��c1

c2

�=V

�D�1 0

0 0

�Vtb

=A+b; 8b:

Finalmente se tiene:

Teorema II.5.7.- La pseudo-inversa de una matriz veri�ca las siguientes

propiedades:

(A+A)t = A

+A;a)

(AA+)t = AA+;b)

A+AA

+ = A+;c)

AA+A = A;d)

llamados axiomas de Moore-Penrose, adem�as la pseudo-inversa est�a �unica-

mente determinada por estos axiomas.

Demostraci�on.- Veri�caci�on inmediata utilizando (II.5.39).

Error del M�etodo de los M��nimos Cuadrados

Retomando la interpretaci�on estad��stica del m�etodo de los m��nimos cuadra-

dos. Se han dado dos hip�otesis de partida, para determinar la soluci�on: la

primera sobre los yi de la ecuaci�on (II.5.5); la segunda concerniente a la

compatibilidad de la funci�on modelo (II.5.2) con los datos (II.5.1).

Suponiendo v�alidas estas dos hip�otesis, se tiene

A� = �; (II:5:40)

donde � = (�1; : : : ; �m)t es la esperanza del vector aleatorio Y . Ahora bien,

el m�etodo de los m��nimos cuadrados da como soluci�on (x1; : : : ; xn)t, que por

(II.5.30), es igual a

x = (AtA)�1At

b:

Page 108: alisis erico

II.5 M��nimos Cuadrados 97

Por lo tanto

x� � = (AtA)�1At(b� �) o xi � �i =

mXj=1

�ij(bj � �j); (II:5:41)

donde �ij es el elemento (i; j) de la matriz (AtA)�1At.

Se supondr�a, por lo tanto, que xi es una realizaci�on de una variable

aleatoria Xi de�nida por

Xi � �i =

mXj=1

�ij(Yj � �j): (II:5:42)

Teorema II.5.8.- Sean X1; X2; : : : ; Xm variables aleatorias independientes,

con esperanza �i y varianza �i = 1. Entonces, la variable aleatoria Xi,

de�nida por (II.5.42), satisface

E(xi) = �i y V ar(Xi) = �ii; (II:5:43)

donde �ii es el i-esimo elemento de la diagonal de (AtA)�1. Los otros

elementos de (AtA)�1 son las covarianzas de Xi.

Demostraci�on.- Se tiene, utilizando la linearidad de la esperanza,

E(Xi) =

mXj=1

�ijE(Yj � �j) + �i

= �i:

Para calcular la varianza de Xi, se utiliza el hecho que V ar(Z1 + Z2) =

V ar(Z1) + V ar(Z2), si Z1 y Z2 son independientes. De donde, con ei el

i-esimo vector de la base can�onica, se tiene

V ar(Xi) = V ar(Xi � �i)

=

mXj=1

�2ijV ar(Yj � �j)

=

mXj=1

�2ij

= (At

A)�1Atei

22

= eti(A

tA)�1At

22

= eti(A

tA)�1At

A(AtA)�1ei

= eti(A

tA)�1ei = �ii:

Page 109: alisis erico

98 II Sistemas Lineales

Por consiguiente, si los yi son realizaciones de una variable aleatoria Yique sigue N(0; 1), suponiendo que una soluci�on exacta � existe, entonces se

tiene una probabilidad de 95% que

�i = xi � 2�Xi: (II:5:44)

La f�ormula (II.5.43) da los valores de �Xi, sin embargo se ha visto que

la determinaci�on de AtA puede representar una cantidad grande de c�alculo.

Utilizando la descomposici�on QR, se tiene

AtA = R

tQtQR = R

tR: (II:5:45)

Como las �ultimas �las de ceros no incide en el c�alculo del producto RtR, se

puede considerar R como una matriz de n � n, obteniendo as�� la descom-

posici�on de Choleski de (AtA).

Una vez determinados los par�ametros x de la funci�on modelo (II.5.2)

corresponde saber, si los (II.5.1) son compatibles con tal modelo. Por la

descomposici�on QR, el problema (II.5.6) se convierte, ver (II.5.15), en�R

0

�x =

�C1

C2

�; donde

�C1

C2

�= Q

tb: (II:5:46)

Denotando los elementos de Qt por qij , los elementos del vector C, satisfacen

ci =

mXj=1

qijbj ;

y las componentes del vector C2 satisfacen tambi�en

ci =

mXj=1

qij(bj � �j):

Es razonable considerar las variables aleatorias

Zi =

mXj=1

qij(Yj � �j); i = n+ 1; : : : ;m: (II:5:47)

A continuaci�on, se da la proposici�on siguiente, sin demostraci�on.

Proposici�on II.5.9.- Sean Y1; : : : ; Ym variables aleatorias independientes

siguiendo N(0; 1). Entonces las variables aleatorias Zn+1; : : : ; Zm, de�nidas

por (II.5.47) son independientes y siguen tambi�en una ley normal N(0; 1).

El error cometido, por el m�etodo de los m��nimos cuadrados, es equiva-

lente a estudiar kC2k22 de donde el teorema, sin demostraci�on:

Page 110: alisis erico

II.5 M��nimos Cuadrados 99

Teorema II.5.10.- Pearson. Sean Z1; Z2; : : : ; Zn variables aleatorias inde-

pendientes siguiendo la ley normal N(0; 1). Entonces, la distribuci�on de la

variable aleatoria

Z21 + � � �+ Z

2n; (II:5:48)

est�a dada por

fn(x) =1

2n=2�(n=2)xn=2�1

e�x=2

; x > 0; (II:5:49)

y por fn(x) = 0 para x � 0. Es la ley �2 con n grados de libertad. La

experanza de esta variable es n y su varianza es 2n.

Ejemplo

A partir de la funci�on f(t) = t+ 0:5 sin(�t=2), se ha elaborado la tabla

II.5.1, que tiene como elementos (i; bi) con 0 � i � 9, donde bi = f(i)+�i.

�i es la realizaci�on de una variablea aleatoria siguiendo una ley normal

N(0; �) con � = 0:1.

Tabla II.5.1. Valores de bi en funci�on de i.

i bi i bi

0 0:11158 5 5:5158

1 1:2972 6 6:0119

2 2:07201 7 6:6802

3 2:4744 8 7:9294

4 3:963 9 9:4129

Se considera, la funci�on de modelo

'(t) = xt+ y sin(�t=2): (II:5:50)

Obteniendo por la descomposici�on QR:

x = 1:00074;

y = 0:413516:

El siguiente paso ser�a estimar el intervalo de con�anza para x y y. Para

tal efecto, se considera el problema

x

t

+ y

sin(�t=4)

=bi

; i = 0; : : : ; 9;

Page 111: alisis erico

100 II Sistemas Lineales

pues, los bi=� deben ser realizaciones de una variable normal con varianza

igual a 1. De donde la matriz de covarianza est�a dada por��2x �xy

�xy �2y

�=

�3:57143 � 10�5 �3:57143 � 10�5�3:57143 � 10�5 2:03571 � 10�3

�:

Por consiguiente:x = 1:00074� 0:012;

y = 0:41352� 0:09:

El m�etodo QR, con la notaci�on precedente da

kC2k2 = 0:0693103;

corrigiendo, para el problema normalizado, se tiene

kC2k22�2

= 6:93103:

Se tiene 10�2 grados de libertad. Viendo en una tabla de la distribuci�on�2, se deduce que este valor es lo su�cientemente peque~no para ser

probable.

Ahora bien, si se hubiese considerado la funci�on de modelo

'(t) = xt+ y; (II:5:51)

se hubiera encontradokC2k22�2

= 90:5225;

valor demasiado grande para ser probable.

La conclusi�on es que, para los valores de la tabla II.5.1, la ley (II.5.50)

es m�as probable que la ley (II.5.51).

En la �gura II.5.3, puede observarse en linea continua la gr�a�ca de la

funci�on modelo dada por (II.5.50) y con lineas segmentadas la gr�a�ca de

la funci�on modelo (II.5.1).

Page 112: alisis erico

II.5 M��nimos Cuadrados 101

0 1 2 3 4 5 6 7 8 90

1

2

3

4

5

6

7

8

9

10

Figura II.5.3. Resultados del m�etodo de los m��nimos cuadrados.

Ejercicios

1.- Sea A una matriz inversible de n � n. Mostrar que la descomposici�on

QR es �unica, si se supone que rjj > 0 para j = 1; : : : ; n.

2.- Aplicar el algoritmo de Golub-Householder a la matrice de rotaci�on

A =

�cos� sin�

� sin� cos�

�:

Dar una interpretaci�on geom�etrica.

3.- Sea Q una matriz ortogonal de n � n. Mostrar que Q puede escribirse

como el producto de n matrices de Householder, de donde cada trans-

formaci�on ortogonal de Rn es una sucesi�on de al menos n re exiones.

4.- Escribir una subrutina DECQR(N,M,MDIM,A,ALPH),

(A(MDIM,N),ALPH(N)), que calcula la descomposici�on QR de una ma-

triz m� n, m � n.

Escribir tambi�en una subrutina SOLQR(N,M,MDIM,A,ALPH,B) que cal-

cula la soluci�on del problema

kAX � bk2 �! min :

Determinar la parabola x1 + x2t+ x2t2, que ajusta lo mejor posible:

Page 113: alisis erico

102 II Sistemas Lineales

ti 0 0; 2 0; 4 0; 6 0; 8 1:0

yi 0; 10 0; 15 0; 23 0; 58 0; 45 0; 60

5.- Sea A una matriz m � n. Mostrar que AtA + �I es no singular para

� > 0 y

A+ = lim

�!0+(At

A+ �I)�1At:

Page 114: alisis erico

Cap��tulo III

Interpolaci�on

Uno de los mayores problemas con que se tropieza, radica en la evaluaci�on

de las funciones en determinados puntos. Las causas principales de estas

di�cultades est�an esencialmente en la di�cil manipulaci�on de estas funciones;

una funci�on tan inocente como la logaritmo presenta di�cultades en su eva-

luaci�on y se debe recurrir a �utiles mat�ematicos como series, etc. Por otro lado,

la sola informaci�on que se conoce de esta funci�on, son determinados puntos,

e incluso suponiendo que �esta es lo bastante regular, la evaluaci�on en otros

puntos es de gran di�cultad. De donde un m�etodo de facil manipulaci�on

consiste en la aproximaci�on de las funciones a evaluar por polinomios.

Existen dos enfoques diferentes, el primero radica en la aproximaci�on me-

diante polinomios de interpolaci�on y el otro mediante la mejor aproximaci�on

polinomial respecto a una norma.

Este cap��tulo abordar�a sobre todo la aproximaci�onmediante polinomios.

La primera parte tratar�a sobre la interpolaci�on de Lagrange y Hermite, la

formulaci�on de algoritmos para calcular estos polinomios ser�a hecha, las

estimaciones de error cometido ser�an tambi�en estudiadas a fondo, como as��

mismo los problemas de estabilidad inherentes a la interpolaci�on de Lagrange

ser�an abordados con resultados y ejemplos, como elementos te�oricos los

polinomios de Chebichef ser�an vistos dando como consecuencia resultados

interesantes sobre la elecci�on de los puntos de interpolaci�on. Un segundo

t�opico a ver ser�a los splines, polinomios que operan como serchas, por su facil

manipulaci�on, como por su gran utilidad ser�an estudiados en la formulaci�on

de los m�etodos, el c�alculo de error y sus diferentes aplicaciones. Un tercer

tema de gran inter�es por las grandes utilidades que puede dar, consiste en

los m�etodos de extrapolaci�on tanto como en su valor te�orico, como tambi�en

por su propiedad de acelerar la convergencia de muchas sucesiones.

Page 115: alisis erico

III.1 Interpolaci�on de Lagrange

En la introducci�on del cap��tulo, se mencion�o la interpolaci�on como un

instrumento de aproximaci�on de una funci�on determinada. Sea f una funci�on

de la que se conoce las im�agenes en una cantidad �nita de puntos, es decir

f(xi) = yi i = 1; : : : ; n;

la funci�on interpolante p ser�a por de�nici�on igual a f(xi) para i = 1; : : : ; n.

Se hablar�a de interpolaci�on cuando se eval�ua en el punto x con

x 2 [minxi;maxxi];

y de extrapolaci�on si no. Por su facil manipulaci�on, pues solo se efectua

multiplicaciones y adiciones, es conveniente que la funci�on interpolante p sea

un polinomio.

De�nici�on III.1.1.- Dados (k+1) puntos diferentes: x0; x1; : : : ; xk de [a; b],

los enteros no negativos �0; : : : �k y los reales yili con 0 � i � k y 0 � li � �i.

El Polinomio de Hermite pn de grado n = k + �0 + � � �+ �k, respecto a los

xi, �i y los yili veri�ca

p(li)n (xi) = yili : (III:1:1)

Si los �i = 0 para i = 0; : : : ; k, pn se llama Polinomio de Lagrange.

De�nici�on III.1.2.- Cuando los puntos yili satisfacen

yili = f(li)n (xi); (III:1:2)

para una determinada funci�on f , pn es el polinomio de interpolaci�on de

Hermite, y si los �i son nulos, se hablar�a del polinomio de interpolaci�on de

Lagrange.

Estas dos de�niciones dan las condiciones que deben cumplir los poli-

nomios de interpolaci�on, sin embargo la existencia, como la unicidad no est�an

dadas, podr��a suceder que no existiesen en alg�un caso. Por eso es necesario

insistir en la base te�orica que asegure la existencia y la unicidad de estos,

adem�as, para que la construcci�on de estos pueda ser relativamente facil.

Bases Te�oricas

Sin querer dar un tratado sobre la teor��a de los polinomios, existen resultados

que deben formularse para la mejor comprensi�on de la interpolaci�on polino-

mial. Aunque en Algebra se hace distinci�on entre polinomio y su funci�on

Page 116: alisis erico

III.1 Interpolaci�on de Lagrange 105

polinomial asociada, no se har�a distinci�on entre estos, por que son poli-

nomios a coe�cientes reales o complejos los que se utilizan en la mayor parte

de los problemas a resolverse num�ericamente.

De�nici�on III.1.3.- Sea p(x) 2 R[x], a es un cero de multiplicidad m de

p(x), si

p(k)(a) = 0 m = 0; : : : ;m� 1; y p(m) 6= 0:

Proposici�on III.1.4.- a es un cero de multiplicidad m de p(x), si y

solamente si, existe un polinomio q(x) con q(a) 6= 0 tal que

p(x) = (x� a)mq(x):

Demostraci�on.-Ver en cualquier libro de Algebra. �

Corolario III.1.5.- Un polinomio pn(x) de grado n tiene a lo m�as n ceros

contando con su multiplicidad.

Teorema III.1.6.- Existe a lo sumo un polinomio de Hermite de grado n

respecto x0; : : : ; xk, �0; : : : ; �k, con k + �0 + � � �+ �k = n, tal que

p(li)n (xi) = yili ;

donde yili 2 R, 0 � li � �i.

Demostraci�on.- Sean pn y qn dos polinomios de Hermite que satisfacen

las hip�otesis del teorema. pn � qn es un polinomio nulo o de grado � n.

Ahora bien, pn � qn tiene ceros de al menos multiplicidad �i + 1 en xi para

i = 0; : : : ; k. Por la proposici�on anterior se tiene

pn � qn =

kYi=0

(x� xi)�i+1

!r(x);

sumando los grados, la �unica posibilidad es que r(x) = 0. �

Teorema III.1.7.- Existe al menos un polinomio de Hermite de grado n

respecto x0; : : : ; xk, �0; : : : ; �k, con k + �0 + � � �+ �k = n, tal que

p(li)n (xi) = yili ;

donde yili 2 R, 0 � li � �i.

Demostraci�on.- Es su�ciente mostrar que existe un polinomio de Hermite

de grado n tal que para i 2 f0; : : : ; kg y l 2 f0; : : : ; �ig se tenga:

p(l)(xi) = 1; p

(m)(xj) = 0 para m 6= l oj 6= i;

Page 117: alisis erico

106 III Interpolaci�on

den�otese por pi;l este polinomio. xj para j 6= i es un cero de multiplicidad

�j + 1, de donde:

pi;l = r(x)

0@Yj 6=i

(x� xj)�j+1)

1A;

pi;�i = Ci;�i(x � xi)�i

0@Yj 6=i

(x� xj)�j+1)

1A;

la constante Ci;�i es escogida de manera que p(�i)i;�i

(xi) = 1. Los polinomios

pi;l se los de�ne recursivamente de la siguiente manera

pi;l = Ci;l

0@(x � xi)�i

0@Yj 6=i

(x� xj)�j+1)

1A�Xm>l

cil;mpi;m

1A;

donde las constantes cil;m son escogidas de manera que p(m)

i;l (xi) = 0 para

m > l y Ci;l de manera que p(l)

i;l = 1. �

Para construir el polinomio de interpolaci�on no debe utilizarse los

polinomios de�nidos en la demostraci�on, uno porque el costo en operaciones

es demasiado elevado y otro por la sensibilidad de estos polinomios as��

de�nidos a los errores de redondeo.

Construcci�on del Polinomio de Interpolaci�on

Inicialmente se considerar�a polinomios de interpolaci�on del tipo de Lagrange.

Por lo tanto, dados los puntos x0; : : : ; xn todos diferentes, y los valores

y0; : : : ; yn, el problema se reduce a encontrar un polinomio de grado n que

satisfaga

p(xi) = yi 0 � i � n: (III:1:3)

Indudablemente el caso m�as sencillo es para n = 1 y luego para n = 2.

Para n = 1 la recta de interpolaci�on est�a dada por

p(x) = y0 +

�y1 � y0

x1 � x0

�(x� x0);

para n = 2 la par�abola de interpolaci�on est�a dada por

p(x) = y0 +

�y1 � y0

x1 � x0

�(x� x0) + a(x� x0)(x� x1);

Page 118: alisis erico

III.1 Interpolaci�on de Lagrange 107

este �ultimo polinomio veri�ca p(x0) = y0 y p(x1) = y1, por consiguiente es

necesario determinar a de manera que p(x2) = y2. Unos simples c�alculos

algebraicos dan

a =1

x2 � x0

�y2 � y1

x2 � x1

� y1 � y0

x1 � x2

�:

Para n = 3 se puede continuar con el mismo esquema, pero antes es necesario

dar la noci�on de diferencias divididas.

De�nici�on III.1.8.- (Diferencias Divididas) Sean (x0; y0); : : : ; (xn; yn), los

xi diferentes entre si. Entonces las diferencias divididas de orden k se de�nen

de manera recursiva por:

y[xi] = yi; (III:1:4a)

y[xi; xj ] =yj � yi

xj � xi

; (III:1:4b)

y[xi0 ; : : : ; xik ] =y[xi1 ; : : : ; xik ]� y[xi0 ; : : : ; xik�1

]

xik � xi0

: (III:1:4c)

Teorema III.1.9.- (F�ormula de Newton). El polinomio de interpolaci�on de

grado n que pasa por (xi; yi), i = 0; : : : ; n, est�a dado por

p(x) =

nXi=0

y[x0; : : : ; xi]

i�1Yk=0

(x� xk); (III:1:5)

con la convenci�on

�1Yk=0

(x � xk) = 1.

Demostraci�on.- Por inducci�on sobre n. Para n = 1 y n = 2 la f�ormula de

Newton es correcta, ver m�as arriba. Se supone que la f�ormula sea correcta

para n� 1.

Sea, p(x) el polinomio de grado n que pasa por (xi; yi), i = 0; : : : ; n; de

donde

p(x) = p1(x) + a(x� x0)(x� x1) � � � (x� xn�1);

con p1(x) el polinomio de interpolaci�on de grado n� 1 que pasa por (xi; yi)

i = 0; : : : ; n� 1. Por hip�otesis de inducci�on se tiene

p1(x) =

n�1Xi=0

y[x0; : : : ; xi]

i�1Yk=0

(x� xk);

por lo tanto hay que demostrar que

a = y[x0; x1; : : : ; xn]:

Page 119: alisis erico

108 III Interpolaci�on

Sea, p2(x) el polinomio de interpolaci�on de grado n�1 que pasa por (xi; yi),i = 1; : : : ; n; de�niendo el polinomio q(x) por

q(x) = p2(x)(x� x0)

(xn � x0)+ p1(x)

(xn � x)

(xn � x0);

q(x) es un polinomio de grado a lo sumo n, adem�as q(xi) = yi, i = 0; : : : ; n.

Por la unicidad del polinomio de interpolaci�on se tiene que p(x) = q(x).

Comparando los coe�cientes del t�ermino de grado n se obtiene

a =y[x1; : : : ; xn]� y[x0; : : : ; xn�1

xn � x0

= y[x0; : : : ; xn]

La f�ormula de Newton es muy simple y facil de implementar en un

programa para determinar el polinomio de interpolaci�on de tipo Lagrange,

ver la �gura III.1.1 donde se muestra un esquema del algoritmo de Newton.

x0 y[x0]&

y[x0; x1]% &

x1 y[x1] y[x0; x1; x2]& % &

y[x1; x2] y[x0; : : : ; x3]% & % &

x2 y[x2] y[x1; x2; x3] y[x0; : : : ; x4]& % & %

.... . .

y[x2; x3] y[x1; : : : ; x4]% & %

.... . .

x3 y[x3] y[x2; x3; x4]& %

.... . .

y[x3; x4]%

.... . .

x4 y[x4]...

.... . .

Figura III.1.1. Esquema de la F�ormula de Newton.

La programaci�on del polinomio de interpolaci�on es muy facil, adem�as

que se puede utilizar la plaza ocupada por yi. En efecto la primera columna

del esquema es utilizada por los yi, se remarca inmediatamente que yn

aparece una vez en los calculos, por consiguiente las �ultimas n�1 lugares dela columna son utilizados por los n � 1 valores de las diferencias divididas

que aparecen en la segunda columna, quedando el primer valor de y0, y se

continua de esta manera hasta obtener y[x0; : : : ; xn].

Page 120: alisis erico

III.1 Interpolaci�on de Lagrange 109

Un caso particular en la determinaci�on del polinomio de interpolaci�on

ocurre cuando la subdivisi�on de los puntos es uniforme, es decir

xi = x0 + ih; i = 0; : : : ; n; (III:1:6)

donde h = (xn � x0)=n. Para poder implementar el algoritmo de Newton

con esta subdivisi�on es necesario, las siguientes dos de�niciones.

De�nici�on III.1.10.- (Diferencias Finitas Progresivas) Sea y0; y1; : : : ; una

sucesi�on de n�umeros reales, se de�ne el operador de diferencias �nitas

progresivas de orden k de manera recursiva como sigue:

r0yi = yi; (III:1:7a)

ryi = yi+1 � yi; (III:1:7b)

rk+1yi = rk

yi+1 �rkyi: (III:1:7b)

De�nici�on III.1.11.- (Diferencias Finitas Retr�ogradas) Sea y0; y1; : : : ; una

sucesi�on de n�umeros reales, se de�ne el operador de diferencias �nitas

retr�ograda de orden k de manera recursiva como sigue:

�r0yi = yi; (III:1:8a)

�ryi = yi � yi�1; (III:1:8b)

�rk+1yi = �rk

yi � �rkyi�1: (III:1:8b)

Ahora bien, tomando una subdivisi�on uniforme x0 < : : : < xn se

tiene los dos resultados equivalentes para el polinomio de interpolaci�on de

Lagrange que pasa por los puntos (xi; yi). Utilizando las diferencias �nitas

progresivas se tiene

p(x) =

nXi=0

riy0

i!hi

i�1Yk=0

(x� xk); (III:1:9)

donde h = (xn � x0)=n y con la convenci�on

�1Yk=0

(x� xk) = 1. Utilizando las

diferencias retr�ogradas se tiene

p(x) =

nXi=0

�riyn

i!hi

i�1Yk=0

(x� xn�k); (III:1:10)

con la convenci�on

�1Yk=0

(x�xn�k) = 1. La programaci�on es la misma que para

el caso general, con la �unica diferencia que no se efect�uan divisiones. Por

Page 121: alisis erico

110 III Interpolaci�on

consiguiente, se tiene el mismo esquema de resoluci�on para una subdivisi�on

uniforme. En la �gura III.1.2 se observa los esquemas para las diferencias

�nitas progresivas y las diferencias �nitas retr�ogradas.

x0 r0y0

&

ry0% &

x1 r0y1 r

2y0& % &

ry1 r3y0

% & % &

x2 r0y2 r

2y1 r4y0

& % & %

ry2 r3y1

% & %

x3 r0y3 r

2y2& %

ry3%

x4 r0y4

....... . .

xn �r0yn&

�ryn% &

xn�1�r0yn�1

�r2yn& % &

�ryn�1�r3yn

% & % &

xn�2�r0yn�2

�r2yn�11 �r4yn& % & %

�ryn�2�r3yn�1

% & %

xn�3�r0yn�3

�r2yn�2& %

�ryn�3%

xn�4�r0yn�4

......

. . .

Figura III.1.2. Esquemas para Diferencias Finitas

La evaluaci�on del polinomio de interpolaci�on en un punto x 2 [x0; xn] sela realiza utilizando el algoritmo de Horner, ver ejemplo secci�on I.1. Para ver

la simplicidad de la determinaci�on del polinomio de interpolaci�on utilizando

diferencias divididas, y si la subdivisi�on es uniforme, diferencias �nitas; se

tiene el siguiente:

Ejemplo

Se desea evaluar la raiz cuadrada de un n�umero positivo, por ejemplo

1; 4. Para mostrar le e�cacia y simplicidad, se va construir un polinomio

de interpolaci�on de grado 3, y con tal efecto se utiliza los puntos donde

la raiz cuadrada es exacta como una expresi�on decimal.

xi 1; 00 1; 21 1; 44 1; 69

yi 1; 00 1; 10 1; 20 1; 30

Por consiguiente, el esquema de diferencias divididas para el polinomio

de interpolaci�on, est�a dado por

1;00 1;00&

;4762% &

1;21 1;10 �;0941& % &

;4348 ;0313% & %

1;44 1;20 �;0725& %

;400%

1;69 1;30

Page 122: alisis erico

III.1 Interpolaci�on de Lagrange 111

de donde el polinomio de interpolaci�on es igual a

p(x) =1 + 0; 476(x� 1)� 0; 094(x� 1)(x� 1; 21)

+ 0; 031(x� 1)(x� 1; 21)(x� 1; 44);

y p(1; 4) = 1; 183.

El Error de Interpolaci�on

Sea f(x) una funci�on que cumple ciertas condiciones, se supone que se

hace pasar un polinomio de interpolaci�on por los puntos (xi; f(xi)), la

pregunta natural es saber que error se comete con el c�alculo del polinomio

de interpolaci�on, es decir p(x) � f(x) vale cuanto, para un x determinado.

Es por esta raz�on que los siguientes teoremas ser�an enunciados para tener

una idea del error cometido.

Teorema III.1.12.- Sea f(x) n-veces continuamente diferenciable y

yi = f(xi), i = 0; : : : ; n; los xi todos diferentes.

Entonces existe � 2 (minxi;maxxi) tal que

y[x0; x1; : : : ; xn] =f(n)(�)

n!: (III:1:11)

Demostraci�on.- Se de�ne la funci�on r(x) por

r(x) = f(x) � p(x);

donde p(x) es el polinomio de interpolaci�on que pasa por (xi; f(xi)),

i = 0; : : : ; n. Se observa inmediatamente que r(xi) = 0 para i = 0; : : : ; n;

por el teorema de Rolle se deduce que r0(x) se anula al menos una vez en

cada subintervalo [xi; xi+1], es decir existe �i1 2 (xi; xi+1), para i = 0; : : : ; n.

Aplicando una vez m�as Rolle se deduce que r00(x) tiene n � 1 ceros en el

intervalo [x0; xn], �nalmente aplicando el teorema de Rolle las veces que

sean necesarias se llega a la conclusi�on que r(n) tiene al menos un cero en el

intervalo requerido. Por otro lado

r(n)(x) = f

(n)(x)� n!y[x0; : : : ; xn]:

Teorema III.1.13.- Sea, f n+1 veces continuamente diferenciable y p(x) el

polinomio de interpolaci�on de grado n de�nido por (xi; f(xi)), i = 0; : : : ; n y

xi 6= xj si i 6= j. Entonces 8x, 9� 2 (min(x0; : : : ; xn; x);max(x0; : : : ; xn; x)),tal que

f(x)� p(x) = (x � x0)(x � x1) � � � (x� xn)f(n+1)(�)

(n+ 1)!: (III:1:12)

Page 123: alisis erico

112 III Interpolaci�on

Demostraci�on.- Se deja x �jo, se plantea xn+1 = x. Sea �p(x) el polinomio

de interpolaci�on de grado n + 1 que pasa por (xi; f(xi)), i = 0; : : : ; n + 1.

Por consiguiente

�p(x) = p(x) +

nYk=0

(x� xk)y[x0; : : : ; xn+1];

por el teorema anterior, se tiene

�p(x) = p(x) +

nYk=0

(x � xk)f(n+1)(�)

(n+ 1)!;

�p(x) = f(x), de donde el teorema queda demostrado. �

Ejemplo

Para el ejemplo de la implementaci�on del m�etodo de diferencias divididas

para calcular el valorp1; 4, la funci�on interpolada es

px. El intervalo de

estudio del polinomio de interpolaci�on de grado 3 est�a dado por [1; 1; 69],

x0 = 1, x1 = 1; 21, x2 = 1; 44 y x3 = 1; 69. Por lo tanto

f(x) =px;

f0(x) = �1

2x�

12 ;

f00(x) =

1

4x�

32 ;

f(3)(x) = �3

8x�

52 ;

f(4)(x) =

15

16x�

72 ;

por consiguiente��f(4)(x)

�� � 1516 para x 2 [1; 1; 69], lo cual implica que el

error cometido en el c�alculo depx est�a dado por:

��px� p(x)

�� � 15

16 � 4! j(x� 1)(x� 1; 21)(x� 1; 44)(x� 1; 69)j ;���p1; 4� p(1; 4)��� � 3; 45:10�5:

El teorema II.1.13 da un resultado sobre el error cometido durante el

proceso de interpolaci�on. Este error depende de la derivada n�umero n + 1

de la funci�on f , �este depende por lo tanto de la funci�on a interpolar y est�a

Page 124: alisis erico

III.1 Interpolaci�on de Lagrange 113

fuera de alcanze. Pero tambi�en el error depende de la subdivisi�on x0; : : : ; xn,

por lo tanto en cierta manera es controlable. De ah�� una pregunta natural

surge: Sea [a; b] un intervalo. >C�omo escoger x0; x1; : : : ; xn, tales que

maxx2[a;b]

j(x � x0)(x � x1) � � � (x � xn)j �! min ? (III:1:13)

Polinomios de Chebichef

La respuesta de la anterior interrogante, est�a en el estudio de los polinomios

de Chebichef, que ya fueron tratados en la secci�on II.4.

De�nici�on III.1.14.- El n-simo polinomio de Chebichef est�a de�nido en el

intevalo [�1; 1] por la siguiente relaci�on

Tn(x) = cos(n arccosx): (III:1:14)

Por lo tanto T0(x) = 1, T1(x) = x, etc.

Los polinomios de Chebichef tienen las siguientes propiedades, que vale

la pena enunciarlas en la siguiente proposici�on.

Proposici�on III.1.15.- Los polinomios de Chebichef satisfacen:

a) T0(x) = 1, T1(x) = x y

Tn+1(x) = 2xTn(x) � Tn�1(x): (III:1:15)

b) Se tiene para n entero no negativo:

jTn(x)j � 1; para x 2 [�1; 1]; (III:1:16)

Tn

�cos

�k�

n

��= (�1)k; (III:1:17)

Tn

�cos

�2k + 1

2n�

��= 0; (III:1:18)

para k = 0; 1; : : : ; n� 1:

Demostraci�on.- El inciso a) se demuestra utilizando el hecho que

cos((n+ 1)') = 2cos' cos(n')� cos((n� 1)'):

La primera parte del inciso b) es consecuencia de la de�nici�on del n-si-

mo polinomio de Chebichef. Las dos �ultimas relaciones provienen de las

ecuaciones cosn' = 0 y jcosn'j = 1. �

Page 125: alisis erico

114 III Interpolaci�on

Finalmente, es facil observar que el coe�ciente del t�ermino dominante

de Tn para n > 0 es igual a 2n�1: Los polinomios de Chebichef T0; T1; T2 y

T3 pueden observarse en la �gura III.1.3.

T0(x) T1(x)

T2(x) T3(x)

Figura III.1.3. Los cuatro primeros polinomios de Chebichef:

Teorema III.1.16.- Sea q(x) un polinomio de grado n con coe�ciente

dominante 2n�1 para n � 1 y q(x) diferente a Tn(x). Entonces

maxx2[�1;1]

jq(x)j > maxx2[�1;1]

jTn(x)j = 1: (III:1:19)

Demostraci�on.- La demostraci�on se la realiza por el absurdo. Se supone

que existe un polinomio q(x) de grado n, tal que

jq(x)j � 1 para jxj � 1;

Page 126: alisis erico

III.1 Interpolaci�on de Lagrange 115

de donde r(x) = q(x)�Tn(x) polinomio no nulo de grado al menos n�1, peror(x) posee al menos n raices, lo que contradice que r(x) sea una polinomio

de grado menor o igual n� 1. �

Teorema III.1.17.- Si xk = cos

�(2k + 1)�

2(n+ 1)

�, entonces

maxx2[�1;1]

j(x� x0) � � � (x� xn)j

es minimal respecto a todas las divisiones x0 < x1 < : : : < xn con

xi 2 [�1; 1].

Demostraci�on.- Se tiene:

(x� x0) � � � (x � xn) = Tn+1(x)2�n

;

(x� �x0) � � � (�x � xn) = q(x)2�n:

Para construir una divisi�on �optima para cualquier intervalo [a; b], se

toma los puntos xk de�nidos por

xk =a+ b

2+b� a

2xk; (III:1:20)

donde los xk son los ceros del n+ 1-simo polinomio de Chebichef.

Estudio de los Errores de Redondeo

En esta subsecci�on, se estudiar�a la incidencia de los errores de redondeo

en la determinaci�on del polinomio de interpolaci�on, m�as precisamente en

los polinomios de interpolaci�on de tipo Lagrange. Hay que recalcar que

los errores de redondeo en el c�alculo del polinomio interpolante est�a muy

relacionado con el concepto de estabilidad del algoritmo de determinaci�on

del polinomio de interpolaci�on.

El problema es el siguiente: Dada una subdivisi�on x0; : : : ; xn, determinar

p(x) de grado n tal que p(xi) = yi, i = 0; : : : ; n. En el c�alculo se cometen

errores de redondeo por un lado, y por otro lado los datos iniciales tienen una

parte de error de redondeo. Para simpli�car el estudio de la estabilidad del

polinomio de interpolaci�on, los errores de redondeo a considerar son aquellos

presentes en los yi, y se supone que no se comete errores de redondeo en

los c�alculos propiamente dichos y que los xi son considerados por su valor

exacto.

El teorema III.1.7 a�rma la existencia de un polinomio de interpolaci�on

de grado n de tipo Lagrange para (xi; yi), i = 0; : : : ; n y los xi diferentes,

Page 127: alisis erico

116 III Interpolaci�on

durante la demostraci�on de este teorema se vio de manera expl��cita la forma

que deb��a tener este polinomio, recordando se enuncia el siguiente teorema:

Teorema III.1.18.- Sean (xi; yi), i = 0; 1; : : : ; n, los xi diferentes entre si,

p(x) el polinomio de grado n que satisface p(xi) = yi. Entonces

p(x) =

nXi=0

yili(x); (III:1:21)

donde li(x) =

nYj=0j 6=i

(x� xj)

(xi � xj): (III:1:22)

Como se dijo al inicio de esta subsecci�on, se considerar�a los errores de

redondeo cometidos en los yi, es decir

�yi = yi(1 + �i); donde j�ij � eps:

De�niendo el polinomio �p(x) por �p(xi) = �yi, i = 0; : : : ; n. Realizando c�alculos

y mayoraciones se obtiene:

p(x)� �p(x) =

nXi=0

(yi � �yi| {z }��iyi

)li(x);

jp(x)� �p(x)j �nXi=0

j�ij jyij jli(x)j

� eps jyjmax

nXi=0

jli(x)j ;

jp(x)� �p(x)jjyjmax

� eps

nXi=0

jli(x)j :

De�nici�on III.1.19.- La constante de Lebesgue asociada a la subdivisi�on

x0 < x1 < � � � < xn, est�a dada por

�n = max[x0;xn]

nXi=0

jli(x)j : (III:1:23)

Ejemplos

a) Para la divisi�on equidistante xj = �1 + 2jn, j = 0; : : : ; n. Se puede

mostrar que la constante de Lebesgue se comporta asint�oticamente,

cuando n �! 1, como

�n �2n+1

en logn; (III:1:24)

Page 128: alisis erico

III.1 Interpolaci�on de Lagrange 117

En el ejercicio 7 de esta secci�on, se indica c�omo se calcula num�ericamente

estas constantes, en la tabla III.1.1 est�an los resultados de estos c�alculos.

b) Para la divisi�on con puntos de Chebichef xj = � cos�2j + 1

2n+ 2�

�, se

puede mostrar que la constante de Lebesgue se comporta asint�otica-

mente, cuando n �!1, como

�n �2

logn: (III:1:25)

Tabla III.1.1. Constantes de Lebesgue

n

Divisi�on

Equidistante

Divisi�on

de Chebichef

10 29:900 2:0687

20 10987: 2:4792

30 6:6011 � 106 2:7267

40 4:6925 � 109 2:9044

50 3:6398 � 1012 3:0432

60 2:9788 � 1015 3:1571

70 2:5281 � 1018 3:2537

80 2:2026 � 1021 3:3375

90 1:9575 � 1024 3:4115

100 1:7668 � 1027 3:4779

Por los valores dados en la tabla, no se debe utilizar polinomios de

interpolaci�on de grado superior a 20, si la divisi�on utilizada es equidistante.

Tratar en lo posible de utilizar los puntos de Chebichef para interpolaci�on.

En la �gura III.1.4 se tienen las gra�cas de l11 para n = 18 para las divi-

siones equidistantes y de Chebichef. En la �gura III.1.5, se ve claramente los

errores cometidos por redondeo utilizando puntos equidistantes al interpolar

la funci�on sin(�x).

Page 129: alisis erico

118 III Interpolaci�on

−1 0 1

−5

0

5

puntos equidistantespuntos equidistantes

−1 0 1

puntos Chebichefpuntos Chebichef

Figura III.1.4. Gr�a�ca de un Polinomio de Lagrange.

−1 0 1

−1

0

1n=15n=15

−1 0 1

−1

0

1n=20n=20

−1 0 1

−1

0

1n=30n=30

−1 0 1

−1

0

1n=40n=40

Figura III.1.5. Interpolaci�on de sin(�x).

Page 130: alisis erico

III.1 Interpolaci�on de Lagrange 119

Convergencia de la Interpolaci�on

En esta subsecci�on, se analizar�a el problema de la convergencia de la

interpolaci�on. Sea f : [a; b] �! R, para cada entero natural se considera

una subdivisi�on de [a; b] dada por

x

(n)0 < x

(n)2 < � � � < x

(n)n ;

pn(x) el polinomio de interpolaci�on respecto a esta subdivisi�on. Se desear��a

saber que sucede cuando n �!1, es decir

jf(x)� p(x)j n!1�����! ?:

Teorema III.1.20.- Sea f 2 C1[a; b] tal que��f(n)(x)

�� � M para todo

x 2 [a; b] y para todo n 2 N, seanx

(n)0 < x

(n)2 < � � � < x

(n)n

ouna sucesi�on de

subdivisiones de [a; b]. Entonces

maxx2[a;b]

jf(x)� pn(x)jn!1�����! 0; (III:1:25)

donde pn(x) es el polinomio de interpolaci�on de grado n, respecto a las

subdivisiones dadas.

Demostraci�on.- Utilizando el teorema III.1.13 y la hip�otesis que las

derivadas de cualquier orden son acotadas se tiene

jf(x)� pn(x)j =���(x� x

(n)0 ) � � � (x� x

(n)n )��� ��f (n+1)(�)

��(n+ 1)!

�M

(b� a)n+1

(n+ 1)!

n!1�����! 0:

Las funciones exponencial , senos y cosenos son acotadas y sus derivadas

lo son tambi�en, motivo por el cual estas funciones pueden ser aproximadas

por polinomios de interpolaci�on teniendo asegurada la convergencia de la

interpolaci�on. El teorema III.1.20 da condiciones su�cientes para asegurar

la convergencia, no obstante existen muchas otras funciones cuyas derivadas

de orden superior no est�an acotadas por una sola constante M , por ejemplo

funciones racionales. Por lo tanto es necesario poder enunciar otras condi-

ciones para asegurar convergencia, o de lo contrario para decidir que sucede

divergencia en el proceso de interpolaci�on.

Para poder comprender m�as aspectos de la convergencia o divergencia

de la interpolaci�on es necesario introducir algunas de�niciones y resultados

importantes en el estudio de la aproximaci�on de funciones por polinomios.

Page 131: alisis erico

120 III Interpolaci�on

Consid�erese la aplicaci�on Ln que a la funci�on f asocia su polinomio

de interpolaci�on en los puntos x0; x1; : : : ; xn: Ln(f) = pn. Se remarca

inmediatamente que esta aplicaci�on es lineal, ademas si Pn es el espacio

de los polinomios de grado igual o menor a n se tiene

8q 2 Pn; Ln(q) = q:

Se puede mostrar, ver ejercicios, que

�n = maxg2C

0[a;b]

g 6=0

kLn(g)k1kgk

1

;

de manera que la constante �n representa la norma del operador Ln respecto

a la norma de la convergencia uniforme en C0[a; b]. Por otro lado se obtieneel siguiente teorema de mayoraci�on sobre el error de interpolaci�on.

Teorema III.1.21.- Dados una funci�on f 2 C0[a; b] y su polinomio de

interpolaci�on de Lagrange en los puntos x0; : : : ; xn, se tiene

kf � pnk1 � (1 + �n)En(f); (III:1:26)

donde En(f) = infq2Pn

kf � qk1.

Demostraci�on.- Para todo q 2 Pn, se tiene

f � pn = (f � q)� (pn � q) = (f � q)� Ln(f � q);

por consiguiente

kf � pnk1 � kf � qk1+ kLn(f � q)k

1� (1 + �n) kf � qk

1;

el resultado se obtiene tomando la cota inferior sobre los q 2 Pn: �

De�nici�on III.1.22.- La cantidad En(f) se llama el grado de aproximaci�on

de la funci�on f por los polinomios de grado� n, respecto a la norma de la

convergencia uniforme.

Examinando los diferentes factores de la mayoraci�on dada por el anterior

teorema, la cantidad �n depende solamente de la subdivisi�on tomada del

intervalo [a; b], mientras que En(f) depende solamente de la funci�on f . En el

estudio de la estabilidad se vio �n para dos tipos de subdivisi�on, los puntos

de Chebichef y los equidistantes, se ha podido demostrar que �n es minimal

cuando se toman los puntos de Chebichef, pero en todos las sucesiones de

subdivisiones dadas al principio de este paragrafo, se tiene

limn!1

�n =1:

Page 132: alisis erico

III.1 Interpolaci�on de Lagrange 121

Como �n es la norma del operador Ln, consecuencia del teorema de

Banach-Steinhauss, se tiene que, cualquiera sea la sucesi�on de subdivisiones

x

(n)0 ; : : : ; x

(n)n , existe una funci�on continua f , tal que Ln(f) no converge uni-

formente hacia f cuando n!1.

El siguiene paso es estudiar el comportamiento de En(f), cuando

n!1; esto est�a intimamente ligado a la regularidad de la funci�on f y m�as

particularmente a su m�odulo de continuidad, denotado por !(f; h), de�nido

por

!(f; h) = maxt;t02[a;b]

jt�t0j�h

jf(t)� f(t0)j : (III:1:27)

Se veri�ca facilmente las propiedades siguientes del m�odulo de continuidad:

i) la funci�on h ! !(f; h) de�nida sobre R+ es positiva, creciente y

subaditiva, es decir: 8h1; h2 � 0; !(f; h1 + h2) � !(f; h1) + !(f; h2),

ii) si n 2 N, !(f; nh) � n!(f; h); si � 2 R+ , !(f; �h) � (1 + �)!(f; h),

iii) si f 2 C0[a; b], limh!0

!(f; h) = 0 y la funci�on h ! !(f; h) es continua

sobre R+ ,

iv) si f 2 C1[a; b], !(f; h) � h kf 0k1.

Teorema III.1.23.- Existe un real M , independientemente de n, a y b, tal

que para todo n � 1 y toda f 2 C0[a; b], se tiene

En(f) �M!

�f;

b� a

n

�: (III:1:28)

Demostraci�on. El cambio de variable s = (x � a)=(b � a) permite de

trasladarse al caso en que a = 0; b = 1; f 2 C0[0; 1], lo que se supondr�a a

continuaci�on.

Consid�erese primero el caso en que n = 2p es par, y planteando

jn(t) =1

�n

0B@sin�(p+1)t

2

�sin

t

2

1CA4

=1

�n

nX

k=0

cos(p� 2k)t

2

!4

;

donde �n es escogido de manera queR ���

jn(t)dt = 1, es evidente que jn

puede escribirse bajo la forma

jn(t) = a0n + a1n cos t+ � � �+ ann cosnt: (III:1:29)

Planteando g(t) = f(jcos tj), est�a claro que g es una funci�on par, continua

sobre R y peri�odica de periodo �, adem�as !(g; h) � !(f; h) porque jt� t0j �

Page 133: alisis erico

122 III Interpolaci�on

h ) jjcos tj � jcos tjj � h. Continuando con la demostraci�on se introduce la

funci�on

'n(s) =

Z �

��

g(t)jn(s� t)dt =

Z �

��

g(s� t)jn(t)dt;

se tiene

g(s)� 'n(s) =

Z �

��

(g(s)� g(s� t))jn(t)dt;

de donde

jg(s)� 'n(s)j �Z �

��

j(g(s)� g(s� t))j jn(t)dt

�Z �

��

!(g; jtj)jn(t)dt = 2

Z �

0

!(g; t)gn(t)dt

� 2

Z �

0

(1 + nt)jn(t)dt � !(g; 1=n); por la propiedad ii:

Utilizando las mayoraciones2

� sinx

x

� 1 para x 2 [0; �=2], se obtiene

Z �

0

tjn(t)dt �C

n

;

ver ejercicio 12, por lo tanto se tiene

jg(s)� 'n(s)j � 2(1 + C)!(g;1

n

):

Se remarca queZ �

��

g(t) cos(k(s� t))dt = cos ks

Z �

��

g(t) cos(kt)dt+ sin ks

Z �

��

g(t) sin(kt)dt

= cos ks

Z �

��

g(t) cos(kt)dt;

puesto que g es una funci�on par.

Resulta de (III.1.29) y de la de�nici�on de 'n que existe pn 2 Pn tal que

para todo s 2 R, 'n(s) = pn(cos s), por consiguiente se tiene

maxx2[0;1]

jf(x)� pn(x)j � maxs2Rjf(jcos sj)� pn(cos s)j = max

s2Rjg(s)� 'n(s)j

� 2(1 + C)!(g; 1=n) � 2(1 + C)!(f; 1=n):

El caso en que n = 2p + 1 es impar se deduce del precedente remarcando

que E2p+1(f) � E2p(f) y que !(f; (b� a)=n) � 2!(f; (b� a)=(n+ 1)). �

Page 134: alisis erico

III.1 Interpolaci�on de Lagrange 123

Corolario III.1.24.- Teorema de Weirstrass. Sea [a; b] un intervalo cerrado

y acotado de R, entonces el conjunto de las funciones polinomiales es denso

en C0[a; b] para la topolog��a de la convergencia uniforme

Demostraci�on.- En efecto, por la propiedad iii) del m�odulo de continuidad,

se tiene que

limn!1

!

�f;

b� a

n

�= 0;

por consiguiente limn!1

En(f) = 0. para toda funci�on f 2 C0[a; b]. �

Corolario III.1.25.- Se supone que f 2 Cp[a; b], p � 0, entonces para todo

n > p se tiene

En(f) �Mp+1 (b� a)p

n(n� 1) � � � (n� p+ 1)!

�f(p);

b� a

n� p

�: (III:1:30)

Demostraci�on.- Por el teorema III.1.23, el corolario es cierto para p = 0,

sup�ongase cierto el enunciado del corolorio para p y sea f 2 Cp+1[a; b], se

tiene por lo tanto f 0 2 Cp[a; b], de donde 8n > p+ 1

En�1(f0) �M

p+1 (b� a)

(n� 1) � � � (n� p)!

�f(p+1)

;

b� a

n� 1� p

�:

Se puede mostrar, ver Crouzeix, Cap��tulo I.3, que existe q 2 Pn�1 tal

que kf 0 � qk1

= En�1(f0). Planteando por lo tanto p(x) =

R xaq(t)dt y

'(x) = f(x) � p(x), se tiene p 2 Pn, entonces En(f) = En('), adem�as

k'0k1

= kf 0 � qk1

= En�1(f0). Aplicando el teorema III.1.23 a la funci�on

' y la propiedad iv) del m�odulo de continuidad, se obtiene

En(f) = En(') �M!

�';

b� a

n

��M

b� a

n

k'0k1;

de donde

En(f) �Mp+2 (b� a)p+1

n(n� 1) � � � (n� p)!

�f(p+1)

;

b� a

n� p� 1

�:

Utilizando las estimaciones dadas para las constantes de Lebesgue y

el teorema III.1.21, se obtiene las mayoraciones siguientes del error de

interpolaci�on de Lagrange si f 2 Cp[a; b]:a) En el caso que los xi son equidistantes,

kf � pnk1 � Cp

(b� a)p2n

np+1 logn

!

�f(p);

b� a

n� p

�;

Page 135: alisis erico

124 III Interpolaci�on

b) En el caso de los puntos de interpolaci�on de Chebichef

kf � pnk1 � Cp(b� a)plogn

np !

�f(p);

b� a

n� p

�;

este resultado con p = 0, da el resultado de Bernstein que dice que el

interpolante de Lagrange con los puntos de Chebichef converge hacia f del

momento en que limh!0

!(f; h) logh = 0, que es el caso si f 2 C1[a; b].

Teorema III.1.26.- Si la funcion f 2 C1[a; b], si los puntos utilizados

durante el proceso de interpolaci�on son puntos de Chebichef, entonces

limn!1

pn = f:

La utilizaci�on de los puntos de Chebichef en la aproximaci�on de una

funci�on continuamente diferenciable en un intervalo [a; b], no implica nece-

sariamente convergencia num�erica, pues el c�alculo del polinomio interpolante

por medio de computadoras est�a imbuido de errores de redondeo. Por lo

tanto hay que tener mucho cuidado cuando se utilizan muchos puntos de

interpolaci�on.

Fen�omeno de Runge

Hasta ahora, se ha visto condiciones su�cientes para asegurar la convergencia

de la interpolaci�on de una funci�on por polinomios. Tambi�en se ha mostrado

que la utilizaci�on de puntos de Chebichef en la interpolaci�on de una funci�on

continuamente derivable permit��a la convergencia. En esta parte, se ver�a

que tener una funci�on continuamente derivable y una divisi�on equidistante

no es una condici�on su�ciente de convergencia. Con el siguiente ejemplo

se ilustrar�a el conocido fen�omeno de Runge. En la �gura III.1.6, puede

apreciarse que la interpolaci�on de Lagrange diverge cuando la divisi�on es

equidistante. Mientras, que en la �gura III.1.7. utilizando subdivisiones de

Chebichef se tiene convergencia. En lineas punteadas se tiene la gr�a�ca de

la funci�on a interpolar.

−1 0 10

1

n=5

−1 0 10

1

n=10

−1 0 10

1

n=15

−1 0 10

1

n=20

Figura III.1.6. Interpolaci�on con puntos equidistantes.

Page 136: alisis erico

III.1 Interpolaci�on de Lagrange 125

−1 0 10

1

n=5

−1 0 10

1

n=10

−1 0 10

1

n=15

−1 0 10

1

n=20

Figura III.1.7. Interpolaci�on con puntos de Chebichef.

Sea f : [�1; 1] �! R, de�nida por

f(x) =1

1 + 25x2;

funci�on que es inde�nidamente derivable. Sean x

(n)0 ; : : : ; x

(n)n la divisi�on

equidistante de [�1; 1], pn(x) el polinomio de interpolaci�on de grado n de la

funci�on f respecto a la subdivisi�on dada anteriormente. Prolongando f(x) al

plano complejo, se tiene que f(z) tiene polos simples en z =1

5i y en z = �1

5i.

Se considera un camino cerrado simple C tal que [�1; 1] � interior de C, y lospolos est�en en el exterior de C. Por consiguiente se puede aplicar la f�ormulade Cauchy para integrales complejas, de donde

f(x) =1

2i�

ZC

f(z)

z � x

dz:

1−1

c

Se de�ne el polinomio �n(x) de grado n por

�n(x) = (x� x(n)0 )(x� x

(n)1 ) � � � (x � x

(n)n );

Por otro lado se comprueba facilmente que la expresi�on

(�n(z)��n(x))=(z�x) es un polinomio de grado n respecto a x, de�niendo

el polinomio de grado n, q(x) por

q(x) =1

2i�

ZC

f(z)

z � x

(�n(z)��n(x))

�n(z)dz; (III:1:31)

se veri�ca que q(x(n)i ) = f(x

(n)i ), de donde se ha mostrado el teorema

siguiente.

Page 137: alisis erico

126 III Interpolaci�on

Teorema III.1.27.- Si f es una funci�on racional con polos fuera de C.Entonces el error de interpolaci�on est�a dado por

f(x)� pn(x) =1

2i�

ZC

f(z)

z � x

�n(x)

�n(z)dz; (III:1:32)

donde pn es el polinomio de interpolaci�on.

Introduciendo valores absolutos, se obtiene

jf(x)� pn(x)j �1

2�

ZC

jf(z)jjz � xj

�����n(x)

�n(z)

���� jdzj ;por consiguiente se debe analizar el comportamiento cuando n �! 1 de la

expresiones que aparecen en la integral precedente. Se tiene convergencia si�����n(x)

�n(z)

���� < �n;

con � < 1, de lo contrario cuando n �! 1 jf(x)� pn(x)j diverge. Porconsiguiente hay convergencia en x 2 [�1; 1] si y solamente si

limn!1

n

s�����n(x)

�n(z)

���� < 1: (III:1:33)

En lugar de la expresi�on (III.1.33), se puede utilizar

ln n

pj�n(z)j =

1

n

ln (j�n(z)j)

=2

2n

nXj=0

ln jz � xj j ;

como los xj son equidistantes, cuando n �!1 se tiene

limn!1

ln n

pj�n(z)j =

1

2

Z 1

�1

ln jz � tj dt

=1

2<Z 1

�1

log(z � t)dt

=1

2<f(z + 1) log(z + 1) + (1� z) log(z � 1)g � 1:

De�niendo G(z) por

G(z) = exp

�1

2<f(z + 1) log(z + 1) + (1� z) log(z � 1)g � 1

�; (III:1:34)

Page 138: alisis erico

III.1 Interpolaci�on de Lagrange 127

se obtiene que

limn!1

n

pj�n(z)j = G(z):

Si x 2 R, la funci�on G es igual a

G(x) = exp

�1

2ln(x+ 1)(x+1) +

1

2ln(1� x)(1�x) � 1

�=p(1 + x)1+x(1� x)1�x=e:

Para decidir si la interpolaci�on converge para un x dado se debe tener

necesariamente G(z)=G(x) < 1, esto sucede solamente si jxj < 0; 72668.

La �gura III.1.8 muestra una gra�ca de G(x) y en la �gura III.1.7 est�an

dadas las curvas de nivel para G(z).

2/e

1/e

0 1−1

Fig. III.1.8. Gr�a�ca de G(x):

x

y

G(z)=2/e

Fig. III.1.9. Curvas de nivel de G(z):

Ejercicios

1.- Demostrar por inducci�on

y[x0; : : : ; xn] =

nXj=0

yj

Yi6=j

1

xj � xi

;

4ny0 =

nXj=0

�n

j

�yj(�1)n�j :

2.- Sup�ongase conocidos los valores de la funci�on de Bessel

J0(x) =1

Z �

0

cos(x sin t)dt:

Page 139: alisis erico

128 III Interpolaci�on

para los puntos equidistantes xi = x+ 0 + ih, i 2 Z.a) >Para que h, el error de la interpolaci�on lineal es menor a 10�11?

b) La misma pregunta para la interpolaci�on cuadr�atica.

3.- Calcular el polinomio de interpolaci�on de grado n = 10 y n = 20, que

pasa por (xi; f(xi)), i = 0; 1; : : : ; n, donde f(x) = 1=(1 + 25x2).

a) xi = �1 +2i

n

.

b) xi = cos(2i+ 1

2n+ 2�).

Hacer gr�a�cas, estudiar los errores.

4.- Sea p(x) el polinomio de interpolaci�on de grado 1 de una funci�on f dos

veces continuamente derivable. Mostrar que el error satisface

f(x)� p(x) =

Z x1

x0

G(x; t)f 00(t)dt (�)

con

G(x; t) =

8>><>>:1

h

(x� x0)(t� x1) si x � t

1

h

(t� x0)(x � x1) si x � t

:

Dibujar la funci�on G(x; �). Deducir de (�) el resultado del teorema

III.1.13.

5.- Sean x0 < x1 < � � � < xn y li(x) =

nYj=0j 6=i

(x � xj)

(xi � xj).

Veri�car que la funci�on

�n(x) =

nXi=0

jli(x)j

tiene un solo m�aximo local sobre cada [xi�1; xi]

Indicaci�on: Sobre [xj�1; xj ] se tiene a �n(x) =

nXi=0

�ili(x) con � = �1.

6.- Si la funci�on f : [x0; x1] �! R tiene solamente un m�aximo local y si

x0 < a < b < x1, entonces

f(a) � f(b) =) x� 2 [a; x1];

f(a) � f(b) =) x� 2 [x0; b];

donde f(x�) = maxx2[x0;x1]

f(x).

Page 140: alisis erico

III.1 Interpolaci�on de Lagrange 129

7.- Calcular las constantes de Lebesque

�n = maxx2[�1;1]

nXi=0

jli(x)j ; n = 10; 20; : : : ; 100;

a) para la divisi�on equidistante xi = �1 + 2i=n, i = 0; 1; : : : ; n;

b) para los puntos de Chebichef.

Calcular el maximo de f(x) =

nXi=0

jli(x)j sobre [xj�1; xj ] con la b�usqueda

de Fibonacci:

x1 = xj ; x0 = xj�1; = (p5� 1)=2;

d = (x1 � x0);

a = x1 � d; b = x0 + d;

10 d = d;

si (f(a) � f(b)) entonces

x0 = a; a = b; b = x0 + d

si no

x1 = b; b = a; a = x1 � d;

si (x1 � x0 � 10�14) vaya a 10

si no, �nal.

x a xb0 1

x a b x

xbax0 1

10

8.- Sean dados (xi; yi; y0

i), i = 0; 1; : : : ; n, los xi distintos entre si.

Mostrar que existe un �unico polinomio q(x) de grado 2n+ 1 tal que

q(xi) = yi; q(xi) = y0

i (i = 0; : : : ; n):

Utilizar la f�ormula de Newton con (x0; y0), (x0+�; y0+�y0

0); : : : y estudiar

su l��mite cuando �! 0:

>Qu�e f�ormula se obtiene para n = 2?, utilizar y[xi; xi] = y0

i, Generalizar

el ejercicio para cualquier polinomio de Hermite y obtener un esquema

de c�alculo semejante a la �gura III.1.1.

9.- Se considera la funci�on f(s) = js(s� 1) � � � (s� n)j de�nida para s 2[0; n].

a) Mostrar que f alcanza su maximo en un punto sn 2 (0; 1=2) y que

sn �1

lnncuando n!1.

b) Mostrar que limn!1

[f(1= lnn)(lnn=n!)] = 1=e, deducir que existe

c1 > 0 tal que 8n > 1; f(sn) �c1n!

lnn.

Page 141: alisis erico

130 III Interpolaci�on

Sean fx0; x1; : : : ; xng n+1 puntos equidistantes sobre el intervalo [a; b]

con x0 = a y xn = b. Mostrar que existe una constante C2 tal que

8n > 1: maxx2[a;b]

�����nYi=0

(x� xi)

����� � C2e�n

pn lnn

(b� a)(n+1):

10.- Conservando las notaciones, construir una funci�on f 2 C0[a; b] tal quekLn(f)k1 = � kfk

1y kf � Ln(f)k1 = (1 + �n) kfk1.

11.- Se considera el conjunto fx0; : : : ; xng de n + 1 puntos diferentes del

intervalo [a; b] y �n la constante de Lebesgue correspondiente a la

interpolaci�on de Lagrange en estos puntos. Se plantea

li(�) =

nYj=0j 6=i

cos � � cos �j

cos �i � cos �jcon �i = arccos((2xi � (a+ b))=(b� a));

i = 0; : : : ; n.

a) Mostrar que:

�n = max�2R

nXi=o

���li(�)���! ;

cos k(� � ') + cos k(� + ') =

nXi=0

[cos k(�i � ') + cos k(�i + ')] li(�);

0 � k � n:

b) Planteando 'n(�) =

nXi=0

hli(� + �i) + li(� � �i)� li(�)

i, mostrar que:

'n(�) = 1 + 2

nXk=1

cos k� =sin((n+ 1=2)�)

sin(�=2);

si F (�) =1

2�

Z �

��

signo('n(� � s))'n(s)ds; entonces

3�n � kFk1 =1

Z �

��

j'n(s)j d� �2

Z (n+1=2)�

0

j�j�

d� = n;

n � n�1 =4

n�2+O

�1

n3

�cuando n!1;

n �4

�2lnn cuando n!1:

12.- Sea jn la funci�on de�nida en la demostraci�on del teorema III.1.23. con

n = 2p. Mostrar que 8p � 1,Z �

0

tkjn(t)dt � ck=n

k;

para k = 1 y 2.

Page 142: alisis erico

III.2 Splines C�ubicos

En la secci�on precedente, se ha visto c�omo determinar el polinomio de

interpolaci�on. Existen dos problemas de gran magnitud cuando se requiere

encontrar un polinomio de interpolaci�on dado un conjunto (xi; yi), i =

0; : : : ; n; el primero consiste en la inestabilidad de la interpolaci�on de

Lagrange cuando n es grande, por ejemplo para n � 20 no es aconsejable

tomar puntos equidistantes. El segundo problema es que aun obteniendo el

polinomio de interpolaci�on, �este no re eja la verdadera forma de la funci�on

a interpolar, por ejemplo, para una funci�on racional, se desear��a que el

interpolante tenga la menor curvatura promedio, tal como se gra�ca con

una sercha. Por consiguiente, dados los puntos a = x0 < x1 < � � � < xn = b

y los reales yi con i = 0; : : : ; n se busca una funci�on spline s, tal que:

s(xi) = yi i = 0; : : : ; n(i)

s 2 C2([a; b]);(ii)

s de curvatura peque~na.(iii)

La curvatura de s est�a dada por

�(x) =(s00(x)

(1 + (s0(x))2)32

;

suponiendo que s0(x) es despreciable, se obtiene s00(x) = �(x), por consi-

guiente la condici�on, se expresa de la siguiente formaZ xn

x0

(s00(x))2dx �! min : (III.2:1)

En la �gura III.2.1 se observa dos gr�a�cas: la de la izquierda es de un

polinomio de interpolaci�on de tipo Lagrange; mientras que en la derecha

es la gr�a�ca del spline interpolante que pasa por los mismos puntos.

Figura III.2.1. Spline de Interpolaci�on

Page 143: alisis erico

132 III Interpolaci�on

De�nici�on III.2.1.- Un spline c�ubico es una funci�on s : [a; b] �! R con

a = x0 < x1 < � � � < xn = b, que satisface:

s 2 C2[a; b]; (III:2:2a)

sj[xj�1;xj ] polinomio de grado 3: (III:2:2b)

Teorema III.2.2.- Dados (xi; yi), i = 0; : : : ; n, con a = x0 < x1 < � � � <xn = b. Sean:

s : [a; b] �! R un spline con s(xi) = yi,

f : [a; b] �! R una funci�on con f(xi) = yi,

si

s00(b)[f 0(b)� s

0(b)] = s00(a)[f 0(a)� s

0(a)]; (III:2:3)

entonces Z b

a

[s00(x)]2dx �Z b

a

[f 00(x)]2dx:

La condici�on (III.2.3) es satisfecha si por ejemplo s00(a) = s00(b) = 0, o

por ejemplo si f 0(a) = s0(a) y f 0(b) = s

0(b).

De�nici�on III.2.3.- Si s00(a) = s00(b) = 0, el spline se llama spline natural.

Si f 0(a) = s0(a) y f 0(b) = s

0(b) el spline se dice �jo en los bordes.

Demostraci�on.- Calculando las integrales, se obtieneZ b

a

[f 00(x)]2dx�Z b

a

[s00(x)]2dx =

Z b

a

[f 00(x)� s00(x)]2dx| {z }

� 0

+ 2

Z b

a

s00(x)[f 00(x)� s

00(x)]dx:

Para demostrar la a�rmaci�on del teorema, es su�ciente mostrar que la

segunda integral del miembro derecho de la ecuaci�on es nula. En efecto,

integrando por partes, se tieneZ b

a

s00(x)[f 00(x) � s

00(x)]dx = s00(x)[f 0(x)� s

0(x)]jba| {z }= 0 por (III:2:2)

�Z b

a

s000(x)[f 0(x)� s

0(x)]dx

=�nXj=1

�j

Z xj

xj�1

[f 0(x) � s0(x)]dx

=�nXj=1

�j [f(x)� s(x)]jxjxj�1= 0:

Page 144: alisis erico

III.2 Splines C�ubicos 133

Construccion del Spline Interpolante

En este paragrafo, se determinar�a expl��citamente el spline interpolante. Para

tal efecto sea a = x0 < x1 < � � � < xn = b una divisi�on cualquiera del inter-

valo [a; b]; y sean y0; y1; : : : ; yn n�umeros reales. Se desea construir s : [a; b] �!R, el spline tal que s(xi) = yi. Llamando si = sj[xi�1; xi] : [xi�1; xi] �! R.Por consiguiente se busca una representaci�on de si, utilizando los siguientes

datos:

yi�1; yi; pi�1 = s0

i(xi�1); pi = s0

i(xi): (III:2:4)

Por lo tanto, si(x) es igual a

si(x) =yi�1 + y[xi�1; xi](x � xi�1)

+ (x� xi�1)(x� xi)�a(x� xi�1) + b(x� xi)

�; (III:2:5)

faltando determinar los valores de a y b. Planteando hi = xi � xi�1 y

derivando (III.2.5) en los puntos xi�1 y xi, se obtiene:

pi�1 = s0(xi�1) = y[xi�1; xi] + h

2i b; (III:2:6)

pi = s0(xi) = y[xi�1; xi] + h

2i b; (III:2:7)

de donde

si(x) =yi�1 + y[xi�1; xi](x � xi�1)

+(x� xi�1)(x� xi)

h2i

�(pi � y[xi�1; xi])(x� xi�1)

+ (pi�1 � y[xi�1; xi])(x� xi)�: (III:2:8)

Ahora bien, se debe determinar los pi, i = 0; : : : ; n de manera que s 2 C2[a; b].Por consiguiente:

s00

i (xi) = s00

i+1(xi) i = 1; : : : ; n� 1;

Utilizando la regla de Leibnitz

(fg)00(x) = f00(x)g(x) + 2f 0(x)g0(x) + f(x)g00(x);

se obtiene:d2

dx2

�(x� xi�1)

2(x� xi)

����x=xi

= 4hi;

d2

dx2

�(x� xi�1)(x � xi)

2

����x=xi

= 2hi;

Page 145: alisis erico

134 III Interpolaci�on

de donde:

s00

i (xi) =1

hi

�4(pi � y[xi�1; xi]) + 2(pi�1 � y[xi�1; xi])

�;

s00

i+1(xi) =1

hi+1

�2(pi+1 � y[xi; xi+1]) + 4(pi � y[xi; xi+1])

�por lo tanto,

pi�1

hi

+ 2pi

�1

hi

+1

hi+1

�+pi+1

hi+1

= 3

�y[xi�1; xi]

hi

+y[xi; xi+1]

hi+1

�; (III:2:9)

para i = 1; : : : ; n�1. Es as�� que se ha obtenido n�1 ecuaciones, teniendo n+1ecuaciones, las dos ecuaciones que faltan para obtener un sistema completo,

se obtienen de las condiciones de borde para x0 y xn.

Si el spline es natural, se tiene s00(a) = s00(b) = 0, obteniendo:

2p0

h1

+p1

h1

= 3y[x0; x1]

h0

(III:2:10a)

2pn�1

hn

+pn

hn

= 3y[xn�1; xn]

hn

(III:2:10b)

Si el spline est�a �jado en los bordes, se tiene s0(a) = f0(a) y s0(b) = f

0(b),

obteniendo:

p0 = f0(a); (III:2:11a)

pn = f0(b): (III:2:11b)

Existen muchos otros tipos de spline, como por ejemplo peri�odicos, de

Bezier, etc. Las condiciones de borde son diferentes, pero las ecuaciones dadas

por (III.2.9) son esencialmente las mismas, estos aspectos ser�an desarrollados

con m�as detalle posteriormente o en la parte de los ejercicios.

Por otro lado, las ecuaciones que determinan los pi pueden escribirse de

manera matricial. A continuaci�on, se dar�an las notaciones matriciales para

los splines natural y �jo.0BBBBBBBB@

2h1

1h1

0

1h1

2( 1h1

+ 1h2

) 1h2

0 1h2

2( 1h2

+ 1h3

) 1h3

. . .. . .

. . .1

hn�12( 1

hn�1+ 1hn

) 1hn

1hn

2hn

1CCCCCCCCA

0BBBBBBBBBB@

p0

p1

p2

...

pn�1

pn

1CCCCCCCCCCA=

0BBBBBBBB@

3h1

y[x0;x1]

3h1

y[x0;x1]+3h2

y[x1;x2]

3h2

y[x1;x2]+3h3

y[x2;x3]

...3

hn�1y[xn�2;xn�1]+

3hn

y[xn�1;xn]

3hn

y[xn�1;xn]

1CCCCCCCCAMatriz del spline natural.

Page 146: alisis erico

III.2 Splines C�ubicos 135

0BBBB@2( 1

h1+ 1h2

) 1h2

1h2

2( 1h2

+ 1h3

) 1h3

. . .. . .

. . .1

hn�12( 1

hn�1+ 1hn

)

1CCCCA

0BBBBBBB@

p1

p2

...

pn�1

1CCCCCCCA=

0BBBB@3h1

y[x0;x1]+3h2

y[x1;x2]�p0h1

3h2

y[x1;x2]+3h3

y[x2;x3]

...3

hn�1y[xn�2;xn�1]+

3hn

y[xn�1;xn]�pn

hn

1CCCCA

Matriz del spline �jo en los bordes.

Denotando A, la matriz del spline natural como �jo en los bordes, se tiene

el siguiente teorema.

Teorema III.2.4.- La matriz A es inversible, es decir

detA 6= 0:

Demostraci�on.- Se mostrar�a que la siguiente implicaci�on es cierta

Ap = 0 =) p = 0:

Sup�ongase que Ap = 0, entonces

pi�1

hi

+ 2pi(1

hi

+1

hi+1

) +pi+1

hi+1

= 0;

se denota por pio a

jpio j = maxijpij ;

por consiguiente

2 jpio j (1

hio

+1

hio+1

) � jpio jhio

+jpio jhio+1

;

de donde

2 jpio j � jpio j :�

En uno de los ejercicios de la secci�on II.1, se muestra que el problema de

encontrar los pi es un problema bien condicionado. Por otra lado la resoluci�on

de este sistema se procede facilmente con el algoritmo de Eliminaci�on de

Gauss, si n no es muy grande; en el caso contrario con un m�etodo iterativo

utilizando el hecho que A es sim�etrica y de�nida positiva.

Page 147: alisis erico

136 III Interpolaci�on

El Error de la Aproximaci�on Spline

Se ha visto en el paragrafo anterior, que la construcci�on del spline inter-

polante es muy simple, solo se requiere resolver un sistema tridiagonal de

ecuaciones lineales. En esta parte, se insistir�a en las estimaciones del error

cometido en el proceso de interpolaci�on spline.

Sean f : [a; b] �! R una funci�on, a = x0 < x1 < � � � < xn = b una

subdivisi�on del intervalo [a; b] y �nalmente s(x) el spline �jo en los bordes

que interpola f , es decir

s(xi) = f(xi); i = 0; : : : ; n;

s0(x0) = f

0(x0);

s0(xn) = f

0(xn);

se desear��a saber que error se comete, en otras palabras

jf(x)� s(x)j � ?

Teorema III.2.5.- Si f 2 C4[a; b], a = x0 < x1 : : : < xn = b una

subdivisi�on, hi = xi � xi�1, los pi derivadas en los nudos del spline �jo

en los bordes. Entonces

jf 0(xi)� pij �h3

24

f (4) 1

; (III:2:12)

donde h = maxhi. Si adem�as, la divisi�on es equidistante, se tiene

jf 0(xi)� pij �h4

60

f (5) 1

: (III:2:13)

Adem�as del inter�es del resultado del teorema que servir�a para la

estimaci�on del error, se tiene un medio simple para calcular las derivadas

de f en los puntos xi.

Demostraci�on.- La demostraci�on del caso general es muy similar a la

del caso de los puntos equidistantes, aqu�� se mostrar�a el caso equidistante,

dejando al lector el caso general. La construcci�on del spline est�a dada por

las ecuaciones

1

h

(pi�1 + 4pi + pi+1)�3

h2(f(xi+1)� f(xi�1)) = 0: (III:2:14)

Se de�ne qi, i = 1; : : : ; n� 1, por

qi =1

h

�f0(xi�1) + 4f 0(xi) + f

0(xi+1)�� 3

h2

�f(xi+1)� f(xi�1)

�(III:2:15)

Page 148: alisis erico

III.2 Splines C�ubicos 137

Por otra lado, utilizando el teorema de Taylor con resto en el punto xise tiene:

f(xi+1) = f(xi) + hf0(xi) +

h2

2!f00(xi) +

h3

3!f(3)(xi)

+h4

4!f(4)(xi) + h

5

Z 1

0

(1� t)4

4!f(5)(xi + th)dt;

f0(xi+1) = f

0(xi) + hf00(xi) +

h2

2!f(3)(xi) +

h3

3!f(4)(xi)

+ h4

Z 1

0

(1� t)3

3!f(5)(xi + th)dt;

de donde, introduciendo en (III.2.15), se obtiene

qi =h3

Z 1

0

�(1� t)3

3!� 3

(1� t)4

4!

�f(5)(xi + th)dt

+ h3

Z 1

0

�(1� t)3

3!� 3

(1� t)4

4!

�f(5)(xi � th)dt:

Utilizando el teorema del valor medio y calculando la integralZ 1

0

�(1� t)3

3!� 3

(1� t)4

4!

�dt =

1

60;

se obtiene �nalmente que

qi =1

60h3�f(5)(�i) + f

(5)(�i)�;

con �i 2 [xi�1; xi] y �i 2 [xi; xi+1], por consiguiente

qi �h3

20

f (5) 1

: (III:2:16)

Restando (III.2.14) con (III.2.15), se tiene

ei = f0(xi)� pi;

que es soluci�on del sistema de ecuaciones

1

h

[ei�1 + 4ei + ei+1] = qi; i = 1; : : : ; n� 1:

Sea io tal que

jeio j = maxi=1;:::;n

jeij ;

Page 149: alisis erico

138 III Interpolaci�on

en consecuencia, se tiene:

4eio = hqio � eio�1 � eio+1;

4 jeio j � h jqio j+ jeio�1j+ jeio+1j� h jqio j+ jeio j+ jeio j ;

de donde �nalmente

jeij � jeio j �h

2jqio j :

Antes de poder estimar el error cometido por el polinomio de interpo-

laci�on spline, es necesario el siguiente teorema.

Teorema III.2.6.- Si xi = x0 + ih, con h = (b � a)=n, f 2 C5[a; b]; s(x)el spline �jo en los bordes, y p(x) el polinomio de interpolaci�on de Hermite

sobre el intervalo [xi�1; xi], tal que

p(xj) = s(xj); p0(xj) = f

0(xj); j = i� 1; i:

Entonces

jp(x)� s(x)j � h5

240

f (5) 1

para x 2 [xi�1; xi]: (III:2:17)

Demostraci�on.- El polinomio de Hermite, utilizando (III.2.8), est�a dado

por

p(x) =yi�1 + y[xi�1; xi](x � xi�1)

+(x � xi�1)(x� xi)

h2i

�(f 0(xi)� y[xi�1; xi])(x � xi�1)

+ (f 0(xi�1)� y[xi�1; xi])(x � xi)�; (III:2:18)

restando (III.2.18) con (III.2.8), se obtiene

p(x)� s(x) =(x � xi�1)(x� xi)

h2i

�(f 0(xi)� pi)(x� xi�1)

+ (f 0(xi�1)� pi�1)(x � xi)�;

por lo tanto

jp(x)� s(x)j � jx� xi�1j jx� xijh4 f(5) 1

60[jx� xij+ jx� xi�1j]

� h5

240

f (5) 1

:

Page 150: alisis erico

III.2 Splines C�ubicos 139

Ahora bien, para tener una estimaci�on del error de la interpolaci�on

spline, solo falta conocer el error cometido por el polinomio de interpolaci�on

de Hermite, estimaci�on que est�a dada en el siguiente teorema.

Teorema III.2.7.- Sean, f 2 [x0; x1], h = x1 � x0, p(x) el polinomio de

interpolaci�on de Hermite que satisface:

p(xi) = f(xi); i = 0; 1;

p0(xi) = f

0(xi); i = 0; 1;

entonces

jf(x)� p(x)j � h4

384

f (4) 1

: (III:2:19)

Demostraci�on.- Sean � > 0 su�cientemente peque~no, p�(x) el polinomio de

interpolaci�on que satisface:

p�(x0) = f(x0); p�(x0 + �) = f(x0 + �);

p�(x1) = f(x1); p�(x1 � �) = f(x1 � �):

Por el teorema (III.1.13), se tiene para todo �.

jf(x)� p�(x)j � j(x� x0)(x� x0 � �)(x � x1 = �)(x� x1)j f(4)

4!;

haciendo tender � hacia 0, se obtiene

jf(x)� p(x)j ���(x� x0)

2(x� x1)2�� f (4)

4!

� h4

384

f (4) :�

Finalmente, con los anteriores teoremas se puede dar la siguiente esti-

maci�on del error del spline �jo en los bordes.

Teorema III.2.8.- Sean, f 2 C5[a; b], xi = x0 + ih, i = 0; : : : ; n, con

h = (b� a)=n, s(x) el spline �jo en los bordes de la funci�on f respecto a la

subdivisi�on equidistante, entonces

jf(x)� s(x)j � h4

384max

x2[xi�1;xi]

���f (4)(x)���+ h5

240

f (5) 1

: (III:2:20)

Page 151: alisis erico

140 III Interpolaci�on

Demostraci�on.- Su�ciente utilizar la desigualdad del tri�angulo en los dos

anteriores teoremas, es decir

jf(x)� s(x)j � jf(x)� p(x)j+ jp(x) � s(x)j :�

Los resultados obtenidos en los teoremas de esta subsecci�on han sido

demostrados para el caso de divisiones equidistantes, no obstante modi�-

cando las demostraciones para divisiones m�as generales se puede obtener

resultados similares en la mayoraci�on del error de la interpolaci�on spline, no

hay que sorprenderse que las mayoraciones sean muy parecidas al del caso

equidistante, con la diferencia que h est�e elevado a una potencia de un grado

menor.

Por otro lado, los teoremas enunciados consideran el caso del spline �jo

en los bordes, para los otros tipos de spline, las mayoraciones del error de

interpolaci�on se deben efectuar utilizando los resultados anteriores m�as un

error debido al cambio de tipo de spline.

Teorema III.2.9.- Sean, f 2 C5[a; b], xi = x0 + ih, i = 0; : : : ; n; con

h = (b � a)=n, s(x) el spline �jo en los bordes, s(x) es el spline natural.

Entonces

js(x) � s(x)j � h2

8max

x2I1[Injf 00(x)j + h

5

240

f (5) 1

; (III:2:21)

donde I1 = [x0; xn] y In = [xn�1; xn].

Demostraci�on.- Sustrayendo los sistemas lineales que determinan pi y pi

en la construcci�on de los splines �jo en los bordes y natural, se obtiene:

(pi�1 � pi�1) + 4(pi � pi) + (pi+1 � pi+1) = 0 i = 0; : : : ; n� 1;

2(p0 � p0) + (p1 � p1) = C0;

2(pn � pn) + (pn�1 � pn�1 = Cn;

donde:

C0 = 3y[x0; x1]� 2p0 � p1; Cn = 3y[xn�1; xn]� 2pn � pn�1:

Sea io 2 f0; 1; : : : ; ng, tal que

jpio � pio j = maxijpi � pij:

Ahora bien,io = 0, o bien io = n, por que de lo contrario se tendr��a

4 jpio � pio j � jpio�1 � pio�1j+ jpio+1 � pio+1j � 2 jpio � pio j :

Page 152: alisis erico

III.2 Splines C�ubicos 141

Suponiendo que io = 0, se tiene la siguiente mayoraci�on

jpi � pij � jp0 � p0j � C0;

en el otro caso, se obtiene

jpi � pij � jpn � pnj � Cn:

Utilizando la f�ormula de Taylor, con resto en forma de integral, se obtiene

para la funci�on f en el punto x0, los siguientes resultados:

f(x1)� f(x0) = hf0(x0) + h

2

Z t

0

(1� t)f 00(x0 + th)dt; (III:3:22)

f0(x1) = f

0(x0) + h

Z 1

0

f00(x0 + th)dt; (III:3:23)

y en el punto xn los siguientes resultados:

f(xn�1)� f(xn) = �hf 0(xn) + h2

Z t

0

(1� t)f 00(xn � th)dt;

f0(xn�1) = f

0(xn)� h

Z 1

0

f00(xn � th)dt:

La f�ormula (III.3.13) del teorema III.3.5, conduce a las estimaciones:

p1 = f0(x1) + �

h4

60

f (5) 1

; con j�j � 1; (III:3:24)

pn�1 = f0(xn�1) + �

0h4

60

f (5) 1

; con j�0j � 1:

Suponiendo que io = 0, introduciendo (III.3.22-24) en C0, se obtiene

C0 = 3f 0(x0) + h

Z 1

0

(1� t)f 00(x0 + th)dt� 2f 0(x0)� f0(x0)

� h

Z 1

0

f00(x0 + th)dt� �

h4

60

f (5) 1

= �hZ 1

0

tf00(x0 + th)dt� �

h4

60

f (5) 1

;

de donde

jC0j �1

2hmaxx2I1jf 00(x)j + h

4

60

f (5) 1

:

Page 153: alisis erico

142 III Interpolaci�on

Si io = n, se obtiene similarmente

jCnj �1

2hmaxx2In

jf 00(x)j + h4

60

f (5) 1

:

La diferencia de ambos splines est�a mayorada por lo tanto por

jp(x)� p(x)j =����(x � xi�1)(x� xi)

h2

[(pi � pi)(x � xi�1) + (pi�1 � pi�1)(x� xi)]

����h

4

�1

2max

x2I1[Injf 00(x)j + h

5

60

f (5) 1

�(jx� x� xi�1j+ jx� xij)

� h2

8max

x2I1[Injf 00(x)j+ h

5

240

f (5) 1

:

El spline �jo en los bordes es m�as preciso que el natural, siempre y

cuando se conozca los valores de la derivada de la funci�on interpolada en

los bordes. En la demostraci�on del �ultimo teorema puede observarse que la

diferencias de los pi veri�can una ecuaci�on de diferencias �nitas con valores

en la frontera, resolviendo esta ecuaci�on puede observarse que la diferencia

entre los pi es mucho menor en los nudos centrales, que en aquellos que est�an

cerca de los bordes. Por consiguiente la estimaci�on del teorema (III.2.9) es

muy pesimista, en la pr�actica la diferencia de los errores es menor.

Aplicaci�on de spline

Al inicio de esta secci�on, los splines fuer�on abordados como un instrumento

num�erico de aproximaci�on, como una alternativa a la interpolaci�on poli-

nomial de tipo Lagrange. Esto debido a sus propiedades de no presentar

problemas de inestabilidad num�erica, por sus cualidades de convergencia y

por la poca curvatura que presentan.

Figura III.2.1. Aplicaci�on gr�a�ca de los splines

Page 154: alisis erico

III.2 Splines C�ubicos 143

Ahora bien, los splines son utilizados tambi�en como un instrumento

gr�a�co. Una gran cantidad de los algoritmos desarrollados en gra�smo

asistido por computadora, utilizan ampliamente los splines en sus diferentes

versiones. En la �gura III.2.2, se observa con claridad la potencia de la

interpolaci�on spline. En el dibujo de la izquierda, se tiene los puntos unidos

por segmentos rectilinios, mientras que en el dibujo de la derecha unidos por

splines.

Ejercicios

1.- Considerar puntos equidistantes xi = x0+ih, h > 0. Mostrar que existe

un �unico spline llamado B-spline, tal que para un j �jo se tiene:

s(xj) = 1;

s(x) = 0 si jx� xj j � 2h:

Dibujar.

2.- Desarrollar una f�ormula para los splines peri�odicos.

Mostrar la existencia y la unicidad del spline que pasa por (xi; yi),

i = 0; : : : ; n, tal que

s0(x0) = s

0(xn); s00(x0) = s

00(xn):

3.- Escribir una subrutina SPLICO(N,X,Y,DY,P,A,B).

Los datos son N, X(0:N), Y(0:N) y P(0), P(N). La subrutina debe

dar como valores DY(0:N-1) diferencias divididas, P(0:N) los pi,

A(0:N-1) los (pi � y[xi�1; xi]) y B(0:N-1) los (pi�1 � y[xi�1; xi]).

4.- Escribir una funcion SPLIVA(N,X,Y,DY,A,B,T) que calcula el valor del

spline en el punto T. Examinarla sobre varias funciones de su elecci�on.

5.- Sea xi = x0+ih, i = 0; : : : ; n, una divisi�on equidistante y lj(x) el spline

de tipo Lagrange que satisface(1; si i = j;

0; sino;

y l0j(x0) = 0, l0j(xn) = 0. Para las pendientes pi = lj(xi) mostrar:

� 3

h

< pj <2

h

;

: : : ; pj�3 > 0; pj�2 < 0; pj�1 > 0; pj+1 < 0; pj+2 > 0; : : : :

Page 155: alisis erico

144 III Interpolaci�on

6.- Los splines lj(x) del anterior ejercicio no cambian de signo en ning�un

intervalo [xi�1; xi].

7.- Sobre el intervalo [xi�1; xi]

nXi=0

jlj(x)j = ti(x)

es el spline que satisface(1 si j = i+ 2k o j = i� 2k � 1 con k = 0; 1; : : : ;

�1 sino.

8.- Utilizando SPLICO y SPLIVA de los ejercicios 3 y 4. Calcular para

xi = i=n, n = 20:

a) el spline l7(x),

b) la funci�on

nXi=0

jli(x)j,

hacer dibujos. Veri�car las propiedades de los ejercicios 5, 6 y 7.

Page 156: alisis erico

III.3 Extrapolaci�on

En las dos primeras secciones, se ha abordado la interpolaci�on polinomial y

la interpolaci�on spline como un medio de aproximaci�on dentro un intervalo

cerrado y acotado [a,b]. Sin embargo estos procedimientos no sirven cuando

se trata de determinar el valor de una funci�on o el l��mite de una funci�on

de�nida en un intervalo abierto (a; b) o mas aun si la funci�on est�a de�nida

en un intervalo no compacto.

En esta secci�on, se estudiar�a la extrapolaci�on por medio de funciones

polinomiales, como una consecuencia natural de los resultados obtenidos en

la primera secci�on de este cap��tulo. Por otro lado, se ver�a que la extrapolaci�on

polinomial, no es solamente un instrumento para determinar valores fuera

de cierto rango, si no tambi�en como un medio para acelerar la convergencia

de suceciones convergentes.

Sea f : (0; 1] �! R, se desea determinar

limx!0+

f(x); (III:3:1)

sabiendo que se puede determinar sin ning�un problema f(h) para h > 0.

Los otros casos de determinaci�on de l��mite se convierten el primer caso por

traslaci�on af��n, o planteando h = 1=x si se desea determinar el l��mite cuando

x ! 1. Por consiguiente se supondr�a que f tiene un desarrollo asimt�otico

por derecha de la forma

f(h) = a0 + a1h+ � � �+ anhn +O(hn+1); h > 0: (III:3:2)

Sea 1 � h0 > h1 > � � � > hn > 0 una subdivisi�on decreciente del intervalo

(0; 1], por lo tanto

limx!0+

f(x) � p(0); (III:3:3)

donde p(x) es el polinomio de interpolaci�on que pasa por (hi; f(hi)),

i = 0; : : : ; n. Escogiendo adecuadamente estos hi se puede obtener un

algoritmo facil y sencillo de implementar, para este efecto es necesario la

siguiente proposici�on.

Proposici�on III.3.1.- Sean (xi; yi), i = 0; 1; : : : ; n, los xi diferentes entre

si, p1(x) el polinomio de interpolaci�on de grado n� 1 que pasa por (xi; yi),

i = 0; : : : ; n � 1, y p2(x) el polinomio de interpolaci�on de grado n � 1 que

pasa por (xi; yi), i = 1; : : : ; n: entonces el polinomio p(x) de grado n que

pasa por (xi; yi), i = 0; : : : ; n; est�a dado por

p(x) = p1(x)xn � x

xn � x0

+ p2(x)x� x0

xn � x0

: (III:3:4)

Page 157: alisis erico

146 III Interpolaci�on

Demostraci�on.- Se puede ver facilmente que p(x) es un polinomio de grado

menor o igual a n, En los nudos, excepto para i = 0 o i = n, se tiene

p(xi) =xn � xi

xn � x0

p1(xi) +xi � x0

xn � x0

= yi

�xn � xi

xn � x0

+xi � x0

xn � x0

�;

para i = 0 y i = n veri�caci�on inmediata. �

Corolario III.3.2.- Con las mismas hip�otesis del teorema precedente, se

tiene

p(0) =p1(0)xn � p2(0)x0

xn � x0

= p1(0) +p1(0)� p2(0)

xn=x0 � 1:

(III:3:5)

Demostraci�on.- Veri�caci�on inmediata. �

Ahora bien, volviendo al problema de extrapolaci�on, sea f : (0; 1] �! R;1 � h0 > h1 > � � � > hn > 0 una subdivisi�on decreciente del intervalo (0; 1].

Suponiendo que f admite el desarrollo asint�otico por derecha, dado por

f(h) = a0 + a1h+ � � �+ anhn +O(hn+1);

p(x) el polinomio de interpolaci�on que pasa por (xi; f(xi)), i = 0; : : : ; n;

entonces se puede suponer

limh!0+

f(x) � p(0):

De�niendo pj;k el polinomio de interpolaci�on de grado � k que pasa por

(hi; f(hi)), j � k; j; se tiene por consiguiente

p(x) = pn;n(x): (III:3:6)

Utilizando la proposici�on III.3.1 y el corolario III.3.2 se tiene las siguientes

relaciones recursivas para determinar p(0):

pj0(0) =f(hj); (III:3:7a)

pj;k+1(0) =pj;k(0) +pj;k(0)� pj�1;k(0)

hj�k�1=hj � 1: (III:3:7b)

Page 158: alisis erico

III.3 Extrapolaci�on 147

De donde estas relaciones recursivas pueden expresarse en un tablero, con la

convenci�on de llamar pj;k = Tj;k.

Tabla III.3.1. Tablero de Extrapolaci�on.

h0 T00

h1 T10 T11

h2 T20 T21 T22

h3 T30 T31 T32 T33

h4 T40 T41 T42 T43 T44

......

......

.... . .

Los cocientes hj�k�1=hj se deducen facilmente del tablero, se toma como

numerador el hi que se encuentra en la misma diagonal a Tk;l y como

denominador el hi que se encuentra en la misma �la que Tk;l.

Ejemplo

Un procedimiento para calcular �, es considerar la serie

� = 4

1Xk=0

(�1)k 1

2k + 1:

Lastimosamente esta serie converge muy lentamente para obtener una

precisi�on deseada de �, pero se puede acelerar la convergencia de

esta serie utilizando el procedimiento de extrapolaci�on de Richardson,

formulado anterioremente. Se de�ne hk = 1=(2k + 1),

f(hk) = 4

kXj=0

(�1)j 1

2j + 1;

obteniendo as�� el tablero siguiente

2.6667

2.8952 3.2381

2.9760 3.1781 3.1030

3.0171 3.1607 3.1302 3.1619

3.0418 3.1533 3.1367 3.1465 3.1292

3.0584 3.1495 3.1391 3.1434 3.1391 3.1500

3.0703 3.1473 3.1401 3.1424 3.1408 3.1431 3.1356

3.0792 3.1459 3.1407 3.1420 3.1413 3.1420 3.1407 3.1461

3.0861 3.1450 3.1410 3.1418 3.1414 3.1417 3.1414 3.1422 3.1381

3.0916 3.1443 3.1411 3.1417 3.1415 3.1417 3.1415 3.1417 3.1412 3.1444

3.0962 3.1438 3.1413 3.1417 3.1416 3.1416 3.1416 3.1416 3.1415 3.1419 3.1393

Page 159: alisis erico

148 III Interpolaci�on

La pr�actica en la extrapolaci�on num�erica muestra que es pr�actico y

conveniente utilizar sucesiones de la forma hj = 1=nj , donde fnjg1j=0 es una

sucesi�on creciente de n�umeros naturales, por consiguiente la f�ormula (III.3.7)

se convierte en

pj0(0) = f(hj);

pj;k+1(0) = pj;k(0) +pj;k(0)� pj�1;k(0)

nj�k�1=nj � 1:

(III:3:8)

Las tres sucesiones de enteros positivos crecientes son:

i) Arm�onica: 1; 2; 3; 4; 5 : : :;

ii) Romberg: 1; 2; 4; 8; 16; : : :;

iii) Bulirsch: 1; 2; 3; 4; 6; 8; ; 12; 16; : : :,

es decir los enteros de la forma 2i y 3 � 2i.

Teorema III.3.3.- Sea f : (0; 1] �! R, sup�ongase que f tiene el desarrollo

asint�otico por derecha en x = 0, para k = 0; 1; 2; : : : ; ko; dado por

f(x) = a0 + a1x+ � � �+ akxk +Rk+1(x);

con jRk+1(x)j � Ck+1xk+1, para x > 0. Sea hj = 1=nj, con nj una sucesi�on

creciente de naturales, entonces el procedimiento de extrapolaci�on de�nido

por (III.3.8) veri�ca la siguiente propiedad:

Si para todo j > 0 se tiene hj+1=hj � r < 1, entonces

8k con 0 � k � ko; Tm;k = a0 +O(hk+1m�k): (III:3:9)

Demostraci�on.- Escribiendo el polinomio de interpolaci�on de grado � k,

se tiene

f(x) = pmk(x) +Rk+1(x);

de donde

pmk(x)� f(x) =

mXi=m�k

Rk+1(hi)lm;k;i(x); (III:3:10)

con lm;k;i(h) =

mYj=m�k

j 6=i

h� hj

hi � hj

. Para x = 0, se deduce que

Tmk � a0 =

mXi=m�k

mYj=m�kj 6=i

hj=hi

hj=hi � 1Rk+1(hi):

Page 160: alisis erico

III.3 Extrapolaci�on 149

Si j < i, se mayora

���� hj=hi

hj=hi � 1

���� por 1

1� ri�j

, mientras que

si i < j, se mayora

���� hj=hi

hj=hi � 1

���� por rj�i

1� rj�i

, �nalmente jRk+1(hi)j por

Ck+1

�ri�m+k

hm�k

�k+1, deduciendo

jTm;k � a0j � C(k; r)Ck+1hk+1m�k

donde C(k; r) es una constante independiente de m. �

La convergencia hacia a0 es obtenida en cada una de las columnas del

tablero, para la primera columna la convergencia es O(hm), para la segundacolumna la velocidad de convergencia est�a dada por O(h2m�1), y para la

k-esima columna la velocidad de convergencia es igual a O(hk+1m�k+1). Por

consiguiente, si a1 6= 0 la convergencia de la k-esima columna es k veces mas

rapida que de la primera columna.

Las sucesiones de Romberg y Bulirsch satisfacen las condiciones del

teorema III.3.3 con r = 1=2 y r = 3=4. Sin embargo la otra sucesi�on utilizada

ampliamente en las extrapolaciones num�ericas como ser la arm�onica no

cumple el requisito que hj+1=hj � r < 1. No obstante se tiene a disposici�on

el siguiente teorema.

Teorema III.3.4.- Mismas hip�otesis del teorema III.3.3 para la funci�on f ,

se de�ne hn = 1=n. Entonces se tiene:

8k con 0 � 2k � ko Tmk = a0 +O(hk+1m ): (III:3:11)

Demostraci�on.- Se tiene

Rk+1(h) = qk(h) +R2k+1(h) con

qk(h) = ak+1hk+1 + � � �+ a2kh

2k:

Utilizando (III.3.10), se deduce

Tmk � a0 =

mXi=m�k

�qk(hi)lm;k;i(0) + R2k+1(hi)lm;k;i(0)

�:

Por el teorema III.1.13, se tiene

qk(0)�mX

i=m�k

qk(hi)lm;k;i(0) =1

(k + 1)!

mYj=m�k

(�hj)q(k+1)

k (�);

Page 161: alisis erico

150 III Interpolaci�on

lo que muestra que

mXi=m�k

qk(hi)lm;k;i(0) = O(hk+1m ):

Por otro lado

lm;k;i(0) =

mYj=m�kj 6=i

hj

hj � hi

=

mYj=m�kj 6=i

i

i� j

;

de donde jR2k+1(hi)lm;k;i(0)j � C2k+1h2k+1i i

k � C2k+1yk0y

k+1i ;

deduciendo facilmente el teorema. �

Debido al error de redondeo que se comete en el c�alculo del polinomio

de interpolaci�on, y por consiguiente en el proceso de extrapolaci�on, se debe

evitar la utilizaci�on de polinomios de interpolaci�on de grado muy elevado, la

pr�actica aconseja no pasar de 10.

Por otro lado, la extrapolaci�on num�erica es muy utilizada en la cons-

trucci�on de m�etodos de integraci�on, como tambi�en en la construcci�on de

m�etodos de resoluci�on de ecuaciones diferenciales.

Ejercicios

1.- Sea f : (0; 1] �! R una funci�on cuyo desarrollo asint�otico por derecha

en x = 0 est�a dado por

f(x) = a0 + a1x2 + � � �+ akx

2k +O(x2k+2):

Modi�car el algoritmo de Aitken-Naville, es decir el proceso de extra-

polaci�on, de manera que el n�umero de operaciones se redusca ostensi-

blemente.

2.- En esta secci�on, se da un ejemplo de c�omo acelerar la convergencia de

una sucesi�on para calcular �. Suponiendo que el desarrollo asint�otico

es par, como en el ejercicio 1, recalcule y compare.

3.- Utilizando el procedimiento de la secci�on III.1 para determinar la

in uencia de los errores de redondeo en la determinaci�on del polinomio

de interpolaci�on. Estudie la in uencia de los errores de redondeo en

la extrapolaci�on, suponiendo que los �unicos errores de redondeo que

se comete son aquellos relativos a la evaluaci�on de la funci�on f a ser

extrapolada.

4.- Calculep2, utilizando un procedimiento de extrapolaci�on, por ejemplop

1 = 1,p1; 21 = 1; 1,

p1; 44 = 1; 2,

p1; 69 = 1; 3;

p1; 96 = 1; 4;p

1; 9881 = 1; 41, : : :.

Page 162: alisis erico

Cap��tulo IV

Ecuaciones No Lineales

En el cap��tulo II, se vio diferentes m�etodos para resolver problemas lineales,

pero tambi�en existen problemas no lineales, como por ejemplo ecuaciones

cuadr�aticas, polinomiales, trigonom�etricas y muchas otras m�as. La Historia

de las Matem�aticas muestra que los problemas lineales fueron estudiados y

resueltos en tiempos inmemoriables, pero luego el hombre confront�o otros

tipos de problemas cuya caracter��stica no era precisamente lineal. En el

caso lineal la soluci�on de un problema puede darse de manera expl��cita, es

su�ciente determinar la inversa de la matriz del sistema y multiplicar para

obtener la soluci�on de este problema. En el caso no lineal se continu�o con

esta �optica, lo cual es siempre posible bajo ciertas condiciones, como ejemplo

se tiene el teorema de la funci�on inversa, pero lastimosamente en la mayor

parte de los casos esta funci�on inversa no puede ser expresada como una

combinaci�on de funciones elementales, entendiendose como funci�on elemental

aquellas que uno estudia en colegio y los primeros semestres de universidad.

En este cap��tulo, se intentar�a de cierta manera seguir este desarrollo

hist�orico, dejando sobrentendido que el estudio de los problemas lineales en

todas sus variantes es conocido por el lector. Por consiguiente, una primera

parte ser�a dedicada al estudio de las soluciones de ecuaciones polinomia-

les, teniendo como ep��logo el Teorema de Galois. Despu�es se abordar�a los

m�etodos iterativos para encontrar la soluci�on o soluciones de una ecuaci�on,

dando condiciones para asegurar la existencia, la unicidad local y la conver-

gencia de tales m�etodos. Como una clase de m�etodo iterativo, se estudiar�a

el M�etodo de Newton, enunciando: teoremas de convergencia, existencia y

unicidad de soluciones, algunos problemas frecuentes que se encuentran en la

implementaci�on de tal m�etodo; como tambi�enmodi�caciones para simpli�car

su utilizaci�on en determinadas situaciones. Finalmente, se ver�a el equivalente

del M�etodo de los M��nimos Cuadrados, en los problemas no lineales, que es

el M�etodo de Gauss-Newton.

Page 163: alisis erico

IV.1 Ecuaciones Polinomiales

Una de la clase de ecuaciones que se confronta a diario son las ecuaciones

polinomiales, que son de la forma

xn + a1x

n�1 + � � �+ an�1x+ an = 0; (IV:1:1)

donde los ai son n�umeros reales o complejos.

Como C es una extensi�on del cuerpo R, se puede suponer que el

problema consiste en determinar las raices o ceros de un polinomio p(x) 2C [x]. La existencia de las soluciones de una ecuaci�on polinomial est�a dada

por el Teorema Fundamental del Algebra que se lo enuncia sin demostraci�on.

Teorema IV.1.1.- Fundamental del Algebra. Sea p(x) 2 C [x] de grado n,

entonces p(x) tiene exactamente n ceros contando con su multiplicidad.

Comentando este teorema, se puede agregar que un polinomio a coe-

�entes reales puede no tener ceros reales; pero por el teorema Fundamental

del Algebra, �este tiene exactamente n raices contando con su multiplicidad.

Por otro lado, p(x) puede ser visto como una funci�on de C en C , ahora

bien toda funci�on polinomial es holomorfa, y si el polinomio es no nulo,

entonces los ceros forman un conjunto discreto, es decir que para todo cero

x0, existe un r > 0 tal que p(x) 6= 0 para todo x 2 C tal que 0 < jxj < r.

Adem�as, la utilizaci�on del teorema de Rouch�e permite de determinar los

discos donde se encuentran los ceros y complementando esta informaci�on el

n�umero exacto de ceros.

Ecuaciones Resolubles por Radicales

Tal como se dijo en la introducci�on de este cap��tulo, se ha buscado inicial-

mente la manera de expresar la soluci�on de una ecuaci�on por medio de fun-

ciones elementales. En esta subsecci�on, se ver�a precisamente esta manera de

expresar las soluciones. Se comenzar�a con el caso mas simple, las ecuaciones

cuadr�aticas.

Ecuaciones cuadr�aticas

Una ecuaci�on cuadr�atica o ecuaci�on polinomial de segundo grado es de la

forma

ax2 + bx+ c = 0; con a 6= 0;

ecuaci�on que es equivalente a

x2 +�

bx+ �c = 0; (IV:1:2)

Page 164: alisis erico

IV.1 Ecuaciones Polinomiales 153

completando cuadrados se tiene�x+

�b

2

�2

+ �c��b2

4= 0;

obteniendo, as�� dos raices:

x1 = ��b

2+

r�b2

4� �c; x2 = �

�b

2�r�b2

4� �c: (IV:1:3)

Si�b2

4 � �c � 0, se utiliza la determinaci�on usual de la raiz cuadrada. En

caso contrario, una determinaci�on donde las raices cuadradas de n�umeros

negativos est�e de�nida.

Ecuaciones C�ubicas

Las ecuaciones c�ubicas o ecuaciones polinomiales de tercer grado son de la

forma

ax3 + bx

2 + cx+ d = 0; con a 6= 0; (IV:1:4)

esta ecuaci�on dividiendo por a se reduce a una ecuaci�on de la forma

x3 + �ax2 +�

bx+ �c = 0; (IV:1:5)

planteando �x = x+a=3, la ecuaci�on se convierte en una ecuaci�on de la forma

�x3 � 3p�x� 2q = 0: (IV:1:6)

Ahora bien, si se plantea �x = u+ v, se obtiene

u3 + 3u2v + 3uv2 + v

3 � 3p(u+ v)� 2q = 0;

de donde

u3 + v

3 + (u+ v)(3uv � 3p)� 2q = 0;

deduciendose, dos ecuaciones para u y v:(uv = p;

u3 + v

3 = 2q;

por consiguiente u3v3 = p

3, mostrando as�� que u3; v

3 son las raices del

polinomio de segundo grado

�2 � 2q�+ p

3; (IV:1:7)

Page 165: alisis erico

154 IV Ecuaciones No Lineales

por lo tanto:

u3 = q +

pq2 � p

3; v

3 = q �pq2 � p

3;

para obtener �nalmente la f�ormula de Cardano

�x =3

qq +

pq2 � p

3 +3

qq �

pq2 � p

3: (IV:1:8)

teniendo cuidado de veri�car uv = p.

Ecuaciones polinomiales de grado cuarto

Son ecuaciones que pueden escribirse de la forma

x4 + ax

3 + bx2 + cx+ d = 0; (IV:1:9)

planteando �x = x + a=4, esta ecuaci�on se convierte en una ecuaci�on de la

forma

�x4 � p�x2 � 2q�x� r = 0; (IV:1:10)

introduciendo z 2 C en la anterior ecuaci�on, se obtiene la siguiente ecuaci�on

equivalente

(�x2 + z)2 = (2z + p)�x2 + 2q�x+ z2 + r;

se elige z de manera que el segundo miembro de la ecuaci�on precedente sea

una cuadrado perfecto, y eso ocurrre, si y solamente si

(2z + p)(z2 + r)� q2 = 0; (IV:1:11)

de donde z es raiz de una ecuaci�on de tercer grado, que ya ha sido resuelta

anteriormente. Habiendo determinado z, se tiene:

(�x2 + z)2 = (��x+ �)2; con � =p2z + p; � =

pz2 + r;

(�x2 + ��x+ z + �)(�x2 � ��x+ z � �) = 0;

por consiguiente, las cuatro raices de la ecuaci�on est�an dadas por:

x1 =��+

p�2 � 4(z + �)

2; (IV:1:12a)

x2 =���

p�2 � 4(z + �)

2; (IV:1:12b)

x3 =��+

p�2 � 4(z � �)

2; (IV:1:12c)

x4 =���

p�2 � 4(z � �)

2: (IV:1:12d)

Page 166: alisis erico

IV.1 Ecuaciones Polinomiales 155

Ecuaciones no Resolubles por Radicales

Se ha visto que las ecuaciones polinomiales de grado igual o menor a 4 tienen

soluciones que pueden ser expresadas como una composici�on de radicales.

Las f�ormulas desarrolladas en el anterior paragrafo fuer�on estudiadas y

comprendidas hasta mediados del siglo XVI, posteriormente se atac�o al

problema de las ecuaciones de grado superior, en particular a las ecuaciones

de grado quinto. Todos los intentos iban en la direcci�on de encontrar una

f�ormula general que estuviese expresada con radicales. Pero a principios del

siglo pasado Galois mostr�o su famoso teorema que trastorno en cierta manera

el mundo matem�atico de aquella �epoca. Se enunciar�a este teorema sin dar

la demostraci�on.

Teorema IV.1.2.- Galois. No existe una f�ormula general en forma de

radicales para las ecuaciones polinomiales de grado superior o igual a 5.

Este resultado lejos de descorazonar el estudio de las ecuaciones polino-

miales constituy�o un aporte, ya que se atac�o el problema utilizando m�etodos

anal��ticos que estaban emergiendo con gran fuerza a principios y mediados

del siglo pasado. Por otro lado se abandon�o la idea de encontrar una f�ormula

general, para insistir sobre la posible ubicaci�on de los ceros de un polinomio.

Se desarrollaron m�etodos iterativos para la soluci�on de estos problemas cuyo

alcanze es mas vasto que el de las ecuaciones polinomiales.

Localizaci�on de Ceros

Como se dijo anteriormente, al no poder calcular expl��citamente las raices de

un polinomio, es importante determinar en que regi�on se encuentran estas

raices de manera de poder aplicar un m�etodo iterativo.

Sea, p(x) un polinomio a coe�cientes complejos de grado n, es decir

p(x) = a0xn + a1x

n�1 + � � �+ an;

si x es una raiz, se tiene

xn = �a1

a0

xn�1 � a2

a0

xn�2 + � � � � an

a0

:

Introduciendo la matriz de Frobenius de esta ecuaci�on, se tiene

x

0BB@xn�1

xn�2

...x

1

1CCA =

0BBBB@� a1a0

� a2a0

� � � � ana0

1

1. . .

1 0

1CCCCA| {z }

F matriz de Frobenius

0BB@xn�1

xn�2

...x

1

1CCA ;

Page 167: alisis erico

156 IV Ecuaciones No Lineales

de donde p(x) = 0, si y solamente si x es un valor propio de F . Por lo tanto

la localizaci�on de ceros de p(x) es equivalente a localizar los valores propios

de la matriz F . A continuaci�on se da un teorema cuya demostraci�on ser�a

hecha en el cap��tulo 5.

Teorema IV.1.3.- Gerschgorin. Sean A una matriz, � un valor propio de

A, entonces existe i tal que

j�� aiij �Xj 6=i

jaij j : (IV:1:13)

Aplicando este teorema a la matrix F se tiene la siguiente estimaci�on:

Corolario IV.1.4.- La raices del polinomio p(x) = a0xn + � � � + an, con

a0 6= 0 veri�can

jxj � max

1;

nXi=1

���� aia0

����!: (IV:1:14)

Uno de los resultados pr�acticos e importantes en el �algebra de valores

propios, es que la propiedad de valor propio es invariante por trasposici�on,

por consiguiente, el:

Corolario IV.1.5.- Las mismas hip�otesis del corolario precedente, dan la

estimaci�on siguiente

jxj � max0�i�n

�1 +

���� aia0

����� : (IV:1:15)

Utilizando el teorema de Rouch�e y otros, se puede encontrar mas

estimaciones sobre la localizaci�on de los ceros de un polinomio. Por ejemplo,

en los ejercicios se debe mostrar la siguiente estimaci�on

jxj � 2 max1�i�n�1

i

s���� aia0

����; n

s���� an2a0����!: (IV:1:16)

Con el siguiente ejemplo se ver�a que existen mejores estimaciones que otras,

esto depende sobre todo del tipo de polinomio que se tiene.

Ejemplo

Se consider�a la ecuaci�on

xn � 2 = 0;

la primera estimaci�on, como la segunda dan jxj � 2n, mientras que, la

tercera da jxj � 2.

Debido a la aritm�etica de los ordenadores, el tipo REAL es un conjunto

�nito, que se asemeja mucho mas a los n�umeros racionales que los reales,

Page 168: alisis erico

IV.1 Ecuaciones Polinomiales 157

por eso que se puede suponer que p(x) 2 Q[x]. Por otro lado, cuando los

polinomios tienen raices de multipliciad mayor a 1, la mayor parte de los

algoritmos no funcionan, debido a la inestabilidades que se pueden presentar,

o a las caracter��sticas propias de los m�etodos empleados.

Sea p(x) 2 Q[x], p0(x) su derivada, se de�ne el polinomio q(x) utilizandoel algoritmo de Euclides, por

q(x) = mcd(p; p0); (IV:1:17)

de donde el polinomio r(x) = p(x)=q(x) tiene las mismas raices que p(x)

pero todas simples. Por consiguiente, se ha visto un procedimiento simple

para reducir un polinomio p(x) a otro polinimio simple. En lo que sigue, se

puede suponer que los polinomios considerados tienen raices simples.

M�etodo de Newton

Uno de los m�etodos com�unmente utilizados en la determinaci�on de raices de

un polinomio, consiste en el uso del m�etodo de Newton. Aqu�� se formular�a

este m�etodo, sin estudiar la convergencia y el c�alculo de error, dejando �esto

para el siguiente paragrafo. Por lo tanto, el m�etodo est�a dado por la relaci�on

recursiva siguiente

| x0 arbitrario, proximo a una soluci�on.

| xk+1 = xk �p(xk)

p0(xk)

, donde p(x) es el polinomio a determinar

sus raices.

El problema consiste en determinar todas las raices reales de p(x) =

0, suponiendo que se ha encontrado la primera raiz, se podr��a utilizar

nuevamente el m�etodo de Newton utilizando otra valor, pero existe la

posibilidad de encontrar nuevamente la primera soluci�on. Para evitar esta

situaci�on se puede proceder b�asicamente de dos maneras. La primera, una

vez que se ha encontrado la raiz �1, se de�ne el polinomio

q(x) =p(x)

x� �1

; (IV:1:18)

aplicando Newton sobre q(x). El principal inconveniente de este procedi-

miento radica en el hecho que � puede no ser racional, motivo por el cual r(x)

ya no es exacto y la propagaci�on de errores de redondeo puede dar resultados

completamente alejados de la realidad. El segundo procedimiento consiste en

aplicar el m�etodo de Newton a q(x), pero sin calcular los coe�cientes de q(x).

Sea p(x) el polinomio a determinar sus raices, suponiendo que se conoce de

antemano �1; : : : ; �k raices de p(x), de donde

q(x) =p(x)

(x� �1) � � � (x � �k): (IV:1:19)

Page 169: alisis erico

158 IV Ecuaciones No Lineales

Introduciendo el logaritmo y derivando se obtiene:

log q(x) = log p(x)�kXi=1

log(x� �i);

q0(x)

q(x)=

p0(x)

p(x)�

kXi=1

1

(x � �i): (IV:1:20)

Aplicando el m�etodo de Newton a (IV.1.19), utilizando (IV.1.20), se obtiene

como m-sima iteraci�on.

xm+1 = xm �p(xm)

p0(xm)� p(xm)

kXi=1

1

(xm � �i)

: (IV:1:21)

Este �ultimo procedimiento se conoce como el m�etodo deMaehly. Este m�etodo

es num�ericamente estable, en efecto considerando el siguiente ejemplo dado

por Stoer.

Ejemplo

Se considera el polinomio p(x) de�nido por

p(x) =

12Yj=0

(x� 2�j) = x13 + a1x

12 + � � �+ a12:

Calculando los coe�cientes en simple precisi�on e utilizando el m�etodo de

Newton en sus dos variantes se obtiene la tabla IV.1.1.

As�� mismo, el m�etodo de Newton permite encontrar las raices comple-

jas, mas precisamente las raices no reales, de una ecuaci�on polinomial. Para

tal efecto, el punto de partida debe ser un n�umero complejo no real, pues

puede observarse que partiendo de un punto real, los valores obtenidos por el

m�etodo de Newton son reales, ya sea con la primera variante, o con la mejora

de Maschley. Puede suceder que una vez encontradas todas las raices reales

del polinomio, siendo �estas no todas las raices; si no se tiene cuidado, se

producir�a un fen�omeno de oscilaci�on con el m�etodo de Newton. Por lo tanto

hay que agregar al algoritmo que a partir de un n�umero determinado de it-

eraciones, si no se ha alcanzado la convergencia hacia una raiz, se detenga el

proceso, quedando por lo tanto dos alternativas: la primera veri�car si todas

las raices reales han sido calculadas, para luego comenzar con un n�umero

complejo no real; la segunda alternativa consiste en cambiar simplemente de

punto inicial.

Page 170: alisis erico

IV.1 Ecuaciones Polinomiales 159

Tabla IV.1.1. Error en el c�alculo de raices para un caso extremo.

METODO DIVISION METODO MAEHLY

SOL EXAC SOL NUM ERROR SOL NUM ERROR

1=1 1:00 0:0 1:000 0:0

1=2 0:500 0:950 � 10�4 0:5000 0:894 � 10�7

1=22 �0:15 0:400 0:2500 0:894 � 10�7

1=23 �0:426 0:551 0:1250 0:820 � 10�7

1=24 0:560 0:498 0:6250 � 10�1 0:138 � 10�6

1=25 �0:132 0:163 0:671 � 10�7 0:140 � 10�7

1=26 0:266 0:250 0:1562 � 10�1 0:419 � 10�8

1=27 0:157 0:149 0:7813 � 10�2 0:168 � 10�7

1=28 �0:237 �10�1 0:028 0:1953 � 10�2 0:168 � 10�7

1=29 �0:740 0:742 0:3906 � 10�2 0:291 � 10�9

1=210 0:865 0:864 0:9766 � 10�3 0:291 � 10�10

1=211 0:140 0:140 0:4883 � 10�3 :146 � 10�10

1=212 �0:179 �10�1 0:181 � 10�1 0:2441 � 10�3 0:728 � 10�10

Sucesiones de Sturm

La utilizaci�on de sucesiones de Sturm en la resoluci�on de ecuaciones polino-

miales permite determinar las raices reales y no as�� las raices no reales. En

la mayor parte de los problemas, es solo importante conocer los ceros reales,

motivo por el cual los procedimientos que utilizan sucesiones de Sturm son

muy comunes en la resoluci�on de ecuaciones polinomiales

De�nici�on IV.1.6.- Una sucesi�on ff0; f1; : : : ; fng de funciones de�nidas enR con valores reales, continuamente derivables es una sucesi�on de Sturm, si:

a) f0

0(x�)f1(x

�) < 0 si f0(x�) = 0, x� 2 R.

b) fj�1(x�)fj+1(x

�) < 0 si fj(x�) = 0, 1 � j � n� 1.

c) fn(x) no cambia de signo sobre R y es positiva

Teorema IV.1.7.- Sea ff0; f1; : : : ; fng una sucesi�on de Sturm, w(x) se

denota al n�umero de cambios de signo de ff0(x); f1(x); : : : ; fn(x)g.Entonces la funci�on f0(x) tiene exactamente w(b) � w(a) ceros en el

intervalo [a; b].

Page 171: alisis erico

160 IV Ecuaciones No Lineales

Demostraci�on.- w(x) puede cambiar de valor solamente si uno de los

fj(x) = 0. Por consiguiente, sea x� un tal n�umero y sup�ongase que

1 � j � n � 1. Estudiando en un vecindario de x�, la funci�on w estar�a

determinada por los valores de las siguientes tablas:

x� � � x

�x� + �

fj�1 + + +

fj � 0 �fj+1 � � �

x� � � x

�x� + �

fj�1 � � �fj � 0 �fj+1 + + +

x� � � x

�x� + �

fn�1 � � �fn + 0 +

de donde w(x� + �) = w(x� � �) cuando fj(x�) = 0 para 1 � j � n.

Ahora bien, si f0(x�) = 0, estudiando alrededor de un vecindario de x�

se tiene las tablas:

x� � � x

�x� + �

f0 + 0 �f1 � � �

x� � � x

�x� + �

f0 � 0 +

f1 + + +

;

de donde w(x� + �) = w(x� � �) + 1. �

Volviendo al problema original de encontrar los ceros reales de un

polinomio p(x) con raices simples, a coe�cientes reales (racionales), el

objetivo es construir una sucesi�on de Sturm de tal manera que f0 = p.

Se de�ne la siguiente sucesi�on de polinomios de manera recursiva utilizando

la divisi�on con resto, por8>>>>>>>>>><>>>>>>>>>>:

f0(x) := p(x);

f1(x) := �p0(x);f0(x) = g1(x)f1(x)�

21f2(x);

f1(x) = g2(x)f2(x)� 22f3(x);

...

fn�1(x) = gn(x)fn(x):

(IV:1:22)

La de�nici�on de la sucesi�on (IV.1.22) es el algoritmo de Euclides para

determinar el mcd(p(x); p0(x)). Se tiene el siguiente teorema.

Page 172: alisis erico

IV.1 Ecuaciones Polinomiales 161

Teorema IV.1.8.- Sup�ongase que p(x) solamente tiene raices simples,

entonces la sucesi�on de�nida por (IV.1.22) es una sucesi�on de Sturm.

Demostraci�on.- Puesto que p(x) tiene raices simples, si p0(x�) = 0, se tiene

p(x�) 6= 0, de donde la condici�on a) es satisfecha,

a) f0

0(x�)f1(x

�) = �(f 00(x�))2 < 0:.

b) Se cumple esta condici�on por construcci�on de la sucesi�on.

c) fn = mcd(p; p0) = C.

Algoritmo

Con el algoritmo de bisecci�on se separa las raices realles de p(x), es decir

se divide en la mitad un intervalo original [a; b] y se continua hasta tener

todas las raices localizadas en subintervalos [ai; bi]. Se puede continuar con

el algoritmo de bisecci�on hasta lograr la precisi�on deseada, o si no se mejora

el resultado utilizando el m�etodo de Newton.

Ejercicios

1.- El polinomio x4 � 8x3 + 24x2 � 32x + a0; a0 = 16 posee una raiz

de multiplicidad 4 en el punto x = 2. >C�omo cambian las raices del

polinomio si se remplaza a0 por �a0 = a0(1 + �) con j�j � eps? Calcular

las raices de este polinomio, >es un problema bien condicionado?

2.- Sea p(x) un polinomio de grado n a coe�cientes reales. Sup�ongase que

todas las raices �1 � �2 � � � � � �n sean reales.

a) Mostrar que el m�etodo de Newton converge hacia �1, si x0 > �1.

Indicaci�on.- Para x > �1 los valores de p(x); p0(x); p00(x) tienen

el mismo signo que limx!1

p(x). Mostrar que fxkg es una sucesi�on

mon�otona.

b) Si x0 es mucho mas grande que �1, entonces el m�etodo de Newton

converge muy lentamente. (xk+1 � xk(1� 1=h))

3.- Consid�erese el polinomio

f(x) = x6 � 3x5 + 6x3 � 3x2 � 3x+ 2:

Sin calcular las raices de este polinomio, determinar el n�umero de raices

distintas de f(x).

4.- Encontrar un algoritmo que, para un polinomio arbitrario f 2 Q[x],permita calcular la factorizaci�on

f(x) = f1(x) ��(f2(x)

�2 � �(f3(x)�3 � � � �(fk(x)�k;

Page 173: alisis erico

162 IV Ecuaciones No Lineales

donde f1; : : : ; fk son primos entre si y donde cada polinomio fj(x) solo

tiene raices simples.

5.- Para un polinomio

f(x) = a0xn + a1x

n�1 + � � � an�1x+ an; a0 6= 0;

con coe�cientes en C , mostrar que todas las raices � satisfacen la

estimaci�on

j�j � 2max

(����a1a0

���� ;s����a1

a0

����; : : : ; n�1

s����an�1a0

����; n

s���� an2a0����): (IV:1:23)

Encontrar, para cada n, un polinomio tal que se tenga igualdad en

(IV.1.23)

6.- Consid�erese el polinomio

f(x) = x5 � 5x4 + 3x3 + 3x2 + 2x+ 8:

a) Determinar el n�umero de raices reales.

b) >Cuantas raices son complejas?

c)>Cuantas raices son reales y positivas?

Indicaci�on.- Utilizar una sucesi�on de Sturm.

7.- Sea f (p + 1) veces continuamente diferenciable en un vecindario de

� 2 R y sea � una raiz de multiplicidad p. Mostrar que la sucesi�on

fxkg, de�nida por

xk+1 = xk � p

f(xk)

f0(xk)

;

converge hacia �, si x0 es su�cientemente proximo de �, y que se tiene

xk+1 � �

(xk � �)2�! f

(p+1)(�)

p(p+ 1)f (p+2)(�):

8.- El m�etodo de Newton, aplicado a z3 � 1 = 0, da la iteraci�on

zk+1 = �(zk); con �(z) = z � z3 � 1

3z2=

2z3 + 1

3z2:

Den�otese por Aj =�z0 2 C ; zk ! e

2i�j=3, j = 0; 1; 2; los canales de

atracci�on. Mostrar:

a)A0 \ R = R � f�0; �1; : : :g donde �0 = 0 y �k�1 = �(�k),

b)Aj+1 = e2�i=3

Aj ,

c)Calcular ��1(0) y ��2(0) con la f�ormula de Cardano. Esto muestra

que el sector fz 2 C j jarg(z)j < �=3g contiene puntos que no convergenhacia 1.

d) Sup�ongase que �k(�z) = 0 para un k 2 N. Mostrar que U \ Aj 6= ;(j = 0; 1; 2) para cada vecindario U de �z.

Page 174: alisis erico

IV.2 M�etodos Iterativos

En la secci�on precedente, se ha visto que la mayor parte de las ecuaciones a

resolver no pueden ser resueltas de manera expl��cita, es decir mediante una

f�ormula m�agica. Es por esta raz�on, que el estudio de los m�etodos iterativos es

una necesidad imperiosa para poder encontrar las soluciones de una ecuaci�on.

Para tal efecto es tambi�en importante conocer el tipo de funciones con las

que se est�a trabajando. En lo que sigue, se estudiar�a varios aspectos que son

fundamentales para la comprensi�on del tema.

Posici�on del Problema

Uno de los problemas m�as comunes, se trata del siguiente. Sup�ongase,

que se tiene la funci�on

f : I �! R;

donde I � R intervalo. El problema, se trata de obtener con una aproxi-

maci�on arbitraria las raices de la ecuaci�on

f(x) = 0: (IV:2:1)

Est�a claro, que ser��a rid��culo esperar obtener, en general, f�ormulas de

resoluci�on de (IV.2.1), del tipo de f�ormulas cl�asicas resolviendo las ecuaciones

de segundo grado. Se ha visto que, es imposible en el caso en que f es un

polinomio de grado � 5. Incluso para el problema m�as razonable planteado

aqu�� , no existe un m�etodo general conduciendo al resultado buscado, los

procedimientos te�oricos de aproximaci�on pueden conducir, sin hip�otesis

adecuadas para la funci�on f a c�alculos num�ericos inextricables, incluso para

los ordenadores m�as potentes que existen en la actualidad.

Por otro lado, incluso si el intervalo I es acotado, puede suceder que

la ecuaci�on (IV.2.1) tenga una in�nidad de raices, por ejemplo, cuando f es

identicamente nula en un subintervalo. El ejemplo

f(x) = x3 sin

1

x

; (IV:2:2)

muestra que puede existir una in�nidad de raices, aun cuando f no sea

identicamente nula en un subintervalo.

Por consiguiente, un primer paso consiste en descomponer el intervalo

I , por un n�umero �nito o in�nito de puntos de subdivisi�on, en subintervalos

en cada uno de los cuales se sepa que, la ecuaci�on no tiene raiz, o la ecuaci�on

tenga una y una sola soluci�on. Se estar�a seguro, que es as�� cuando la funci�on

Page 175: alisis erico

164 IV Ecuaciones No Lineales

es mon�otona para el primer caso si f(x) no cambia de signo y en el segundo

caso si f(x) cambia de signo. Para asegurar la existencia en el segundo caso,

se exige como hip�otesis suplementaria la continuidad en tal subintervalo.

Ejemplo

La funci�on

f(x) =b1

x� a1

+b2

x� a2

+ � � �+ bn

x� an

; (IV:2:3)

donde a1 < a2 < � � � < an y los bj son todos diferentes a 0 y del

mismo signo, est�a de�nida en cada uno de los subintervalos abiertos

]1; a1[; ]a1; a2[; : : : ; ]an�1; an[; ]an;+1[; en cada uno de estos subinter-

valos es mon�otona, ya que su derivada tiene el signo opuesto de los bj .

Por otro lado cuando x tiende por derecha a uno de los aj , f(x) tiende

en valor absoluto a 1 y cuando x tiende por izquierda a uno de los aj ,

f(x) tiende en valor absoluto a 1, pero con signo opuesto que el l��mite

por derecha. Por lo tanto, se concluye que la funci�on f tiene exactamente

una raiz en cada subintervalo.

Para obtener una descomposici�on de I en intervalos del tipo considerado

anteriormente, es decir para separar las raices, se necesitar��a te�oricamente

estudiar el sentido de variaci�on de la funci�on f , agregando otra hip�otesis

suplementaria respecto a f , como que f sea continuamente derivable, esto

signi�car��a estudiar el signo de f 0(x), por consiguiente se estar��a obligado

a encontrar las raices de la ecuaci�on f0(x) = 0, que salvo algunos casos, su

resoluci�on presenta las mismas di�cultades que la ecuaci�on original.

Por lo expuesto m�as arriba, se est�a en la capacidad de enunciar el

siguiente teorema de existencia y unicidad de la soluci�on de una ecuaci�on

con su algoritmo de resoluci�on incluido.

Teorema IV.2.1.- Sea f : I �! R continua y mon�otona, entonces

la ecuaci�on f(x) = 0 tiene

una y una sola soluci�on() existen a < b 2 I , tales

que f(a)f(b) < 0.

Adem�as si existiese la soluci�on, �esta puede ser aproximada de manera

arbitraria con el algoritmo de la bisecci�on.

La primera observaci�on que se puede hacer al algoritmo de la bisecci�on

consiste en que este algoritmo construye subintervalos encajonados re-

duciendo la longitud de cada subintervalo de la mitad en cada iteraci�on.

Pero una de las interrogantes que uno se plantea, es cuando detener el al-

goritmo. En general, esto sucede cuando el valor absoluto de la funci�on f

evaluada en las extremidades es menor a un valor de tolerancia pre�jado

con anterioridad. Ahora bien, si solamente se exige que f sea mon�onota y

continua puede pasar situaciones, como las del siguiente ejemplo.

Page 176: alisis erico

IV.2 M�etodos Iterativos 165

Ejemplo

Sea f : (�1; 1) �! R de�nida por

f(x) = x100

g(x); (IV:2:4)

donde g es una funci�on continua que no se anula en (�1; 1). Es evidenteque, x = 0 es una raiz de la ecuaci�on f(x) = 0. Aplicando el algoritmo

de la bisecci�on con una tolerancia de 10�6 y tomando como puntos de

partida a = �0; 9 y b = 0:9 puede suceder que jf(x)j < TOL, dejando

una gran elecci�on para escoger la raiz de f(x).

Por lo tanto, si no se tiene la hip�otesis que f(x) sea derivable y que

f0(x) 6= 0 para x raiz de la ecuaci�on f(x) = 0, se debe tener mucho cuidado

en la determinaci�on de la soluci�on num�erica del problema, para no cometer

grandes errores.

M�etodo de la Falsa Posici�on

En este paragrafo, se supondr�a que

f : [a; b] �! Res dos veces continuamente derivable, que f 0(x) no se anula en el intervalo

]a; b[ y adem�as f(a)f(b) < 0.

La idea para obtener una valor aproximado de la raiz �0 de la ecuaci�on

f(x) = 0 en el intervalo I =]a; b[, consiste en remplazar f por un polinomio

que toma los valores de f en determinados puntos de I . Como se ha visto en

la primera secci�on de este cap��tulo, las ecuaciones polinomiales m�as simples

de resolver son las ecuaciones de primer grado y las ecuaciones cuadr�aticas.

Por razones de simplicidad en la formulaci�on, el m�etodo de la falsa posici�on

ser�a estudiado tomando como polinomio, uno de primer grado. Sea L(x) el

polinomio de interpolaci�on de primer grado, tal que:

L(a) = f(a); L(b) = f(b); (IV:2:5)

ver en la �gura IV.2.1.

a by=f(x)

y=L(x)

ξ

ξ

0

Figura IV.2.1 M�etodo de la Falsa Posici�on.

Page 177: alisis erico

166 IV Ecuaciones No Lineales

Las hip�otesis implican que L(x) se anula en un punto � 2 I , que se

toma como valor aproximado de �0. Por consiguiente se trata de mayorar el

error cometido j� � �0j; para tal efecto se recordar�a el teorema III.1.13 que

da el siguiente resultado

f(x)� L(x) =1

2f00(�)(x � x0)(x � x1) (IV:2:6)

con � 2 I , deduciendo la siguiente proposici�on.

Proposici�on IV.2.2.- Si f 0 no se anula en el intervalo I , y si f(�0) = 0,

L(�) = 0 para �; �0 2 I , entonces se tiene

� � �0 =1

2

f00(�)

f0(� 0)

(� � a)(� � b); (IV:2:7)

donde � y � 0 son n�umeros que pertenecen a I .

Demostraci�on.- Por (IV.2.6), se tiene

f(�) =1

2f00(�)(� � a)(� � b);

por el teorema del valor medio se tiene

f(�) = f0(� 0)(� � �0)

con � 0 que pertenece al intervalo cuyas extremidades son �0 y �. Combinando

ambos resultados se obtiene el resultado de la proposici�on. �

Corolario IV.2.3.- Mismas hip�otesis de la proposici�on precedente, y

adem�as jf 0(x)j � m > 0, y jf 00(x)j �M para todo x 2 I , entonces

j� � �0j �M

8m(b� a)2: (IV:2:8)

Si el error j� � �0j evaluado por la estimaci�on (IV.2.8) no es lo su�-

cientemente peque~no, se puede repetir el procedimiento: se calcula f(�) y

dependiendo de su signo, la raiz �0 se encuentra en el intervalo [a; �] o [�; b],

al cual se aplica el mismo m�etodo obteniendo as�� un segundo valor aproxi-

mado �0. Te�oricamente, se puede aplicar inde�nidamente este procedimiento,

y se muestra facilmente que la sucesi�on de los n�umeros obtenidos converge

hacia �, ver ejercicios.

Como se dijo al abordar el m�etodo de la falsa posici�on, se puede

aproximar la raiz de la ecuaci�on f(x) = 0 con un polinomio de segundo grado.

Con la misma notaci�on que antes �0 es la raiz de la ecuaci�on, suponiendo

Page 178: alisis erico

IV.2 M�etodos Iterativos 167

ademas que f(x) es tres veces continuamente diferenciable sobre el intervalo

I . Se denota por c el punto medio del intervalo I . Puesto que f 0(x) no cambia

de signo en este intervalo, f(c) es positivo o negativo. Sea L(x) el polinomio

de interpolaci�on de grado 2, tal que

L(a) = f(a) L(c) = f(c) L(b) = f(b); (IV:2:9)

utilizando la f�ormula de Newton del cap��tulo III, se tiene

L(x) = f(a) +f(c)� f(a)

c� a

(x � a)

+2f(b)� 2f(c) + f(a)

(b� a)2(x� a)(x� c); IV:2:10)

resolviendo esta ecuaci�on, sea � 2 I la raiz del polinomio de segundo grado, lacual puede ser determinada utilizando el m�etodo de resoluci�on de ecuaciones

de segundo grado, teniendo el cuidado de escoger la raiz que se encuentra en

[a; b]. Suponiendo que sobre el intervalo [a; b], f es tres veces continuamente

derivable, el teorema III.1.13 da la siguiente estimaci�on

f(x)� L(x) =1

6f000(�)(x � a)(x� c)(x � b); (IV:2:11)

donde � 2 [a; b]. deduciendo la siguiente proposici�on.

Proposici�on IV.2.4.- Si f 0 no se anula en el intervalo I , y si f(�0) = 0,

L(�) = 0 para �; �0 2 [a; b], entonces se tiene

� � �0 =1

6

f000(�)

f0(� 0)

(� � a)(� � c)(� � b) (IV:2:12)

donde � y � 0 son n�umeros que pertenecen a [a; b].

Demostraci�on.- Por (IV.2.11), se tiene

f(�) =1

6f00(�)(� � a)(� � c)(� � b);

por el teorema del valor medio, se tiene

f(�) = f0(� 0)(� � �0);

con � 0 que pertenece al intervalo cuyas extremidades son �0 y �. Combinando

ambos resultados se obtiene el resultado de la proposici�on. �

Page 179: alisis erico

168 IV Ecuaciones No Lineales

Corolario IV.2.5.- Mismas hip�otesis de la proposici�on precedente, y

adem�as jf 0(x)j � m > 0, y jf 000(x)j �M para todo x 2 [a; b], entonces

j� � �0j �M

24m(b� a)3: (IV:2:13)

Si el error j� � �0j evaluado por la estimaci�on (IV.2.13) no es lo

su�cientemente peque~no, se puede repetir el procedimiento: se calcula f(�)

y dependiendo de su signo, la raiz �0 se encuentra en el intervalo [a; �] o

[�; c], etc, al cual se aplica el mismo m�etodo obteniendo as�� un segundo

valor aproximado �0. Te�oricamente, se puede aplicar inde�nidamente este

procedimiento, y se muestra facilmente que la sucesi�on de los n�umeros

obtenidos converge hacia �0, ver ejercicios.

El m�etodo de la Falsa Posici�on es un claro ejemplo de un m�etodo

iterativo, pues utiliza soluciones anteriormente obtenidas para calcular una

nueva soluci�on. En general, se dir�a que un m�etodo iterativo es de orden k o

de k pasos, si la iteraci�on puede expresarse de la forma:

xn+1 = �(xn; xn�1; : : : ; xn�k+1): (IV:2:14)

Por lo tanto, los m�etodos descritos anteriormente son m�etodos iterativos de

dos pasos, pues se sirven de 2 valores para calcular el valor de la iteraci�on

siguiente.

Sistemas de Ecuaciones

Los problemas que han sido estudiados m�as arriba estaban relacionados a

funciones de una sola variable con valores reales. Ahora bien, existe una gran

variedad de problemas donde se deben resolver sistemas de ecuaciones, que

en general no son lineales. La posici�on del problema es por consiguiente:

Dada f : U � Rn �! Rn , encontrar � 2 U tal que

f(�) = 0: (IV:2:15)

Reiterando lo que se dijo al inicio de esta secci�on no se puede esperar de

obtener una f�ormula milagrosa para determinar �, lo que se debe buscar

es por consiguiente una aproximaci�on de esta soluci�on con la precisi�on que

se desee. La continuidad no es una condici�on su�ciente para determinar la

existencia de ceros, hip�otesis primordial en el caso de una variable; en el caso

de varias variables, en la mayor parte de los casos no se puede demostrar la

existencia de ceros, contentandose con la unicidad de �estos a nivel local. Un

teorema muy importante, es el de la inversi�on local que ser�a enunciado sin

demostraci�on, para el lector interesado, puede encontrarla en cualquier libro

de An�alisis, por ejemplo en Rudin.

Page 180: alisis erico

IV.2 M�etodos Iterativos 169

Teorema IV.2.6.- Sean D � Rn abierto, f : D �! Rn continuamente

diferenciable. Si:

a) f(x�) = 0;

b) f0

x� es inversible,

entonces, existe dos vecindarios, U de x� y V de 0, tales que para todo v 2 Vexiste un �unico x 2 U , tal que f(x) = v y la aplicaci�on

g :V �! Uv �! x(v)

es continuamente diferenciable y adem�as g0v = (f 0x)�1

.

Consecuencias de este teorema son: la unicidad local de la soluci�on; si

x es soluci�on n�umerica obtenida mediante un metodo cualquiera se tiene la

siguiente estimaci�on del error

x� x� = (f 0x�)

�1f(x) +O(kf(x)k2);

de donde si (f 0x�)�1

es casi singular, x � x� puede ser muy grande, aun si

f(x) es peque~no.

Un m�etodo Iterativo simple

Existe otra clase de ecuaciones que pueden ser escritas de la forma

f(x) = x; (IV:2:17)

donde f es una funci�on de varias variables con las condiciones dadas al

inicio de este paragrafo. Cabe remarcar que la ecuaci�on (IV.2.15) puede ser

expresada como x = g(x) con g(x) = x�Af(x), dondeA es generalmente una

matriz. La existencia y unicidad de las ecuaciones de la forma (IV.2.17) son

resueltas utilizando el teorema del punto �jo en espacios m�etricos. Para saber

m�as sobre espacios m�etricos ver Schawartz. A continuaci�on, se enunciar�a el

teorema del punto �jo.

Teorema IV.2.7.- Sean X un espacio m�etrico completo, f : X �! X una

aplicaci�on veri�cando

d(f(x); f(y)) � Cd(x; y); C < 1;

donde d denota la distancia en X . Entonces la ecuaci�on f(x) = x admite

una y una sola soluci�on.

Demostraci�on.- Sea x0 2 X un punto arbitrario, se de�ne la sucesi�on fxkgde manera recursiva por

xk+1 = f(xk);

Page 181: alisis erico

170 IV Ecuaciones No Lineales

esta sucesi�on es de Cauchy, en efecto, si n � m, se tiene:

d(xn; xm) � d(xn; xn�1) + � � �+ d(xm+1; xxm);

d(xm+1; xm) � Cmd(x1; x0);

por lo tanto

d(xn; xm) �Cm

1� C

;

que tiende a cero, cuando n;m tienden a 1. Sea x� = lim

n!1xn, se deduce

que f(x�) = x�. Con esto se ha demostrado la existencia de la soluci�on. Para

la unicidad se considera x; y son soluciones del problema, por lo tanto

d(x; y) = d(f(x); f(y)) � Cd(x; y);

y la �unica posibilidad que suceda esto es que x = y. �

Se puede dar condiciones menos fuertes sobre el espacio X o sobre

f , por ejemplo que f sea localmente una contracci�on, con solamente esta

hip�otesis se mantiene la unicidad, pero est�a vez localmente, la existencia no

est�a asegurada.

Por lo expuesto, se puede formular el m�etodo iterativo dado en la

demostraci�on del teorema precedente para el siguiente problema:

Sea � : Rn �! Rn continua, determinar x 2 Rn tal que �(x) = x. El m�etodo

iterativo est�a dado por: (x0; arbitrario;

xn = �(xn�1):(IV:2:18)

Teorema IV.2.8.- Si fxng converge hacia x�, y � es continua en x

�,

entonces x� es soluci�on de x = �(x)

Demostraci�on.- Se deja al lector. �

El anterior teorema se~nala claramente que si la funci�on � es continua,

y la sucesi�on de�nida por (IV.2.18) es convergente, entonces el l��mite de esta

sucesi�on es la soluci�on del problema �(x) = x. Por consiguiente, la pregunta

natural que uno puede plantearse es cuando existen condiciones su�cientes

para tener convergencia. De�niendo el error en como

en = xn � x�;

donde x� es la soluci�on exacta, y xn la n-sima iteraci�on, se obtiene:

en+1 = xn+1 � x� = �(xn)� �(x�)

= �0(x�)(xn � x�) +O

�kxn � x

�k2�;

en+1 � �0(x�)en: (IV:2:19)

Page 182: alisis erico

IV.2 M�etodos Iterativos 171

Si ken+1k � q kenk para q < 1, entonces en ! 0 cuando n ! 1.

Por consiguiente la sucesi�on es convergente, si existe una norma tal que

k�0(x�)k = q < 1.

Teorema IV.2.9.- a) Sea �(x) = Ax+ b, con A matriz, entonces el m�etodo

iterativo (IV.2.18) converge para todo x, si y solamente si �(A) < 1, donde

�(A) = max�j�j j� es un valor propio de A

:

b) Si �(x) es no lineal y dos veces continuamente diferenciable, entonces se

tiene convergencia si:

�(�0(x�)) < 1;

x0 � x� es su�cientemente peque~no:

Demostraci�on.- Se mostrar�a solamente el inciso a), dejando al lector el

inciso b) con las observaciones hechas antes de enunciar el teorema.

) Se supone que el m�etodo converge 8x0 2 Rn . Sea � un valor propio de A,

y e0 un vector propio respecto a este valor propio, entonces

en = Ane0;

�ne0 �! 0;

posible solamente si j�j < 1.

( Se supone que �(A) < 1, sea e0 2 Rn arbitrario, de donde en = Ane0.

Por el teorema de Jordan, existe una matriz T no singular tal que

T�1AT =

0BBBBBBBBBBBB@

�1

. . .

. . . 1

�1

0

0�2

. . .

. . . 1

�2

. . .

1CCCCCCCCCCCCA:

Sea D = diag(1; �; �2; : : : ; �n�1), por consiguiente

D�1T�1ATD =

0BBBBBBBBBBBB@

�1

. . .

. . . �

�1

0

0�2

. . .

. . . �

�2

. . .

1CCCCCCCCCCCCA= J;

Page 183: alisis erico

172 IV Ecuaciones No Lineales

si � es su�cientemente peque~no, se tiene kJk1

< 1, de donde el m�etodo es

convergente. �

Para el problema f(x) = 0, se vio antes que se puede convertir en

problema de punto �jo, planteando

�(x) = x� Af(x); (IV:2:20)

donde A es una matriz constante A, inversible. Ahora bien, para cumplir

las condiciones del teorema precedente �(�0(x�)) < 1, motivo por el cual es

su�ciente A � (f 0(x�))�1 para que �0(x�) � 0.

Ejemplo

Consid�erese la ecuaci�on siguiente

x2 + y

2 � 1 = 0

sinx+ sin y =1

2

;

se desea determinar las soluciones de esta ecuaci�on. Convirtiendo en un

problema de punto �jo se tiene

�(x; y) =

�x

y

��A

�x2 + y

2 � 1

sinx+ sin y � 1

2

�donde la A es una matriz de 2� 2. La derivada de f en el punto (x; y),

est�a dada por

f0

(x;y) =

�2x 2y

cosx cos y

�;

la inversa de la derivada de f , esta dada por

(f 0(x;y))�1 =

1

2(x cos y � y cosx)

�cos y �2y� cosx 2x

�:

Recorriendo a travez de la circunferencia de radio 1 dada por la primera

ecuaci�on se escogen los valores de x, y para los cuales remplazando en la

segunda ecuaci�on se tiene valores muy cerca a 1=2. Una vez determinados

estos valores se consigue una aproximaci�on de la matriz A para poder

aplicar el m�etodo iterativo. Las soluciones obtenidas con una precisi�on

del orden de 10�10 son:

x = 0:3176821764792814;

x = �0:948197255188055;y = �0; 948197255188055;y = 0; 3176821764792814:

Page 184: alisis erico

IV.2 M�etodos Iterativos 173

Ejercicios

1.- Sea A una matriz que es diagonal dominante, es decir

jaiij >Xj 6=i

jaij j ; i = 1; : : : ; n;

entonces el m�etodo de Jacobi, formulado en el cap��tulo II, para resolver

Ax = b es convergente.

2.- Consid�erese la ecuaci�on integral

y(x) = f(x) +

Z b

a

K(x; s; y(s))ds; (�)

donde a; b; f;K est�an dados, se busca y(x). Mostrar, si el nucleo K es

degenerado, es decir

K(x; s; y) =

nXi=1

ai(x)bi(s; y);

entonces la soluci�on de (�) est�a dada por

y(x) = f(x) +

nXi=1

ciai(x)

donde las constantes c1; : : : ; cn satisfacen

ci =

Z b

a

bi(s; f(s) +

nXj=1

cjaj(s))ds i = 1; : : : ; n:

3.- Calcular la soluci�on de

y(x) = 1 + �

Z �

0

(2 sinx sin s+ sin 2x sin 2s)ey(s)ds; � =1

10:

Resolver el sistema no lineal para c1; c2 con el m�etodo iterativo.

4.- Sean J = [a; b] un intervalo de R en el cual la funci�on dos veces

continuamente diferenciable f veri�ca las relaciones jf 0(x)j � m,

jf 00(x)j � M , f(a)f(b) < 0. Mostrar que siM

4m(b � a) = q < 1 se

puede, por n aplicaciones sucesivas del m�etodo de la falsa posici�on,

encontrar un intervalo de extremidades an, bn conteniendo la �unica

raiz de f(x) = 0 en [a; b], con

jbn � anj �4m

M

q2n:

Page 185: alisis erico

IV.3 M�etodo de Newton

En lo que va este cap��tulo, se ha visto dos enfoques para resolver sistemas de

ecuaciones, el primero mediante una f�ormula que de el resultado de manera

expl��cita en funci�on de los datos del problema. El segundo enfoque consiste

en utilizar m�etodos iterativos que permitan aproximar a la soluci�on de una

manera arbitraria. En la secci�on precedente se vio en los diferentes teoremas

de convergencia que la velocidad de convergencia es lineal, lo que puede

constituir una desventaja, desde el momento en que se requiera resolver

grandes y muchos sistemas de ecuaciones. Lo deseable ser��a cambiar el orden

de convergencia, por ejemplo a una reducci�on cuadr�atica del error.

Recordando el m�etodo de la Falsa Pendiente, en lugar de tomar una

secante para determinar una aproximaci�on del cero de la funci�on estudiada,

se podr��a tomar la tangente en un punto de la curva inducida por la funci�on.

El m�etodo iterativo formulado en la secci�on precedente estaba basado en el

teorema del punto �jo y el problema a resolver era de la forma �(x) = x,

para el caso de las ecuaciones de la forma f(x) = 0, era su�ciente considerar

la funci�on �(x) = x � Af(x), donde A es una matriz constante, ahora

bien suponiendo que f0(x) es inversible en un vecindario de una de las

soluciones de la ecuaci�on, en lugar de tomar A constante, se puede plantear

A = (f 0(x))�1.

Las motivaciones est�an dadas para formular un nuevo m�etodo, cuya

velocidad de convergencia sea superior a los m�etodos anteriormente formu-

lados. Para tal efecto, consider�ese la funci�on f : U � Rn �! Rn , U un

abierto de Rn , se supone adem�as que f es continuamente derivable, y la

derivada en todo punto es inversible. Por consiguiente, se tiene el problema

f(x) = 0; (IV:3:1)

cuyas soluciones, si �estas existen son localmente �unicas, por el teorema de

las funciones inversas, dado en la secci�on precedente. Sup�ongase que este

problema tiene al menos una soluci�on, denotandola por x�. Sea x 2 U

bastante pr�oximo de x�, aplicando la de�nici�on de la derivada en el punto x

se obtiene

f(x�) = f(x) + f0(x)(x� � x) +O(kx� � xk2);

de donde despreciando el t�ermino que contieneO se obtiene la ecuaci�on lineal

dada por

f0(x)(x� � x) = �f(x);

que por hip�otesis tiene soluci�on y es �unica. De donde, el m�etodo de Newton

tiene la formulaci�on siguiente, sea x0 un punto bastante pr�oximo de la

Page 186: alisis erico

IV.3 M�etodo de Newton 175

soluci�on buscada x�, xm se de�ne recursivamente, por las ecuaciones

f0(xm�1)(xm � xm�1) = �f(xm�1): (IV:3:2)

Ejemplos

1.- Consid�erese la ecuaci�on de una sola variable dada por

f(x) = 2x� tanx;

para aplicar el m�etodo de Newton la derivada est�a dada por

f0(x) = 2� 1

cos2 x;

partiendo del punto inicial x0 = 1; 2 se obtiene los siguientes valores

mediante el m�etodo de Newton.

Tabla IV.3.1. Valores obtenidos por el m�etodo de Newton.

k xk f(xk) e2k=ek�1

0 1; 2 �0:1721521 1:16934 �1:69993� 10�2

2 1:16561 �0:213431� 10�3 �3:976643 1:16556 �0:347355� 10�07 �3:446104 1:16556 �:133227� 10�14 �3:38337

2.- Consid�erese el sistema de ecuaciones dado por(x2 + y

2 � 4 = 0

xy � 4 = 0:

Las soluciones de este sistema de ecuaciones est�an dadas por la inter-

secci�on de una circunferencia de radio 2 y centro en el origen y una

hip�erbola inclinada. Realizando un gr�a�co se puede observar que una

de las raices est�a pr�oxima al punto (0:5; 2) que ser�a tomado como punto

inicial. La matriz derivada es igual a

f0(x; y) =

�2x 2y

y x

�;

utilizando el m�etodo de eliminaci�on de Gauss para calcular los valores

de (xk; yk) se obtiene la siguiente tabla con las primeras 23 iteraciones

del m�etodo de Newton.

Page 187: alisis erico

176 IV Ecuaciones No Lineales

Tabla IV.3.2. Valores obtenidos por el m�etodo de Newton.

k xk yk kf(xk)k2 kekk22 = kek�1k20 0:5 2: 0:25

1 :516666 1:96666 0:134722

2 0:526332 1:94921 0:764322� 10�1 14:3688

3 0:532042 1:93948 0:446506� 10�1 28:3211

22 0:540690 1:92553 0:345530� 10�5 446885:

23 0:540690 1:92553 0:210661� 10�5 732995:

En las tablas IV.3.1 y IV.3.2, se observa que el m�etodo de Newton

converge cuadr�aticamente. Es importante poder con�rmar te�oricamente este

resultado. Analizando el caso de una variable, se supone que f : I �! R es

dos veces continuamente derivable, x� una soluci�on del problema f(x) = 0,

adem�as f 0(x�) 6= 0. Sea xk el valor de la k-esima iteraci�on obtenida del

m�etodo de Newton. El desarrollo de Taylor en xk de la funci�on f y el m�etodo

de Newton para obtener xk+1 est�an dados por:

0 = f(xk) + f0(xk)(x

� � xk) +1

2f00(xk) (x

� � xk)2| {z }

e2k

+O((x� � xk)3);

0 = f(xk) + f0(xk)(xk+1 � xk);

sustrayendo ambas cantidades se obtiene

0 = f0(xk) (xk+1 � x

�)| {z }e2k+1

�12f00(xk)e

2k +O((ek)3);

de donde

ek+1 =1

2

f00(xk)

f0(xk)

e2k +O((ek)3);

mostrando as�� el teorema siguiente:

Teorema IV.3.1.- Sea f : I �! R, tres veces continuamente diferenciable,

x� una soluci�on de la ecuaci�on f(x) = 0. Si f 0(x) 6= 0 en un vecindario de

x�, x0 bastante pr�oximo de x�, entonces

ek+1 =1

2

f00(xk)

f0(xk)

e2k +O((ek)3); (IV:3:3)

Page 188: alisis erico

IV.3 M�etodo de Newton 177

donde ek = x� � xk.

Para el caso de una funci�on de varias variables, la situaci�on es bastante

similar, en efecto sea

f : U � Rn �! Rn ;

donde U es un abierto de Rn , f es una funci�on tres veces continuamente

derivable, cuya derivada es inversible para todo x 2 U . La derivada de f

en el punto x 2 U es una aplicaci�on lineal, cuya matriz respecto a la base

can�onica est�a dada por

f0(x) =

0BB@@f1

@x1� � � @f1

@xn

......

@fn

@x1� � � @fn

@xn

1CCA ;

donde f1; : : : ; fn son las componentes de la funci�on f ; la segunda derivada

de f en el punto x 2 U es una aplicaci�on bilineal sim�etrica, que respecto a

la base can�onica, est�a dada por

f00(x)(h; k) =

Xi;j

@2f

@xi@xj

(x)hi; kj ;

donde h; k 2 Rn y los hi; kj son las componentes de h y k respecto a las

bases naturales. Para m�as detalle ver Cartan. El desarrollo de Taylor en x

est�a dado por

f(x+ h) = f(x) + f0(x)h+

1

2f00(x)(h; h) +O(khk3):

Teorema IV.3.2.- Sean f : U � Rn �! Rn tres veces diferenciable, con

derivada inversible y x� 2 U con f(x�) = 0. Si fxkg es la sucesi�on de�nida

por el m�etodo de Newton, entonces el error ek = xk � x� satisface

ek+1 =1

2

�f0(xk)

��1f00(xk)(ek; ek) +O(khk3): (IV:3:4)

Demostraci�on.- Similar a la del caso de una sola variable. �

C�alculo de la Derivada

Al implementar el m�etodo de Newton, se debe c�alcular la derivada de f en

cada punto. La primera forma de determinar la matriz f 0(xk) es de manera

anal��tica, construyendo as�� una subrutina para evaluar los coe�cientes de

la matriz jacobiana en cada iteraci�on. Pero lastimosamente, no siempre

Page 189: alisis erico

178 IV Ecuaciones No Lineales

es posible calcular las derivadas parciales de manera anal��tica por varias

razones: funciones muy complicadas para derivar, c�alculos muy largos,

etc. Otra manera de evaluar los coe�cientes de f0(xk) consiste en hacerlo

num�ericamente. Utilizando un esquema de primer orden para evaluar la

derivada parcial de fj respecto a xi, se tiene

@fj

@xi

(x) = limt!0

fj(x+ tei)� fj(x)

t

;

donde t 2 R, ei es el i-esimo vector de la base can�onica. Ahora bien, se

plantea g(t) = fj(x + tei) dejando �jo x, se tiene

@fj

@xi

(x) = g0(0):

De donde, el problema consiste en calcular g0(0); con un esquema de primer

orden se obtiene

g0(0) � g(t)� g(0)

t

: (IV:3:5)

Cabe recalcar, que se puede aproximar g0(0) con una mejor aproximaci�on,

para eso se puede utilizar los polinomios de interpolaci�on. Una pregunta

natural surge, >cu�al t escoger?, para obtener la mejor aproximaci�on de g0(0).

El error de aproximaci�on est�a dado por

g(t)� g(0)

t

= g0(0) +

1

2g00(0)t+O(t2);

mientras que los errores de redondeo, suponiendo que g es una funci�on

bien condicionada, est�a dado por los siguientes resultados, suponiendo que

g0(t) � g

0(0):

g(t(1 + �1))(1 + �2)� g(0)(1 + �3)

t

� g(t)� g(0)

t

�1t

ng(t) + g

0(0)�1t(1 + �2)� g(0)(1 + �3)� g(t) + g(0)o

�1t

n�2g(t) + g

0(0)�1t� �3g(0)o;

donde j�ij � eps, por consiguiente

error de redondeo � 1

jtj�2 jg(0)j+ jg0(0)tj

eps: (IV:3:6)

Page 190: alisis erico

IV.3 M�etodo de Newton 179

Lo ideal ser�a, por lo tanto escoger un valor de t de manera que los errores

de aproximaci�on y de redondeo se aproximen, ver �gura IV.3.1.

Err de redon.

Err de aprox

Figura IV.3.1. Error de Aproximaci�on vs Error de Redondeo.

Observando la �gura, se tiene que el error de aproximaci�on es del orden

de t, mientras que el error de redondeo es proporcional a eps=t, de donde

equilibrando ambos errores se obtiene

t =pC eps; (IV:3:7)

donde C es una constante elegida de acuerdo a la funci�on f .

El Teorema de Newton-Misovski

Se ha formulado el m�etodo de Newton de una manera general, dando

inclusive una estimaci�on del error cometido, deduciendo que si el m�etodo

converge, la convergencia es cuadr�atica. Pero sin embargo, no se enunci�o las

condiciones su�cientes para obtener convergencia de este m�etodo. El siguien-

te teorema dar�a las condiciones su�cientes para asegurar la convergencia del

m�etodo, cuando la funci�on f cumple ciertas condiciones.

Teorema IV.3.3.- Newton-Misovski. Sean D � Rn abierto y convexo,

f : D �! Rn continuamente diferenciable, f 0(x) inversible para todo x 2 D,x0 2 D satisfaciendo las siguientes condiciones:

a) k4x0k � �,

b) (f 0(y)�1�f 0�x+ t(x � y)

�� f

0(x)�(y � x)

� !t ky � xk2, 8x; y 2D, t 2 [0; 1];

c) � :=1

2�! < 1;

d) � :=�

1� �

< 1;

e) �B(x0; �) = fx 2 Rn j kx� x0k � �g.

Page 191: alisis erico

180 IV Ecuaciones No Lineales

Entonces:

i) La sucesi�on fxkg de�nida por el m�etodo de Newton se queda dentro

B(x0; �) y converge hacia una soluci�on x� de f(x) = 0.

ii) Se tiene la estimaci�on k4xkk � !

2 k4xk�1k2.

iii) kxk � x�k � !

2(1� �2k )k4xk�1k2 :

Demostraci�on.- Es claro por la de�nici�on del m�etodo de Newton que si

fxkg es convergente, entonces el l��mite de la sucesi�on es igual a x�, donde

f(x�) = 0. Se mostrar�as la conclusiones por inducci�on. Se supone que

xk; xk�1 2 D, para k � 1, entonces

k4xkk �!

2k4xk�1k2 ;

en efecto

k4xkk = (f 0(xk))�1f(xk)

= (f 0(xk))�1�f(xk)� f(xk�1)� f

0(xk1)4xk�1

=

f 0(xk) Z 1

0

�f0(xk�1 + t4xk�1)� f

0(xk�1)�4xk�1dt

�Z 1

0

f 0(xk)�f 0(xk�1 + t4xk�1)� f0(xk�1)

�4xk�1

dt�Z 1

0

!t k4xk�1k2 dt =!

2k4xk�1k2 :

Se de�ne �k recursivamente por

�k = �2k�1; �0 =

!

2� = �:

Si x0; x1; : : : ; xk 2 D, entonces

!

2k4xkk � �k;

es cierto para k = 0, sup�ongase cierto para k � 1, por consiguiente

!

2k4xkk �

�!

2k4xk�1k

�2� �

2k�1 = �k:

como �0 = �, se tiene �k = �2k , puesto que � < 1;

limk!1

�k = 0:

Page 192: alisis erico

IV.3 M�etodo de Newton 181

El siguiente paso es mostrar que fxkg es una sucesi�on de Cauchy y que

satisface el punto i). Se supone nuevamente, que x0; : : : ; xk 2 D, 0 � l � k,

obteniendo

kxk+1 � xlk � kxk+1 � xkk| {z }2

!

�k

+ � � �+ kxk+1 � xlk| {z }2

!

�l

� 2

!

(1 + �2l + �

4l + � � �)

� 2

!

�2l

1� �2l

:

Para l = 0, se tiene kxk+1 � x0k �2

!

�2

1� �2<

2

!

1� �

=�

1� �

= �; de

donde xk+1 2 B(x0; �).Por otro lado,

kxk+1 � xlk �2

!

�2l

1� �2l

�! 0; cuando k � l!1:

de donde la sucesi�on fxkg es una sucesi�on de Cauchy, y por lo tanto

convergente. Es as�� que se ha mostrado el punto i) y el punto ii) del teorema

quedando pendiente el �ultimo punto. Se tiene

kxl+1 � xkk � kxl+1 � xlk+ � � �+ kxk+1 � xkk ;

se plantea:

�k�1 =!

2k4xk�1k ; �l = �

2l�1;

de donde �k�1 � �k�1 y �k � �k � �2k , adem�as

!

2k4xlk � �l para l � l � 1:

De donde

kxl+1 � xkk �!

2

k4xk�1k2

1� �2k

;

haciendo tender l al in�nito queda demostrado el punto iii) �

Es necesario remarcar el siguiente hecho concerniente a la hip�otesis b)

del teorema que se acaba de demostrar. Si f es 3 veces derivable, utilizando

la f�ormula de Taylor se tiene

[f 0�x+ t(x � y))� f

0(x)�](y � x) = f

00(x)(t(y � x); y � x) +O(ky � xk3);

Page 193: alisis erico

182 IV Ecuaciones No Lineales

por consiguiente

(f 0(y))�1[f 0�x+ t(x� y))� f 0(x)

�](y� x) = t(f 0(y))�1f 00(x)(y � x; y� x)+

O(ky � xk3);

si D es bastante peque~no, entonces se puede despreciar O(ky � xk3), dedonde (f 0(y))�1[f 0�x+ t(x� y))� f

0(x)�](y � x)

� t

(f 0(y))�1f 00(x) ky � xk2 ;

por consiguiente

! � supx;y2D

(f 0(y))�1f 00(x) (IV:3:8)

Para comprender el teorema, puede ser util estudiar en un ejemplo

tipo, las hip�otesis del teorema y deducir las conclusiones que conducen estas

hip�otesis

Ejemplo

Sea, f : R2 �! R2 de�nida por

f(x) =

�x21 + x

22 � 1

x2 � x21

�;

la soluci�on del problema f(x) = 0 est�a dada por la intersecci�on de una

circunferencia de centro en el origen y radio 1 y una par�abola cuyo v�ertice

se encuentra tambi�en en el origen. Este problema puede ser resuelto

gra�camente, substituyendo x2, pero el proposito del ejemplo es estudiar

el teorema de Misovski.

La derivada de f 0 est�a dada por la matriz jacobiana

f0(x) =

�2x1 2x2�2x1 1

�;

cuya inversa es igual a

(f 0(x))�1 =1

2x1(1 + 2x2)

�1 �2x22x1 2x1

�:

Observando una gr�a�ca del problema se escoge como dominio D a

D =n(x1; x2)j

1

2< x1; x2 < 2

o:

Analizando las condiciones del teorema se tiene:

Page 194: alisis erico

IV.3 M�etodo de Newton 183

a) Se escoge como valor inicial (1; 1) 2 D, obteniendo4x0 = (�1=6;�1=3), de donde

k4x0k =p5

6� 0; 37 = �:

b) El estudio de la segunda condici�on da:

(f 0(y))�1�f0(x+ t(x � y))� f

0(x)�(y � x)

=1

2y1(1 + 2y2)

�1 �2y22y1 2y1

��2t(y1 � x1) 2t(y2 � x2)

�2t(y1 � x1) 0

��y1 � x1

y2 � x2

�=

t

2y1(1 + 2y2)

�(1 + y2)(y1 � x1)

2 + (y2 � x2)2

2y1(y2 � x2)2

�:

Se observa inmediatamente que las componentes son positivas, mayo-

rando respecto a y, se obtiene���(f 0(y))�1�f 0(x+ t(x� y))� f0(x)

�(y � x)

���� t

2

���� 3(y1 � x1)2 + (y2 � x2)

2

4(y2 � x2)2

���� ;pasando a la norma de la convergencia uniforme, se obtiene (f 0(y))�1�f 0(x+ t(x� y))� f

0(x)�(y � x)

1

� 2t ky � xk infty2;

de donde:

b) ! = 2.

c) � = 0; 37 < 1.

d) � =0; 37

1� 0; 37� 1

2. Ahora bien, �

B(x0; �) 6� D, de donde no se puede

garantizar las conclusiones del teorema. Sin embargo, tomando como x0el valor de la primera iteraci�on a partir del valor inicial del ejemplo se

tiene

x0 =

�5

6;

2

3

�t;

obteniendo

4x0 =��19=213�1=21

�; k4x0k = 0; 066 = �;

de donde

� = 0; 066; � = 0; 07; �B(x0; �) � D:

Por lo tanto, las tres condiciones del teorema son veri�cadas, teniendo

garantizada de esta manera la convergencia del m�etodo de Newton.

El teorema de Newton-Misovski da las ventajas de utilizar el m�etodo

de Newton para resolver el problema f(x) = 0, sin embargo:

Page 195: alisis erico

184 IV Ecuaciones No Lineales

Desventajas del m�etodo de Newton

| Cada iteraci�on del m�etodo es costosa en operaciones. En efecto el

c�alculo de f 0(x) y la resoluci�on del sistema lineal adyacente cuestan

mucho si la dimensi�on del sistema es grande. Resolver el sistema LR

cuesta aproximadamente n3=3 operaciones.

| Convergencia local. El m�etodo converge solamente si x0 est�a su�cien-

temente pr�oximo de la soluci�on x�.

M�etodo de Newton Simpli�cado

Una de las mayores desventajas que tiene el m�etodo de Newton, consiste en

el hecho de calcular en cada iteraci�on la matriz derivada y el sistema lineal

asociado. Se puede simpli�car el m�etodo de Newton de la siguiente manera:

x0 arbitrario;

4xk = ��f0(x0)

��1f(xk);

xk+1 = xk +4xk:(IV:3:9)

Por consiguiente se debe calcular una sola vez f 0(x0) y calcular una vez la

descomposici�on LR. Por lo tanto, la primera iteraci�on consume aproximada-

mente n3=3 en el c�alculo de la descomposici�on, y las dem�as iteraciones nece-

sitan aproximadamente n2 operaciones. La desventaja de utilizar el m�etodo

de Newton simpli�cado reside en el hecho en que se pierde la convergencia

cuadr�atica, obteniendo una convergencia lineal. En efecto, considerando este

m�etodo como un m�etodo iterativo simple, dado en la secci�on precedente se

tiene:

xk+1 = �(xk); donde ��(x) = x��f0(x0)

��1f(x);

�0(x) = I ��f0(x0)

��1f0(x):

Ahora bien, se tiene convergencia local, si y solamente si

�(I ��f0(x0)

��1f0(x)) < 1;

por el teorema IV.2.9 y la convergencia lineal es consecuencia directa del

teorema citado.

Tanto el m�etodo de Newton, como su versi�on simpli�cada, de�nen

iteraciones de la forma

4xk = �(M(xk))�1f(xk);

xk+1 = xk +4xk;(IV:3:10)

donde M(x), es una matriz que depende de x. Para el m�etodo de Newton

se tiene M(x) = f0(x) y para la versi�on simpli�cada M(x) = f

0(x0). En

Page 196: alisis erico

IV.3 M�etodo de Newton 185

el primer caso la matriz M es la derivada, en el segundo caso M es la

derivada en un punto arbitrario. Existen muchos problemas, en los cuales

la matriz derivada tiene ciertas particularidades que constituyen en ventajas

y desventajas al mismo tiempo, que puede solucionarse convenientemente

si se escoge una matriz M apropiada; por ejemplo f0(x) puede tener una

estructura de matriz banda, con algunos elementos no nulos fuera de la

banda, es decir

f0(x) =

0BB@� � �� � �

. . .. . .

� � �

1CCA ;

planteando M(x) la matriz cuyos elementos est�an dados por la banda

principal de f 0(x) se tiene una buena aproximaci�on de f 0(x), disminuyendo

de esta manera el costo en operaciones. Las bases te�oricas de utilizar la

matriz M en lugar de f 0(x), est�an dadas por el siguiente teorema.

Teorema IV.3.4.- Newton-Kantorovich. Sean D � Rn abierto y convexo,

f : D �! Rn continuamente diferenciables, M(x0) inversible y x0 2 D.Ademas:

a) M(x0)

�1f(x0)

� �;

b) M(x0)

�1(f 0(y)� f0(x))

� ! ky � xk ; 8x; y 2 D;c) M(x0)

�1(f 0(x) �M(x)) � �0 + � � 1 kx� x0k,

M(x0)�1(M(x) �M(x0)

� � kx� x0k;d) �0 < 1, � := max(!; �+ �1) y

h =��

(1� �0)2� 1

2;

e) B(x0; �) � D, con

� =1�p1� 2h

h

1� �0

;

entonces:

i) M(x) es inversible para x 2 B(x0; �),ii) La sucesi�on fxkg de�nida por (IV.3.10) se queda en B(x0; �) y converge

hacia una soluci�on x� de f(x) = 0,

iii) Se de�ne �h =�!

(1� �0)2=

!

h,

�� =1�

p1� 2�h�h

1� �0

;

entonces x� 2 B(x0; ��) y no hay otra soluci�on de f(x) = 0 en

B(x0; �+) \ D.

Page 197: alisis erico

186 IV Ecuaciones No Lineales

Antes de demostrar el teorema hay que remarcar que �h � h cuya

veri�caci�on es inmediata y tambi�en �� � �; en efecto considerando los

desarrollos en serie de Taylor se tiene:

p1� x =

Xj�0

�1=2

j

�(�x)j = 1� x

2� c2x

2 � c3x3 � � � � ;

con los cj � 0,

1�p1� 2h

h

= 1 + 4c2h+ 8c2h2 + 16c4h

3 + � � � ;

de donde �� � �. Ver la �gura IV.3.2.

x0ρρ

ρ

+

_D

Figura IV.3.2. Resultado del Teorema de Newton-Kantorovich.

Demostraci�on.- Demostrando el punto i), se tiene:

M(x) =M(x0)�I +M(x0)

�1(M(x) �M(x0))| {z }B

�;

kBk � � kx� x0k < ��;

�� = �

1�p1� 2h

h�!�

1� �0

(1� �0)62 ��

(1� �0) � 1;

de donde kBk < 1, por lo tanto (I +B) es inversible y su inversa est�a dada

por

(I +B)�1 =

1Xk=0

(�1)kBk;

Page 198: alisis erico

IV.3 M�etodo de Newton 187

la norma de (I +B)�1, est�a mayorada por

(I +B)�1 � 1

1� kBk �1

1� � kx� x0k;

por consiguiente M(x)�1M(x0)

� 1

1� � kx� x0kkx� x0k < �: (IV:3:11)

La demostraci�on del punto ii) se efectua por inducci�on. Si xk�1; xk 2B(x0; �), entonces xk+1 existe, se tiene:

kxk+1 � xkk = M(xk)

�1f(xk)

� M(xk)

�1�f(xk)� f(xk�1)� f

0(xk�1)(xk � xk1 )�

+ M(xk)

�1�f0(xk�1 �M(xk�1)

�(xk � xk�1)

� M(xk)

�1�f(xk)� f(xk�1)� f

0(xk�1)(xk � xk1 )�

+1

1� � kxk � x0k��0 + �1 kxk�1 � x0k

�kxk � x0k

� M(xk)

�1

Z 1

0

hf0(xk�1+t(xk�xk�1))� f

0(xk � 1)idt(xk � xk�1)

+

1

1� � kxk � x0k��0 + �1 kxk�1 � x0k

�kxk � x0k

� 1

1� � kxk � x0k!

2kxk � xk�1k2

+1

1� � kxk � x0k��0 + �1 kxk�1 � x0k

�kxk � x0k :

De donde

kxk+1 � xkk �1

1� � kxk � x0k

n�

2kxk � xk�1k2+(�0+(��� kxk�1 � x0k) kxk � xk�1k

o:

Para resolver esta desigualdad, se remplaza kxk+1 � xkk por tk+1 � tk y

kxk � x0k por tk, el s��mbolo de desigualdad por el de igualdad, de�niendo

as�� una sucesi�on ftkg � R, que veri�ca:

t0 = 0;

t1 = �;

tk+1 � tk =1

1� �tk

��(tk � tk�1)

2 + (�0 + (� � �)tk�1)(tk � tk�1);

Page 199: alisis erico

188 IV Ecuaciones No Lineales

Se demuestra facilmente, por inducci�on que:

kxk+1 � xkk � tk+1 � tk;

kxk � x0k � tk;

en efecto, para k = 0 se cumple, sup�ongase cierto para k�1, por consiguiente

kxk � x0k � kxk � xk�1k+ � � �+ kx1 � x0k� tk � tk�1 + � � �+ t0 = tk;

kxk+1 � xkk �1

1� �tk

n�

2(tk � tk�1)

2 + �0 + (� � �)tk�1(tk � tk � tk�1)o

= tk+1 � tk:

El siguiente paso es estudiar la sucesi�on ftkg, se tiene

(1� �tk)(tk+1 � tk) =�

2(t2k � 2tktk�1 + t

2k�1) + �0(tk � tk�1)

+ �tk�1(tk � tk�1)� �tk�1(tk � tk�1);

efectuando algunos arreglos y simplicaciones se obtiene la siguiente igualdad

(1� �tk)(tk+1 � tk)��

2t2k + (1� �0)tk

= (1� �tk�1)(tk � tk�1)��

2t2k�1 + (1� �0)tk�1 = �;

expresi�on que es constante por que no depende de k. Expresando

tk+1 = tk +�2t2k � (1� �0)tk + �

1� �tk

= tk +u(tk)

v(tk)= �(tk);

donde las funciones u y v est�an dadas por

u(t) =�

2t2 � (1� �0)t+ �; v(t) = 1� �t:

Se debe mostrar por consiguiente que tk converge y eso sucede si y solamente

si � tiene un punto �jo, y el radio expectral de �0 en las proximidades del

punto �jo es estrictamente menor a 1.

Se tiene:

�(t) = t () u(t) = 0 () t = �1;2 =1� �0

s�1� �0

�2

� 2�

;

Page 200: alisis erico

IV.3 M�etodo de Newton 189

donde �1;2 son las raices de u(t). Expresando ambas raices en funci�on de h,

se obtiene

�1;2 =1�p1� 2h

h

1� �0

;

puesto que h � 1=2, las dos raices de u son positivas, siendo �1 la raiz m�as

peque~na, se tiene:

�1 � �2; �1 = �:

Por otro lado, ambas raices son acotadas, en efecto

�1 + �2

2=

1

h

1� �0

=1� �0

� 1

:

Estudiando la funci�on �(t) se tiene tres casos, que se observan en la �gura

IV.3.3.

α

ρ ρ /µ11 2

�1 � �2 �1

α

/µ1

�1 <1

< �2

α

/µ1

�2 =1

Figura IV.3.3. Gr�a�cas de la funci�on �:

Para 0 < t < �1, se tiene que �0(t) > 0, en efecto:

�(t) = t+u(t)

v(t);

�0(t) =v(t) + u

0(t)

v(t)+ u(t)

v0(t)

v2(t)| {z }> 0

;

v(t) + u0(t) = 1� �t+ �t� (1� �0) = �0 + (� � �)t � 0:

Por consiguiente, � es creciente sobre el intervalo (0; �1), y adem�as tk < �1;

para k = 0 es cierto, sup�ongase cierto para k, entonces

tk+1 = �(tk) < �(�1) = �1;

Page 201: alisis erico

190 IV Ecuaciones No Lineales

La sucesi�on ftkg es creciente y mayorada, por lo tanto es convergente y

converge al primer punto �jo de �, el cual es �1. De aqu��, se deduce que

xk 2 B(x0; �1):

Ahora se est�a en condiciones de mostrar que fxkg es una sucesi�on con-

vergente, para tal motivo se debe demostrar antes que es una sucesi�on de

Cauchy. Se tiene:

kxk+1 � xlk � kxk+1 � xkk+ � � �+ kxl+1 � xlk� tk+1 � tk + � � �+ tl+1 � tl

< �1 � tl �! 0

cuando k � l �!1:

De donde limk!1

= x� y como M(xk) es acotada se deduce inmediata-

mente

f(x�) = 0;

mostrando as�� el punto ii).

Para la demostraci�on del punto iii) son necesarias algunas convenciones

sobre la escritura de los s��mbolos utilizados. La sucesi�on fxkg est�a de�nidapor

xk+1 = xk �M(x0)�1f(xk);

planteando:

�M(x) =M(x0); �� = �; �! = !; �� = 0:

Por otro lado, M(x0)�1(f 0(x)� �

M(x)) � M(x0)

�1(f 0(x)�M(x))

+ M(x0)

�1(M(x) � �

M(x))

��0 + �1 kx� x0k+ � kx� x0k=��0 + �

�1 kx� x0k

con ��0 = �0, ��1 = �1 + � y �� = �. De�niendo G(x) = x �M(x0)

�1f(x), se

tiene:

G0(x) =I �M(x0)

�1f0(x);

kG(y)�G(xk�1)k �kG(y)�G(xk�1)�G0(xk�1)(y � xk�1)k

+ �G0(xk�1)�G

0(x0)�(y � xk�1)

+ kG0(x0)(y � xk�1)k

� M(x0)

�1�� f(y) + f(xk�1) + f

0(xk�1)(x � yk�1)�

+ M(x0)

�1(f 0(xk�1)� f0(x0))(y � xk�1)

+ M(x0)

�1(M(x0)� f0(x0))(y � xk�1)

Page 202: alisis erico

IV.3 M�etodo de Newton 191

utilizando una integral como en el punto ii), se obtiene

kG(y)�G(xk�1k �!

2ky � xk�1k

+! kxk�1 � x0k ky � xk�1k+ �0 ky � xk�1k ;

Sea y� 2 D \ B(x0; �+), remplazando y por y� en la �ultima desigualdad, se

obtiene

ky� � xk�1k �!

2ky� � xk�1k

+! kxk�1 � x0k ky� � xk�1k+ �0 ky� � xk�1k ;

y planteando tambi�en y = xk, se obtiene

kxk � xk�1k �!

2kxk � xk�1k

+! kxk�1 � x0k kxk � xk�1k+ �0 kxk � xk�1k ;

Como en el punto ii) se remplazan kxk � x0k por tk � t0 con t0 = 0 y

ky� � xkk por sk � tk, el s��mbolo � por la igualdad, obteniendo as��:

tk+1 � tk =!

2(tk � tk�1)

2 + !tk�1(tk � tk�1) + �0(tk � tk�1);

t0 = 0; t1 = �;

sk � tk =!

2(sk�1 � tk�1)

2 + !tk�1(sk�1 � tk�1) + �0(sk�1 � tk�1);

s0 = ky� � x0k < �+:

Se demuestra por inducci�on que:

kxk+1 � xkk � tk+1 � tk;

kxk � x0k � tk;

ky� � xkk � sk � tk

El siguiente paso en la demostraci�on consiste en estudiar las sucesiones ftkgy sk. Se tiene:

tk+1 � tk =!

2(t2k � 2tktk�1 + t

2k+1) + !tk�1(tk � tk�1) + �0(tk � tk�1);

tk+1 �!

2t2k � �0tk = tk �

!

2t2k�1 � �0tk�1 = �;

sk� tk =!

2(s2k�1�2sk�1tk�1+ t

2k�1)+!tk�1(sk�1� tk�1)+�0(sk�1� tk�1)

sk �!

2s2k�1 � �0sk�1 = tk �

!

2t2k�1 � �0tk�1 = �:

Page 203: alisis erico

192 IV Ecuaciones No Lineales

De�niendo la funci�on (t) por

(t) =!

2t2 + �0t+ �;

entonces se obtiene, los resultados siguientes para sk y tk:

tk+1 = (tk); t0 = 0;

sk = (sk�1); s0 = ky� � x0k < �+:

Se tiene que, 0(t) = !t+ �0 � 0; si t � 0, para estudiar la convergencia de

las sucesiones, se debe determinar los puntos �jos de , es decir resolver la

ecuaci�on!

2t2 + (�0 � 1)t+ � = 0;

las raices de �esta, est�an dadas por:

��� =1�

p1� 2�h�h

;

se puede observar, que la sucesi�on tk es creciente y tiende hacia ��, por otro

lado la sucesi�on sk es decrecientre y tiende hacia ��. Ver la �gura IV.3.4

t

α

ρ ρ

Ψ (t)

− +

Figura IV.3.4. Gr�a�ca de la funci�on :

Como en el punto ii) se muestra que la sucesi�on fxkg es de Cauchy, por

consiguiente xk �! x� y f(x�) = 0, adem�as se tiene

kx� � x0k � ��;

ky � �x�k � sk � tk �! 0;

y� = x

�:

Page 204: alisis erico

IV.3 M�etodo de Newton 193

Para ilustrar la utilizaci�on del teorema de Newton-Kantorovich, se tiene

el:

Ejemplo

Consid�erese, la funci�on f dada por

f(x) =

�x21 + x

22 � 1

x2 � x21

�;

partiendo del punto (1; 1) y tomando como dominio D = R2 , M(x) =

f0(x), es decir el m�etodo de Newton en su versi�on no modi�cada, se

tiene:

� = 0; 37; ! = 1; 2; �0 = 0; �1 = 0;

� = !; � = 1; 2:

Veri�cando y efectuando c�alculos se obtiene:

h = 0; 444 � 1=2; � = �� = 0; 554; �+ = 0; 981:

M�etodo de Newton con Relajaci�on

Una de las principales desventajas del m�etodo de Newton, tanto en su versi�on

original, como en su versi�on simpli�cada, es que es necesario estar cerca de

la soluci�on del problema. Lamentablemente, en una gran mayor��a de casos

eso no es posible. Por lo tanto, es necesario modi�car el m�etodo de manera

a que la convergencia sea una preocupaci�on menor. El m�etodo de Newton

est�a dado, por las iteraciones

xk+1 = xk � (f 0(xk))�1f(xk);

se tiene convergencia si kx1 � x0k � � su�cientemente peque~no, sin embargo

esta condici�on no se cumple en general. Una soluci�on alternativa ser��a

modi�car el m�etodo de la manera siguiente:

pk = �(f 0(xk))�1f(xk);xk+1 = xk + �kpk;

con 0 < � � 1. La base te�orica de esta modi�caci�on est�a dada por la:

Proposici�on IV.3.5.- Sean D � Rn , f : D ! Rn continuamente diferen-

ciable, x0 2 D, f(x0) 6= 0 y p0 = �(f 0(x0))�1f(x0). Entonces para toda

matriz A inversible, existe �0 > 0 tal que para todo �, 0 < � < �0, se tiene

kAf(x0 + �p0)k < � kAf(x0)k :

Page 205: alisis erico

194 IV Ecuaciones No Lineales

Demostraci�on.- Se de�ne la funci�on g : R �! R para una matriz A �ja e

inversible, como

g(�) = kAf(x0 + �p0)k22= f(x0 + �p0)

tAtAf(x0 + �p0);

calculando la derivada de g, se obtiene:

g0(�) = 2f(x0 + �p0)

tAtAf

0(x0 + �p0)p0;

g0(0) = �2f(x0)tAt

Af0(x0)(f

0(x0))�1f(x0)

= �2 kAf(x0)k22 < 0;

por consiguiente, existe �0 con las conclusiones requeridas por la proposici�on.

Otra de las motivaciones para modi�car el m�etodo de Newton consiste

en el siguiente hecho. Sean D � Rn , f : D �! Rn continuamente

diferenciable con derivada inversible para todo x 2 D. Llamando p(x) =

�(f 0(x))�1f(x) la direcci�on de Newton para la funci�on f , se obtiene la

siguiente ecuaci�on diferencial

x0 = p(x): (IV:3:12)

Una manera de resolver num�ericamente esta ecuaci�on, ver Cap��tulo VII,

consiste en aproximar la soluci�on mediante segmentos poligonales, es decir,

de�nir una sucesi�on de v�ertices, dados por

xk+1 = xk � �kp(xk); (IV:3:13)

este m�etodo de resoluci�on de ecuaciones diferenciales es conocido como el

m�etodo de Euler.

El m�etodo modi�cado se lo conococe como �-estrategia y su formulaci�on

es la siguiente:

�xk = �(f 0(xk))�1f(xk);xk+1 = xk + �k�xk:

(IV:3:14)

Si �k = 1 para todo k, se tiene el m�etodo de Newton usual. La otra situaci�on

es escoger �k, tal que

g(�) = kAf(xk + �k�xk)k �! min; (IV:3:15)

presentandose dos interrogantes:

>C�omo escoger la matriz A?

Page 206: alisis erico

IV.3 M�etodo de Newton 195

>C�omo calcular el m��nimo de g(�)?

La elecci�on de A, se la realiza considerando los siguientes hechos. Se

desea que

kxk + �k�xk � x�k �! min;

donde x� es la soluci�on de f(x) = 0. No se conoce por el momento x�, pero

se sabe f(x�) = 0. Se tiene, las siguientes aproximaciones:

f(x)� f(x�) � f0(x�)(x� x

�) � f0(xk)(x � x

�)

con x = xk + �k�xk, de donde

xk + �k�xk � x� = (f 0(xk))

�1f(xk + ��xk);

escogiendo, de esta manera

A = (f 0(xk))�1; (IV:3:16)

Por lo tanto (IV.3.15), se convierte en g(�) = (f 0(xk))�1f(xk + ��xk)

y elproblema radica en determinar �, para que g(�) sea m��nimo. A continuaci�on

se da un algoritmo simple que permite determinar este �:

Sup�ongase que se conoce xk y una aproximaci�on �k de �k . Se tiene dos

casos:

a) g(�k) � 0, es decir xk + �k es peor que xk.

Se busca el m�as peque~no de los j > 1, tal que

g(�k2�j) < g(0);

se plantea �k = �k2�j .

b) g(�k) < 0. Se busca el j > 0 m�as peque~no tal que

g(2j+1�k) > g(2j�k)

y se plantea �k = 2j�k .

En ambos casos �k no debe ser m�as grande que 1.

Finalmente surge la �ultima interrogante, >Como determinar �k? Uti-

lizando un desarrollo de Taylor se tiene:

(f 0(xk))�1f(xk + ��xk))

= (f 0(xk))�1

�f(xk) + �f

0(xk)�xk +�2

2f00(xk)(�xk ;�xk) +O(�3)

Page 207: alisis erico

196 IV Ecuaciones No Lineales

Por otro lado f(xk) + �f0(xk)�xk = (1� �)�xk y (f 0(xk))

�1f(xk) = �xk,

de donde utilizando el desarrollo de Taylor, la desigualdad del tri�angulo y

las observaciones anteriores, se tiene

g(�) � k�xkk (1� �+�2

2hk +O(�3))

donde hk = (f 0(xk))�1f 00(xk)(�xk ;�xk) = k�xkk : Despreciando el t�er-

mino O(�3), se obtiene un polinomio de grado 2, cuyo m��nimo se encuentra

en

�k =1

hk

; (IV:3:17)

faltando determinar hk. Como es pr�acticamente imposible determinar con

exactitud hk solo se requiere encontrar una buena aproximaci�on de hk. Para

tal efecto, se supone que se ha efectuado k � 1 iteraciones, teniendo:

�xk = �(f 0(xk))�1f(xk);d�xk = �(f 0(xk�1))�1f(xk);d�xk ��xk = (f 0(xk�1))�1(f 0(xk)� f

0(xk�1))d�xk� (f 0(xk�1))

�1f00(xk)(xk � xk�1;

d�xk):Pasando a las normas se obtiene la siguiente relaci�on: d�xk ��xk

� hk

k�xkk�k�1 k�xk�1k

d�xk ;de donde

�k = min

0@1; �k�1 k�xk�1k k�xkk d�xk ��xk

d�xk 1A: (IV:3:18)

Ejemplo

Consid�erese, la funci�on f de�nida por

f(x) =

��13x1 + x2((5� x2)� 2)

�29 + x1 + x2((1 + x2)x2 � 14)

�Tomando como valor inicial x1 = 0; 5 y x2 = 2; 24, se resolver�a el

problema f(x) = 0, utilizando la �-estrategia, el m�etodo de Newton en

su version original. A continuaci�on se presentan los resultados obtenidos

para ambos:

Page 208: alisis erico

IV.3 M�etodo de Newton 197

Tabla IV.3.3. Resultados con �-estrategia.

Iteraci�on x1 x2 k�xk �

1 �8:5849058 3:94357758 1183:1361 7:8125� 10�3

2 4:989738 4:0012650 13:574766 1:0

3 4:9999949 4:0000006 1:03345� 10�2 1:0

4 4:9999999 4:000000 5:08213� 10�6 1:0

5 5:0 4:0 0:0 1:0

Tabla IV.3.4. Resultados sin �-estrategia.

Iteraci�on x1 x2 k�xk1 �1162:367 220:297 1183:1

2 �47637:0 147:095 46474:7

3 �21035:69 98:296 26601:42

4 �9256:28 65:77062 11779:45

5 �4049:98 44:09533 5206:34

6 �1755:45 29:658 2294:57

7 �748:669 20:056 1006:82

8 �310:0149 13:688 438:7011

9 �121:126 9:5002 188:934

10 �41:5288 6:8016 79:6434

11 �9:51218 5:16002 32:05875

12 1:887 4:3114 11:4307

13 4:7248 4:03167 2:8516

14 4:9968 4:0003 0:27378

15 4:9999 4:0000 3:149� 10�3

16 4:9999 4:0 4:566� 10�7

17 5:0 4:0 0:0

Page 209: alisis erico

198 IV Ecuaciones No Lineales

Aproximaci�on de Broyden

Uno de los principales problemas en la implementaci�on del m�etodo de

Newton, tanto en su versi�on con relajaci�on, como en su versi�on original, es

el c�alculo de la matriz jacobiana f 0(xk) en cada iteraci�on y por consiguiente

mediante el algoritmo de eliminaci�on de Gauss determinar la descomposici�on

LR de esta matriz. Existen muchas alternativas para evitar el c�alculo de la

matriz jacobiana y su descomposici�on LR en cada iteraci�on. El siguiente

an�alisis permitir�a encontrar algunas de estas alternativas. Utilizando las

relaciones dadas por (IV.3.17) y (IV.3.18) respecto a la determinaci�on de los

coe�cientes de relajaci�on, la experiencia num�erica indica que, si �khk � 10�1

se puede tomar en el lugar de f0(xk+1) f

0(xk). En este caso se tiene

la versi�on simpli�cada del m�etodo de Newton. Sin embargo, existe otra

alternativa descubierta por Broyden en 1965. Se supone, que se conoce una

aproximaci�on Jk de f 0(xk), es decir

Jk � f0(xk) (IV:3:19)

de donde el m�etodo de Newton est�a dado por

�xk = �Jk�1f(xk);xk+1 = xk +�xk

el objetivo es por consiguiente, encontrar Jk+1 una aproximaci�on simple de

calcular de f 0(xk+1). Para tal efecto, la matriz Jk debe permanecer igual en

las direcciones ortogonales a �xk, es decir:

Jk+1p = Jkp 8p?�xk;Jk+1�xk = Jk�xk + q;

(IV:3:20)

por lo tanto

q = Jk+1�xk � Jk�xk = f(xk) + Jk+1�xk| {z }� f

0(xk+1)�xk| {z }f(xk+1) +Ok�xk2

;

de donde

Jk+1�xk = Jk�xk + f(xk+1): (IV:3:20)

Proposici�on IV.3.6.- Si Jk es inversible y ��xk+1

< k�xkk, donde

�xk = �J�1k f(xk) ��xk+1 = �J�1k f(xk+1);

Page 210: alisis erico

IV.3 M�etodo de Newton 199

entonces Jk+1 es inversible.

Demostraci�on.- Sean, � 2 R y p?�xk, se va mostrar que kerJk+1 = f0g.En efecto:

0 = Jk+1(��x + p)

= �(Jk�xk + f(xk+1) + Jkp

= Jk(��xk + p) + �f(xk+1)

= ��xk + p� ���xk+1;

introduciendo el producto escalar, multiplicando por �xk , se obtiene:

� k�xkk2 � �

��xk+1;�xk

�= 0;

por la desigualdad de Cauchy-Schwartz, se tiene�� ��xk+1;�xk��� � ��xk+1

k�xkk < k�xkk2 ;de donde � = 0 y por consiguiente p = 0. �

La determinaci�on de �xk+1 y ��xk se propone en los ejercicios.

Ejercicios

1.- Utilizando el teorema de Newton-Kantorovich encontrar � > 0 tal que

la iteraci�on

zk+1 = zk �f(zk)

f0(zk)

f(z) = z3 � 1

converge hacia 1, si z0 2 C satisface jz0 � 1j < �.

2.- Sea D � Rn y f : D ! Rn continuamente diferenciable. Para x0 2 Dsup�ongase que f(x0) 6= 0 y que f 0(x0) sea inversible. Mostrar que

p0 = �f 0(x0)�1f(x0)

es la �unica direcci�on que tiene la propiedad siguiente:

para toda matriz inversible A existe �0 > 0 tal que para 0 < � < �0

kAf(x0 + �p0)k2 < kAf(x0)k2 :

3.- En el art��culo

R.S. Dembo, S.C. Eisenstat & T. Steighaug(1982): Inexact Newton

methods. SIAM J. Numer. Anal., vol. 19,400-408.

Page 211: alisis erico

200 IV Ecuaciones No Lineales

los autores consideran la modi�caci�on siguiente del m�etodo de Newton:

f0(xk)�xk = �f(xk) + �k

xk+1 = x+ l +�xk:(IV:3:22)

Las perturbaciones �k pueden ser interpretadas como la in uencia de

los errores de redondeo, como el error debido a una aproximaci�on de

f0(xk),... Sup�ongase que �k = �(xk) y que

k�(x)k � � kf(x)k (IV:3:23)

con � < 1.

a) Mostrar el resultado:

Sea D � Rn abierto, f : D ! Rn y � : D ! Rn continuamente

diferenciables en D. Si la condici�on (IV.3.23) es satisfecha con � < 1

y si k�x0k es su�cientemente peque~no, entonces la iteraci�on (IV.3.21)

converge hacia una soluci�on de f(x) = 0.

b) El teorema precedente no es cierto, en general, si se remplaza � < 1

por � � 1. Mostrarlo.

Indicaci�on. Encontrar una matrizM(x) tal que la iteraci�on (IV.3.21) se

vuelva equivalente a

M(xk)�xk = �f(xk);

y aplicar el teorema de Newton-Kantorovich. Utilizar la norma

kukJ = kf 0(x0)uk :

4.- (U. Ascher & Osborne 1987). Considerar una funci�on f : R2 ! R2 que

satisfaga

f(0) = � 1

10

�4p3� 3

�4p3� 3

�;

f(u) =1

5

�4

�3

�;

f0(0) =

�1 0

0 1

�f0(u) =

�1=p3 �1=

p3

1 1

�donde u = �f(0). Aplicar el m�etodo de Newton con el valor inicial

x0 = 0. Para la sucesi�on fxkg obtenida de esta manera mostrar:a) xk+2 = xk para todo k � 0;

b) el test de monotonocidad (f 0(xk))�1f(xk+1) 2<

(f 0(xk))�1f(xk) 2

Page 212: alisis erico

IV.3 M�etodo de Newton 201

es satisfecho en cada iteraci�on.

5.- Sea f : Rn ! Rn dos veces diferenciable. Mostrar que

kf 00(x)(h; k)k1�M khk

1kkk

1

donde M = maxi

Xj

Xl

���� @2fi

@xj@xl

(x)

����.6.- Sea f : D ! R2 dada por D =

��x1

x2

�j � 1 < x1; x2 < 3

�,

f(x) =

�x1 � x2

(x1 � 8)x2

�; x0 =

�0:125

0:125

�:

Calcular los valores � y ! del teorema de Newton-Misovski. Mostrar

que el metodo de Newton converge hacia una soluci�on de f(x) = 0:

7.- Sean f : D ! Rn 3 veces continuamente diferenciable, Jk una aproxi-

maci�on de la matriz f 0(xk) y p 2 Rn ; p 6= 0. Para la aproximacion de

Broyden

Jk+1 = Jk + (f(xk + p)� f(xk)� Jkp):pt

ptp

se tiene:

a) (Jk+1 � f0(x0 + p))p = (1� )(Jk � f

0(xk))p

+(

2� 1)f 00(xk)(p; p) +O(kpk3):

b) para 2 [0; 2]kJk+1 � f

0(x0 + p)k2 � kJk � f0(xk)k2 + kf

00(xk)(p; :)k2 +O(kpk2):

8.- Sup�ongase que se conoce una aproximaci�on J0 de f0(x0), y su descom-

posici�on LR. Consid�ere la iteraci�on

Jk�xk� = f(xk)

xk+1 = xk +�xk

donde Jk+1 (aproximaci�on de Broyden), est�a de�nido por

Jk+1�xk = Jk�xk + f(xk+1);

Jk+1p = Jkp; si pt�xk = 0:

Sin calcular explicitamente J1 y J2, encontrar f�ormulas para �x1 y �x2.

Page 213: alisis erico

202 IV Ecuaciones No Lineales

9.- Consid�erese una funci�on f : Rn ! Rm donde m < n. El conjunto

E = fxjg(x) = 0g

representa una super�cie en Rn .

Dado x 2 Rn . Proponer un algoritmo para calcular el punto de E el m�as

pr�oximo de x. Estudiar las hip�otesis para que el algoritmo converga.

10.- Consid�erese la ecuaci�on integrale de Fredholm (cf. Ejercicio 3 secci�on

IV.3)

�y(x) =2

Z �

0

(3 sinx sin t+ 2 sin(2x) sin(2t))(y(t) + (y(t))3)dt

(IV:3:24)

y(x) = 0 es soluci�on de (IV.3.24) para todo � 2 R. Con las ideas del

ejercicio 3 de la anterior secci�on se puede escribir (IV.3.24) bajo la forma

G(c1; c2; �) = 0:

Calcular los �, donde det @G@C

(C; 0) = 0:

Interpretar estos puntos con el teorema de las funciones implicitas.

(Soluciones: �1 = 2; �2 = 3)

11.- Mostrar num�ericamente que para �1 = �1 + � (� > 0) el problema

(IV.3.24) posee al menos 3 soluciones, para �1 > �2 al menos 5

soluciones.

Calcular tambi�en todas las soluciones de (IV.3.24) para � = 10, (hay

13).

Page 214: alisis erico

IV.4 M�etodo de Gauss Newton

El estudio de las ecuaciones realizados en las secciones precedentes, consist��an

en problemas de la forma f(x) = 0 o su variante del punto �jo x = f(x),

donde f : D � Rn ! Rn . Sin embargo, existen muchos problemas donde

intervienen ecuaciones no lineales, que se encuentrar en una diversidad de

problemas, sobre todo en la determinaci�on de param�etros en el an�alisis de

datos. El problema puede formularse de la siguiente manera. Sea

f : D � Rn ! Rm con n � m;

el problema consiste en encontrar x 2 D, tal que

kf(x)k2 �! min : (IV:4:1)

En el cap��tulo II.5, se abord�o el problema bajo su forma lineal, se

formul�o el m�etodo QR para resolver este problema, y as�� mismo se introduj�o

la noci�on de pseudo-inversa de una matriz. Para el problema no lineal, se

sigue el mismo esquema. Pero antes de continuar en esa direcci�on, existe

una alternativa de soluci�on. Se de�ne la funci�on g : D ! Rn de la manera

siguiente

g(x) = kf(x)k22 ; (IV:4:2)

de donde

g0(x) = 2(f 0(x))

tf(x); (IV:4:3)

se busca, por consiguiente, los x 2 D tales que (f 0(x))tf(x) = 0. En principio

se podr��a utilizar el m�etodo de Newton para resolver este problema, pero la

principal desventaja, consiste en calcular la segunda derivada de f . Este

algoritmo da los m��nimos locales.

La otra alternativa de soluci�on de este problema, se la di�o m�as arriba,

es el m�etodo de Gauss-Newton. Al igual que en el m�etodo de Newton, la

idea principal de este m�etodo consiste en linearizar el problema. Sea x0 2 Dun valor inicial. Utilizando un desarrollo de Taylor en x0 se obtiene

kf(x)k22 = kf(x0) + f0(x0)(x � x0) + � � �k22 ;

considerando los t�erminos lineales del segundo miembro de la ecuaci�on se

obtiene, al igual que en el cap��tulo II.5,

x� x0 = �f 0(x0)+f(x0); (IV:4:4)

donde f 0(x0)+es la pseudo inversa de f 0(x).

Page 215: alisis erico

204 IV Ecuaciones No Lineales

Por lo tanto, se puede formular el m�etodo de Gauss-Newton, como:

�xk = �f 0(xk)+f(xk);xk+1 = xk +�xk:

(IV:4:5)

El c�alculo de �xk se lo realiza, utilizando la descomposici�on QR dada en

el cap��tulo II.5. Como se puede observar, la implementaci�on del m�etodo de

Gauss-Newton es muy simple, y al igual que el m�etodo de Newton existen

muchas variantes o modi�caciones de �este.

Convergencia del M�etodo de Gauss-Newton

Sea, fxkg la sucesi�on de�nida por el m�etodo de Gauss-Newton, si esta

sucesi�on es convergente cuando k !1, se tiene

�xk �! 0; f0(x)

+f(xk) �! 0;

sup�ongase que limk!1

xk = x�, que el rango de f

0(x) es constante en un

vecindario de x�, por que si no f 0(x)+no ser��a continua, ver teorema II.5.6,

entonces

f0(x�)

+f(x�) = 0: (IV:4:6)

Por otro lado, si x 2 D es un m��nimo local de g(x) = kf(x)k22, se tiene

@

@xj

mXi=1

fi(x)2

!= 2

mXi=1

@fi

@xj

(x) � fi(x) = 0; 8j;

de donde

f0(x)

tf(x) = 0: (IV:4:7)

Los resultados (IV.4.6) y (IV.4.7) est�an relacionados por el siguiente:

Proposici�on IV.4.1.- Se tiene

f0(x)

+f(x) = 0 () f

0(x)tf(x): (IV:4:8)

Demostraci�on.- Por el teorema II.5.5 existen dos matrices ortogonales U

y V , tales que

f0(x) = U

0BB@�1

. . .

�k

0

0 0

1CCAVt;

Page 216: alisis erico

IV.4 M�etodo de Gauss Newton 205

remplazando, se tiene

f0(x)

t= V

0BB@�1

. . .

�k

0

0 0

1CCAUt = 0;

si y solamente si las primeras k componentes de U tf son nulas, si y solamente

si

f0(x)

+V

0BB@��11

. . .

��1k

0

0 0

1CCAUt = 0:

A la diferencia del m�etodo de Newton, el m�etodo de Gauss-Newton

ofrece solamente convergencia de tipo lineal, situaci�on que ser�a mostrada a

continuaci�on. Como antes, se de�ne g(x) = (f 0(x))tf(x), si x� es soluci�on

del problema de minimizaci�on de la norma euclidiana, se tiene g(x�) = 0.

El desarrollo en serie de Taylor en punto x de la funci�on g, da el siguiente

resultado

0 = g(x) + g0(x)(x� � x) +O(kx� � xk22);

por otra lado, la funci�on g y sus derivadas parciales satisfacen:

gj(x) =

mXi=1

@fi(x)

@xj

fi(x);

@gj

@xk

(x) =

mXi=1

@2fi(x)

@xj@xk

fi(x) +

mXi=1

@fi

@xj

(x)@fi

@xk

(x);

de donde

g0(x) = B(x)(f(x); ) + f

0(x)tf0(x);

con B(x) una forma bilineal sim�etrica. Por consiguiente el desarrollo de

Taylor de g en xk, el k-esimo valor obtenido en la iteraci�on del m�etodo de

Gauss-Newton, es igual a

0 = f0(xk)

tf(xk) + f

0(xk)tf0(xk)(x

� � xk) +B(xk)(f(xk); x� � xk)

+O(kx� � xkk22);

y por el m�etodo de Gauss Newton, se tiene

xk+1 � xk = �f 0(xk)+f(xk);

Page 217: alisis erico

206 IV Ecuaciones No Lineales

multiplicando esta �ultima expresi�on por f 0(xk)tf0(xk) se obtiene

0 = f0(xk)

tf0(xk)f

0(xk)+f(xk) + f

0(xk)tf0(xk)(xk+1 � xk);

y utilizando el teorema II.5.7, el inciso d), se tiene �nalmente

f0(xk)

tf(xk) + f

0(xk)tf0(xk)(xk+1 � xk);

sustrayendo esta �ultima expresi�on con aqu�ella concerniente al desarrollo de

Taylor, se obtiene

0 = f0(xk)

tf0(xk)(xk+1 � x

�) +B(xk)(f(xk); x� � xk) +O(kx� � xkk22):

Ahora bien, sup�ongase adem�as que rang f 0(xk) = n, es decir que el rango

sea maximal. De donde se tiene

xk+1 � x� = �

�f0(xk)

tf0(xk)

��1

B(xk)(f(xk); x� � xk) +O(kx� � xkk22);

por consiguiente, el m�etodo de Gauss-Newton converge linealmente si

��f0(xk)

tf0(xk)

��1

B(xk)(f(xk); )

�< 1;

y diverge si

��f0(xk)

tf0(xk)

��1

B(xk)(f(xk); )

�> 1:

Debe observarse que si f(x�)=0, el m�etodo de Gauss-Newton converge

cuadr�aticamente, en este caso se tiene un problema compatible. Por otro

lado, el problema inicial era buscar x tal que f(x) = 0, motivo por el cual se

debe esperar que la soluci�on encontrada por el m�etodo de Gauss-Newton de

f(x�) bastante peque~no, de manera que el radio espectral sea m�as peque~no

que 1.

Al igual que en el m�etodo de Newton, el c�alculo de f0(x) se lo real-

iza en muchas ocaciones num�ericamente, o en los casos en que se pueda

anal��ticamente. Es indudable que la matriz f0(x) en las iteraciones del

m�etodo de Gauss-Newton tienen un componente de error, utilizando las

relaciones (IV.3.5) y (IV.3.6), este error es del orden depeps, donde eps

es la precisi�on del computador. Por consiguiente la k-esima iteraci�on del

m�etodo de Gauss-Newton, considerando que el error cometido por redondeo

se encuentra solamente en el c�alculo de f 0(x), est�a dada por

�xk = �(f 0(xk) +E)+f(xk);

Page 218: alisis erico

IV.4 M�etodo de Gauss Newton 207

con kEk2 =peps. Efectuando operaciones con la pseudo inversa, dadas en

el teorema II.5.7 se obtiene:

�xk = ��(f 0(xk) +E)

t(f 0(xk) +E)

��1

(f 0(xk) +E)tf(xk);�

(f 0(xk) +E)t(f 0(xk) +E)

��xk = �(f 0(xk) +E)

tf(xk);�

(f 0(xk) +E)t(f 0(xk) +E)

��xk + (f 0(xk) +E)

tf(xk) = 0;

despreciando E en el primer t�ermino de la �ultima ecuaci�on, se obtiene�f0(xk)

tf0(xk)

��xk + f

0(xk)tf(xk) +E

tf(xk) = 0;

introduciendo en la serie de Taylor, como se hizo m�as arriba, se obtiene

�Etf(xk) = f

0(xk)tf0(xk)(xk+1 � x

�) +B(xk)(f(xk); x� � xk)

+O(kx� � xkk22);

mostrando as�� que si f(x�) 6= 0, es inutil buscar una precisi�on superior apeps.

Modi�caciones del M�etodo de Gauss-Newton

Similarmente al m�etodo de Newton, existen varias modi�caciones del m�etodo

original de Gauss-Newton. Una de las mayores di�cultades en la imple-

mentaci�on de este m�etodo consiste en calcular f 0(xk) en cada iteraci�on.

Por consiguiente, una primera modi�caci�on consiste en utilizar el m�etodo

de Gauss-Newton simpli�cado, el cual est�a dado por:(x0 bastante pr�oximo de la soluci�on;

�xk = �f 0(x0)+f 0(xk);

La principal ventaja de utilizar el m�etodo de Gauss-Newton simpli�cado

consiste en calcular por una vez f 0(x0) y luego efectuar la descomposici�on

QR. Sin embargo existe una desventaja, que no se puede llegar a la soluci�on

x�, si f(x�) 6= 0, esto se ha observado al �nalizar la anterior subsecci�on.

Otra modi�caci�on corrientemente utilizada en el m�etodo de Gauss-

Newton consiste en utilizar coe�cientes de relajaci�on o m�as conocido como la

�-estrategia. Sobre todo, se utiliza la relajaci�on cuando los valores iniciales

utilizados para activar el m�etodo no est�an muy cerca de la soluci�on buscada,

adem�as como un medio de aceleraci�on de convergencia. Por lo tanto el

m�etodo de Gauss-Newton con �-estrategia, est�a dado por8><>:x0 bastante pr�oximo de la soluci�on;

�xk = �f 0(x0)+f 0(xk);xk+1 = xk + �k�xk ; 0 < �k � 1:

Page 219: alisis erico

208 IV Ecuaciones No Lineales

El valor �k se determina de la mismamanera, que para el m�etodo de Newton,

con la �unica variaci�on de utilizar la pseudo-inversa en el lugar de la inversa.

Ejemplos

1.- Este ejemplo est�a relacionado con la subsecci�on concerniente a la

convergencia del m�etodo de Gauss-Newton. Se busca x 2 R tal que

g(t) = ext ajuste lo mejor posible m puntos (ti; yi), i = 1; : : : ;m; con

m � 1. Por consiguiente, el problema consiste en determinar x tal que

mXi=1

(yi � exti) �! min;

de donde, dentro las caracter��sticas de la aplicaci�on del m�etodo de

Gauss-Newton se tiene:

f(x) =

0B@ ext1 � y1

...

extm � ym

1CA ; f0(x) =

0@ t1ext1

...

tmextm

1A;

continuando con los c�alculos se tiene:

f0(x)

tf0(x) =

mXi=1

(tiexti)2;

B(x)(f(x); ) =

mXi=1

t2i e

xti(exti � yi):

Sea por otro lado � tal que��exti � yi

�� � �exti

i = 1; : : : ;m;

obteniendo, la mayoraci�on siguiente����������

mXi=1

t2i e

xti(exti � yi)

mXi=1

(tiexti)2

����������� �;

se tiene convergencia si � < 1.

2.- Este ejemplo es una ilustraci�on num�erica de la implementaci�on del

m�etodo de Gauss-Newton con relajaci�on. El problema consiste en

determinar la circunferencia que pasa lo m�as cerca posible de los

Page 220: alisis erico

IV.4 M�etodo de Gauss Newton 209

siguientes puntos: (2; 3), (2; 1), (1; 2), (3; 2) y (2:5; 2:5). Ahora bien la

ecuaci�on de una circunferencia de centro (h; k) y radio r est�a dada por

(x � h)2 + (x� k)2 � r2 = 0;

por consiguiente el problema consiste en determinar h, k y r de manera

que se obtenga la circunferencia m�as pr�oxima a estos puntos. Para la

implementaci�on del m�etodo de Gauss-Newton, se tiene que

f(h; k; r) =

0BBB@(h� 2)2 + (k � 3)2 � r

2

(h� 2)2 + (k � 1)2 � r2

(h� 1)2 + (k � 2)2 � r2

(h� 3)2 + (k � 2)2 � r2

(h� 2:5)2 + (k � 2:5)2 � r2

1CCCADespu�es de un simple gr�a�co, se puede tomar como valores iniciales

h = 2, k = 2 y r = 1, utilizando el m�etodo de Gauss-Newton con

relajaci�on despues de 5 iteraciones, se obtiene los siguientes valores:

h =1:95833333333295;

k =1:95833333333295;

r =0:959239125904873

En la �gura IV.4.1, se tiene la gr�a�ca de la circunferencia resultante

del m�etodo de Gauss-Newton.

.0 .5 1.0 1.5 2.0 2.5 3.0 3.5 4.0.0

.5

1.0

1.5

2.0

2.5

3.0

3.5

4.0

Figura IV.4.1. Circunferencia del m�etodo de Gauss-Newton.

Page 221: alisis erico

210 IV Ecuaciones No Lineales

El M�etodo de Levenberg-Marquandt

El problema abordado en esta secci�on, es resolver kf(x)k ! min, donde

f : Rn ! Rm , con n � m. El m�etodo propuesto en el anterior paragrafo

fue el m�etodo de Gauss-Newton. Como se ha visto, uno de los mayores

incovenientes es que para iniciar las iteraciones se debe partir de un punto

inicial bastante pr�oximo de la soluci�on, por otro lado los an�alisis hechos se

basan en el supuesto que f 0(x) es de rango igual a n, es decir de rango ma-

ximal, adem�as si f(x) no es lo su�cientemente peque~no el m�etodo de Gauss-

Newton diverge. Por las razones expuestas es necesario formular un m�etodo

alternativo que permita evitar las situaciones enumeradas anteriormente.

El m�etodo de Levenberg-Marquandt que constituye un m�etodo alterna-

tivo para resolver el problema de encontrar x con kf(x)k m��nima, se basa enlas siguientes ideas. Al formular el m�etodo de Gauss-Newton, se consider�o

la serie de Taylor de f(x) en el punto xk, resultado de la k � 1 iteraci�on y

se plante�o

kf(x)k = kf(xk) + f0(xk)(x � xk) +O(kx� xkk)k �! min;

suponiendo que x � xk es lo su�cientemente peque~no, se obten��a como

formulaci�on del m�etodo de Gauss-Newton

kf(xk) + f0(xk)(x � xk)k �! min;

y como condici�on suplementaria deseable

kx� xkk �! min;

La idea de Levenberg fue de considerar el problema siguiente para determinar

el valor de xk+1

kf(xk) + f0(xk)(x � xk)k22 + p kx� xkk22 �! min; (IV:4:9)

donde p > 0 es un param�etro �jo. Si se deriva una vez la expresi�on (IV.4.9),

se obtiene:

2f 0(xk)t(f(xk) + f

0(xk)(x � xk)) + 2p(x� xk) = 0;�f0(xk)

tf0(xk) + pI

�(xk+1 � xk) = �f 0(xk)tf(xk): (IV:4:10)

Dependiendo de la elecci�on del param�etro p, el m�etodo de Levenberg-

Marquandt, tiene los siguientes comportamientos:

Si p �! 0, se tiene el m�etodo de Gauss-Newton, para ver realmente lo

que sucede ver el cap��tulo II, secci�on 5, ejercicio 5.

Page 222: alisis erico

IV.4 M�etodo de Gauss Newton 211

Si p es muy grande, entonces

�xk �= �1

p

f0(xk)

tf(xk);

de esta manera, se tiene la direcci�on de la pendiente m�as grande, o

llamada tambi�en del gradiente, pero en este caso la convergencia podr��a

ser muy lenta.

La elecci�on de p puede ser variable, en el sentido siguiente, comenzar con p

grande hasta que �xk sea bastante peque~no y luego hacer decrecer p hasta

obtener el m�etodo de Gauss-Newton.

Ejercicios

1.- Encontrar una elipse, una hip�erbola, que pasa lo mejor posible por los

puntos (xi; yi)i=1;:::;m. Por ejemplo m = 10; (�1=2; 1), (�1=2;�0:1),(2:5;�1), (1:5; 1:5), (0:3;�1:5), (0:5;�2), (3; 0:1), (3;�0:3), (2:5; 1),(0:5; 3:5).

Indicaciones.- Plantear

f(x; y) = ax2 + 2bxy + cy

2 + dx+ ey + g

y encontrar a; b; c; d; e; g tales que

mXi=1

�f(xi; yi)

�2 �! min

bajo la condici�on ac � b2 = 1 para la elipse, y ac � b

2 = �1 para la

hip�erbola.

2.- Consid�erese el problema de localizar un barco en el oceano. Para

volver el c�alculo m�as simple, se supondr�a que la curvatura terrestre

es despreciable y que todos los puntos est�an situados en el sistema

de coordenadas rectangulares (x; y). Sobre el barco, se mide el �angulo

entre el eje x y las varias estaciones emisoras, cuyas coordenadas son

conocidas.

i xi yi �i

1 8 6 42

2 �4 5 158

3 1 �3 248

Page 223: alisis erico

212 IV Ecuaciones No Lineales

Te�oricamente, la posici�on (x; y) del barco satisface la relaci�on

arctan

�y � yi

x� xi

�= �i 8i:

Encontrar la posici�on probable de �este. Las coordenadas aproximadas

del barco son x0 = 3; y0 = 2.

Atenci�on.- Hacer los c�alculos en radianes y utilizar siempre la misma

rama de la funci�on arctan.

Page 224: alisis erico

Cap��tulo V

C�alculo de Valores Propios

La determinaci�on de valores propios o autovalores de una matriz A es

muy corriente en la resoluci�on de m�ultiples problemas. Sus aplicaciones van

desde problemas de minimizaci�on y maximizaci�on, soluci�on de sistemas de

ecuaciones diferenciales, ecuaciones con derivadas parciales, etc. El c�alculo

de valores propios y la determinaci�on de vectores propios para matriz de

un orden inferior o igual a 3 no presenta mayor problema, puesto que su

soluci�on depende del polinomio caracter��stico cuyo grado en este caso es

inferior o igual a 3. Sin embargo, aqu�ellos problemas, donde se requiere saber

los valores y vectores propios, provienen de matrices cuyo orden es mucho

mas grande que 3 Es por eso, necesario e imprecindible formular m�etodos y

algoritmos, lo mas e�cientes posibles, teniendo en cuenta las particularidades

de las matrices que son estudiadas. Ahora bien, la mayor parte de los m�etodos

consevidos sirven para matrices sim�etricas o matrices normales, pues son

�estas, las que se encuentran en la mayor parte de los problemas.

En este cap��tulo, se estudiar�an y formular�an tales m�etodos, pero se

comenzar�a haciendo una introducci�on te�orica del problema de la deter-

minaci�on de autovalores y vectores propios. Como segunda parte de este

cap��tulo, se tendr�a la formulaci�on de estos m�etodos.

Page 225: alisis erico

V.1 Teor��a Cl�asica y Condici�on del Problema

En esta secci�on, se tratar�a los aspectos te�oricos indispensables para la

comprensi�on del problema de la evaluaci�on de valores propios de una matriz

A de orden n.

De�nici�on V.1.1.- Sea A una matriz de n � n a coe�cientes complejos o

reales. � 2 C es un valor propio, si existe x 2 C n no nulo, tal que

Ax = �x: (V:1:1)

Si este es el caso, x es un vector propio asociado al valor propio �.

Proposici�on V.1.2.- Sea A 2 Mn(C ), � 2 C es un valor propio, si y

solamente si

ker(A� �I) 6= f0g:

Demostraci�on.- Resultado inmediato de la de�nici�on. �

Consecuencia de la anterior proposici�on, se tiene que � es un valor propio

si y solamente si

det(A� �I) = 0; (IV:1:2)

de donde, se tiene la:

De�nici�on V.1.3.- El polinomio caracter��stico de la matriz A 2 Mn(Cn )

est�a dado por

�A(�) = det(A� �I): (IV:1:3)

Por consiguiente, se deduce facilmente que � es un valor propio de A

si y solamente si � es una raiz de �A(�). Por otro lado, este polinomio es

a coe�cientes complejos, de donde existen n valores propios, contando su

multiplicidad, de la matriz A 2Mn(C ).

Proposici�on V.1.4.- Valor propio es una propiedad invariante por simila-

ridad, es decir si B = T�1AT , con T inversible, entonces A y B tienen los

mismos valores propios.

Demostraci�on.- En efecto, sea � valor propio de A, entonces existe un

vector propio asociado a � que se lo denota por v, se tiene

BT�1v = T

�1ATT

�1v = T

�1Av = �T

�1v;

de donde � es un valor propio de B con T�1v valor propio asociado. �

Page 226: alisis erico

V.1 Teor��a Cl�asica y Condici�on del Problema 215

De�nici�on V.1.5.- Sea A 2Mn(C ), se de�ne la adjunta de A por

A�

ij = �aji:

De�nici�on V.1.6.- Se dice que una matriz U es unitaria si

U�U = I:

Vale la pena recalcar, que una matriz ortogonal a coe�cientes reales

es unitaria, y rec��procamente una matriz unitaria a coe�cientes reales es

ortogonal, en el caso en que existieran coe�cientes complejos no reales la

situaci�on cambia. Por otro lado, es facil ver que el conjunto de las matrices

unitarias forman un grupo para la multiplicaci�on de matrices.

Teorema V.1.7.- Schur. Para cada matriz A 2 Mn(C ), existe una matriz

Q unitaria, tal que

Q�AQ =

0BB@�1 � � � � �0 �2 �

. . .

0 �n

1CCA :

Demostraci�on.- Sea A una matriz cualquiera, entonces existe �1 que es

raiz de det(A��I), de donde existe v1 vector propio asociado a �1, se puedesuponer, sin perder generalidad, que kv1k2 = 1. Se plantea

Q1 = (v1; v2; : : : ; vn);

con v2; : : : ; vn elegidos de manera que Q1 sea unitaria. Esta elecci�on es

posible con el procedimiento de Gramm-Schmidt en el caso complejo. Se

observa inmediatamente, que

AQ1 = Q1

0BB@�1 � : : : �0...

0

A(1)

1CCA :

De la misma manera se encuentra una matriz �Q2 de orden n� 1, tal que

A(1) �Q2 = Q2

0BB@�2 � : : : �0...

0

A(2)

1CCA ;

Page 227: alisis erico

216 V C�alculo de Valores Propios

y planteando

Q2 =

�1 0

0 �Q2

�;

se tiene

AQ1Q2 = Q2Q1

0BBBB@�1 �0 �2

� � � � �0...

0

A(2)

1CCCCA :

repetiendo el procedimiento las veces que sea necesario, se tiene el resul-

tado deseado. Cabe recalcar que este procedimiento da la descomposicion

requerida en a lo m�as n pasos. �

Teorema V.1.8.- Si A es normal, es decir A�A = AA�, entonces existe una

matriz unitaria Q tal que

Q�AQ =

0@�1 0. . .

0 �n

1A

Demostraci�on.- Si la matriz A es normal y Q es unitaria, entonces Q�AQ

es normal. En efecto

(Q�AQ)�

(Q�AQ) = Q�A�QQ

�AQ

= Q�AA

�Q

= (Q�AQ) (Q�AQ)�

:

queda por demostrar, que si

B =

0BB@�1 � � � � �0 �2 �

. . .

0 �n

1CCAes triangular y normal, entonces

B =

0@�1 0...

0 �n

1A:

Puesto que BB� = B�B, se tiene

Page 228: alisis erico

V.1 Teor��a Cl�asica y Condici�on del Problema 217

0BB@��1 0 � � �� �

�2 0. . .

� ��n

1CCA0BB@�1 � � � � �0 �2 �

. . .

0 �n

1CCA

=

0BB@�1 � � � � �0 �2 �

. . .

0 �n

1CCA0BB@��1 0 � � �� �

�2 0. . .

� ��n

1CCA ;

de donde

j�1j2 = j�1j2 + j�j2 + � � �+ j�j2 ;

dando como resultado que la primera �la fuera del coe�ciente de la diagonal

es nulo. Se continua con el mismo procedimiento hasta mostrar que B es

diagonal. �

La condici�on del Problema a Valores Propios

Sea,A una matriz cualquiera a coe�cientes complejos de orden n. Al igual que

en cap��tulo II, es importante conocer la condici�on del problema planteado,

es decir la determinaci�on de valores propios. Para tal efecto sea �A la matriz

con errores de redondeo de A, repasando la secci�on II.1, se tiene que los

coe�cientes de �A satisfacen

�aij = aij(1 + �ij) j�ij j � eps;

donde �aij son los coe�cientes de �A, aij los coe�cientes de A y eps la precisi�on

de la computadora. Por consiguiente, el estudio de los valores propios de �A

pueden estudiarse de manera, m�as general, para A + �C, con cij =�ij

eps

de

donde jcij j � jaij j. De�niendo

f(�; �) = det(A+ �C � �I);

se tiene inmediatamente que

f(0; �) = �A(�):

Sup�ongase que �1 es una raiz simple de �A(�), entonces se tiene

f(0; �1) = 0;

@f

@�

(0; �1) 6= 0:

Page 229: alisis erico

218 V C�alculo de Valores Propios

Por el teorema de las funciones impl��citas, se deduce que existe un vecindario

de (0; �1) en el cual existe una funci�on �(�), tal que

f(�; �(�)) = 0;

con

�(�) = �1 + ��0

1 +O(�2):

Por consiguiente, se tiene el siguiente:

Teorema V.1.9.- Sea �1 una raiz simple de �A(�), entonces para � ! 0,

existe un valor propio �(�) de A+ �C, tal que

�(�) = �1 + �

u�

1Cv1

u�

1v1

+O(�2) (V:1:4)

donde Av1 = �1v1 y u�1A = �1u�

1, u y v no nulos.

Demostraci�on.- Por el teorema, de las funciones impl��citas se tiene

(A+ �C)v(�) = �(�)v(�);

mas precisamente

(A+ �C)(v1 + �v0

1 +O(�2)) = (�1 + ��0

1 +O(�2))v1;

comparando los t�erminos de igual grado en cada miembro de la ecuaci�on

anterior, se tiene:

�0 : Av1 = �1v1;

�1 : Av

0

1 + Cv1 = �1v0

1 + �0

1v1;

de donde

(A� �1I) v0

1 = �Cv1 + �0

1v1;

multiplicando �esta �ultima por u�1, se obtiene

0 = �u�1Cv1 + �0

1u�

1v1:

Corolario V.1.10.- Si A es normal con valores propios diferentes, entonces����u�1Cv1u�

1v1

���� � kCk ;es decir, el problema est�a bien condicionado.

Page 230: alisis erico

V.1 Teor��a Cl�asica y Condici�on del Problema 219

Demostraci�on.- A es normal, por consiguiente existe una matrizQ unitaria

tal que

Q�AQ =

0@�1 0. . .

0 �n

1A;

una veri�caci�on inmediata muestra que v1 es la primera columna de Q, as��

mismo u�1 es la primera �la de Q�, de donde v1 = v1, por lo tanto, se obtiene����u�1Cv1

u�

1v1

���� �ju�1Cv1jkv1k2

�kv1k kCv1kkv1k2

�kCk :�

Ejemplos

1.- Se considera la matriz A de�nida por

A =

�1 �

0 2

�:

Es muy simple darse cuenta, que � = 1 es un valor propio de A, por

consiguiente por simple inspecci�on, se obtiene:

v1 =

�1

0

�;

u1 =1p

1 + �2

�1

��

�;

de donde

u�

1v1 =1p

1 + �2:

La matriz A es mal condicionada para el c�alculo de los valores propios

cuando �!1, ya que u�1v1 ! 0.

2.- El teorema de descomposici�on de Jordan indica que toda matriz A

es similar a una matriz de tipo Jordan, es decir existe una matriz T

inversible tal que

T�1AT = J;

Page 231: alisis erico

220 V C�alculo de Valores Propios

donde J es una matriz diagonal por bloques,

J =

0B@ J(n1; �1). . .

J(nk; �k)

1CA ;

y

J(ni; �i) =

0@�i 1. . .

. . .

�i

1A:

Ahora bien, sup�ongase que A es similar a la matriz de tipo Jordan, dada

por 0B@1 1 0 0

0 1 1 0

0 0 1 1

0 0 0 1

1CA ;

entonces se tiene que

det(A+ �C � �I) = (1� �)4 + �+O(�2);

donde C es una perturbaci�on de A.

Calculando los valores propios de A + �C, ver �gura V.1.1, es facil ver

que el problema de determinar valores propios de A es un problema mal

condicionado

1

Figura IV.1.1. Determinaci�on de los valores propios de A+ �C

Page 232: alisis erico

V.1 Teor��a Cl�asica y Condici�on del Problema 221

Ejercicios

1.- Una matriz A es de tipo Frobenius, si es de la forma

A =

0BB@0 1 0 � � � 0... 0

. . ....

0 � � � 0 1

�a0 �a1 � � � �an�2 �an�1

1CCA :

a) Veri�car que

det(A� �I) = (�1)n��n + an�1�

n�1 + � � �+ a1�+ a0

�:

b) Calcular los vectores propios de A.

2.- Calcular los valores propios de la matriz tridiagonal

A =

0BBBB@a c

b a c 0

b a c

0 b � � �. . .

1CCCCA9>>>>=>>>>;n:

Las componentes del vector propio (v1; v2; � � � ; vn)t satisfacen una ecua-

ci�on de diferencias �nitas con v0 = vn+1 = 0.

Veri�car que vj = Const(�j1 � �

j2) donde

�1 + �2 =a� �

c

; �1�2 =b

c

;

��1

�2

�n+1

= 1:

3.- Mostrar que los valores propios de una matriz A satisfacen

nXi=1

j�ij2 �nX

i;j=1

jaij j2 :

Se tiene igualdad, si y solamente si, A es diagonalizable con una matriz

unitaria.

Indicaci�on.-

nXi;j=1

jaij j2 es la traza de A�A que es invariante respecto a

la transformaci�on A! Q�AQ.

Page 233: alisis erico

222 V C�alculo de Valores Propios

4.- Sup�ongase que los valores propios de A con aij 2 R son: �+ i�, �� i�;�3; : : : ; �n con � 6= 0, �3; : : : ; �n diferentes. Mostrar que existe una

matriz T inversible con coe�cientes reales tal que

T�1AT =

0BBBB@� �

�� �

0

0

�3

. . .

�n

1CCCCA :

Dar una relaci�on entre las columnas de T y los vectores propios de A.

5.- Sea A una matriz sim�etrica y B una matriz cualquiera. Para cada valor

propio �B de B existe un valor propio de �A de A tal que

j�A � �B j � kA�Bk2 :

Indicaci�on.- Mostrar primero para un cierto v

v = (A� �BI)�1(A�B)v;

deducir que

1 � (A� �BI)

�1(A�B) � kA�Bk

(A� �BI)�1 :

6.- Sea A una matriz sim�etrica. Para cada ��ndice i existe un valor propio �

de A tal que

j�� aiij �sX

j 6=i

jaij j2:

Indicaci�on.- Utilizar el ejercicio 5 con una matriz B conveniente.

Page 234: alisis erico

V.2 Determinaci�on de Valores Propios

En la actualidad, existen muchos m�etodos num�ericos para el c�alculo de valo-

res propios de una matriz. Sin embargo, la mayor parte de las aplicaciones en

f��sica y otras disciplinas requieren en la mayor��a de los casos, la utilizaci�on

de matrices normales. Motivo por el cual, existen m�etodos espec���cos a este

tipo de matrices. Se comenzar�a, esta secci�on formulando el m�etodo de la

Potencia.

El M�etodo de la Potencia

Sea, A una matriz de n�n con coe�cientes reales o complejos, el objetivo es

determinar el valor propio m�as grande en valor absoluto. Sea y0 2 Rn (C n )arbitrario, se de�ne la sucesi�on fyng � Rn de manera recursiva, como

yn+1 = Ayn; (V:2:1)

es evidente que yn = Any0. Esta sucesi�on tiene propiedades interesantes para

la determinaci�on del valor propio m�as grande, que est�an dadas en el:

Teorema V.2.1.- Sea A diagonalizable, es decir que existe una matriz T

inversible tal que

T�1AT =

0@�1 0. . .

0 �n

1A;

sup�ongase que los valores propios satisfacen

j�1j > j�2j � j�3j � � � � � j�nj

y e�1T�1y0 6= 0. Entonces la sucesi�on fykg de�nida por yk+1 = Ayk satisface:

a) yk = �k1

"a1v1 +O

�����2�1

����k!#

,

donde Av1 = �1v1, Avj = �jvj ,

y0 = a1v1 + a2v2 + � � �+ anvn, y

T = (v1; � � � ; vn).b) Se tiene el cociente de Rayleigh, dado por

y�

kAyk

y�

kyk

= �1 +O �����2

�1

����k!; (V.2:2)

si adem�as, la matriz A es normal, entonces

y�

kAyk

y�

kyk

= �1 +O �����2

�1

����2k!: (V.2:3)

Page 235: alisis erico

224 V C�alculo de Valores Propios

Demostraci�on.- Los vectores v1; � � � ; vn forman una base del espacio C n ,

de donde

y0 = a1v1 + a2v2 + � � �+ anvn;

deduciendose

yk = a1�k1v1 + a2�

k2v2 + � � �+ an�

knvn;

por consiguiente

yk

�k1

= a1v1 + a2

��2

�1

�kv2 + � � �+ an

��n

�1

�kvn;

con lo queda demostrado el punto a). Para la demostraci�on del punto b), se

tiene:

yk = �k1a1v1 + �

k2a2v2 + � � �+ �

knvn;

Ayk = �k+11 a1v1 + �

k+12 a2v2 + � � �+ �

k+1n vn;

y�

kyk =Xi;j

��ki �

kj v�

i vj�ai�aj ;

y�

kAyk =Xi;j

��ki �

k+1j v

i vj�ai�aj ;

obteniendo el cociente de Rayleigh, dado por

y�

kAyk

y�

kyk

= �1 +O �����1

�2

����2!;

ahora bien si A es normal, se tiene que v�i vj = 0, si i 6= j; obteniendo para

y�

kAyk =Xi

�i j�ij2k v�i vi;

y�

kyk =Xi

j�ij2k v�i vi:

Ejemplo

Consid�erese, la matriz A de�nida por

A =

0BBB@2 1 0 0 0

1 2 1 0 0

0 1 2 1 0

0 0 1 2 1

0 0 0 1 2

1CCCA ;

Page 236: alisis erico

V.2 Determinaci�on de Valores Propios 225

utilizando el ejercicio 2 de la secci�on V.1, se obtiene que el valor propio

mas grande est�a dado por

�1 = 2(1 +

p3

2) � 3; 73205;

Tomando y0 = (1; 1; 1; 1; 1)t, se obtiene los valores de �1 dadas en la

tabla V.2.1.

Tabla V.2.1. Valores de �1.

Iter. �1 Iter. �1

1 3:6 2 3:696969

3 3:721854 4 3:729110

5 3:731205 6 3:731808

7 3:731981 8 3:732031

9 3:732045 10 3:732049

11 3:732050 12 3:732051

13 3:732051 14 3:732051

Las componentes del valor propio respecto a �1 est�an dados por

v =

0BBB@1:07735026

1:86602540

2:1547005

1:866025

1:07735026

1CCCA :

Uno de los inconvenientes de utilizar el m�etodo de la potencia es que

la convergencia puede ser muy lenta si j�1=�2j � 1. Sin embargo, existe una

modi�caci�on del m�etodo de la potencia para acelerar la convergencia. Este

m�etodo es m�as conocido como el:

M�etodo de la Potencia Inversa

La modi�caci�on consiste en aplicar el m�etodo de la potencia a

(�I �A)�1

;

donde � es una aproximaci�on del valor propio � buscado de la matriz A. La

justi�caci�on te�orica est�a dada por la siguiente proposici�on:

Proposici�on V.2.2.- � es valor propio de A, si y solamente si,

1

�� �

(V:2:4)

Page 237: alisis erico

226 V C�alculo de Valores Propios

es valor propio de (�I �A)�1.

Demostraci�on.- � es valor propio de A, si y solamente si existe v 6= 0 tal

que

Av = �v;

si y solamente si

(�I �A)v = (�� �)v;

(�I �A)�1v =1

�� �

v:

Por otro lado aplicando, el teorema V.2.1 se tiene que la convergencia

es del orden

O ������ �1

�� �2

����k!:

Sea �� el valor propio m�as grande de (�I �A)�1, entonces se tiene que

�1 = �� 1��

: (V:2:5)

El m�etodo de la potencia da una relaci�on recursiva para los yk, que est�a dada

por

yk+1 = (�I �A)�1yk;

pero en lugar de calcular la inversa de la matriz, se puede resolver la ecuaci�on

(�I �A)yk+1 = yk; (V:2:6)

utilizando para tal efecto el algoritmo de eliminaci�on de Gauss.

En el anterior ejemplo se tenia como valor de �1 = 3:697 despu�es de

2 iteraciones del m�etodo de la potencia inversa. Aplicando el m�etodo de la

potencia inversa con � = 3:697, se obtiene despues de dos iteraciones:

�� = �232:83;�1 = 3:7334052:

Puede suceder que la matriz A sea a coe�cientes reales, sin embargo, el

valor propio buscado no sea real si no que contenga una parte imaginaria.

Sup�ongase que � = � + �i sea una aproximaci�on del valor propio buscado.

Entonces aplicando el m�etodo de la potencia inversa, se tiene�(�+ �i)I �A

�yk+1 = yk; (V:2:7)

Page 238: alisis erico

V.2 Determinaci�on de Valores Propios 227

por otro lado los vectores yk pueden ser descompuestos en un vector real y

otro imaginario, de la manera siguiente

yk = uk + ivk; uk; vk 2 Rn ;

de donde, se obtiene una nueva formulaci�on para el m�etodo de la potencia

inversa, dada por��I �A ��I�I �I �A

��uk+1

vk+1

�=

�uk

vk

�;

y el cociente de Rayleigh est�a dado por

y�

kyk+1

y�

kyk

=(utk � iv

tk)(uk+1 + ivk+1)

utkuk + v

tkvk

=(utkuk+1 + v

tkvk+1 + i(utkvk+1 � v

tkuk+1)

utkuk + v

tkvk

: (V:2:8)

Formas Tridiagonales y Matrices de Hessenberg

El m�etodo de la potencia y su version de la potencia inversa son m�etodos

aplicables a matrices, donde el valor propio m�as grande en valor absoluto

lo es estrictamente. Por otro lado es necesario darse un vector inicial cuya

proyecci�on sobre el espacio propio, respecto a este valor propio sea no nula,

es decir se debe tener una idea clara de la posible ubicaci�on de los vectores

propios. Ahora bien, en muchos casos es necesario conocer los diferentes

valores propios, situaci�on que no es posible con las dos versiones del m�etodo

de la potencia estudiados m�as arriba.

Una gran clase de m�etodos de c�alculo de valores propios est�an dise~nados

para operar con matrices tridiagonales, sobre todo si �estas son sim�etricas.

El objetivo de este paragrafo es construir algoritmos que permitan tridiago-

nalizar una matriz arbitraria, conservando las propiedades originales en los

casos en que sea posible.

Sea, A una matriz arbitraria de orden n � n, se busca una transfor-

maci�on, T tal que

T�1AT = H =

0BBBBB@� � � � ��

.... . .

.... . .

...

� �

1CCCCCA :

H es conocida bajo el nombre de matriz de Hessenberg. A continuaci�on, se

propone como algoritmo de reducci�on a la forma de Hessenberg, utilizando

matrices de tipo L, del algoritmo de eliminaci�on de Gauss.

Page 239: alisis erico

228 V C�alculo de Valores Propios

Algoritmo 1.

1.- Sea A una matriz arbitraria,

se busca jak1j = maxj=2;:::;n

jaj1j,se intercambia las �las k y 2 y tambi�en las columnas k y 2,

se de�ne la matriz L2 por

L2 =

0BBBB@1 0

0 1

0 �l32 1...

. . .

0 �ln2 1

1CCCCA ; li2 =ai1

a21

; i = 2; : : : ; n;

se obtiene

L2AL�12 =

0BBBB@� � � � � ��0...

0

A(1)

1CCCCA :

2.- Se aplica el paso 1 a la matriz A(1), y se continua hasta obtener una

matriz de Hessenberg.

La principal desventaja de utilizar este primer algoritmo propuesto es

que, si A es una matriz sim�etrica, H no lo es en general. Recordando el

cap��tulo II.5, existe el algoritmo QR para reducir una matriz A a la forma

triangular. Es facil veri�car que H = QtAQ es sim�etrica, si Q es ortogonal

y A es sim�etrica. Por consiguiente, el segundo algoritmo propuesto utiliza

matrices de Householder para convertir una matriz A en una matriz de

Hessenberg.

Algoritmo 2.

1.- Sea A una matriz arbitraria, que puede escribirse, como

A =

�a11 � � � a1n

A0

1 � � � A0

n

�;

por consiguiente A0k 2 Rn�1 .Se de�ne Q2 por

Q2 =

�1 0

0 Q0

2

�;

donde Q0

2 = I � 2u2ut2, u2 est�a determinado por la condici�on, ver

Cap��tulo V.2,

Q0

2A0

1 =

0BB@�2

0...

0

1CCA ; �2 = signoa21 kA01k2 ;

Page 240: alisis erico

V.2 Determinaci�on de Valores Propios 229

obteniendo

Q2AQ�12 =

0BBBB@� � � � � ��0...

0

A(1)

1CCCCA :

2.- Se procede como en 1, hasta obtener la forma de Hessenberg.

Teorema de Sturm y M�etodo de la Bisecci�on

Al utilizar el algoritmo 2, de la anterior subsecci�on, a una matriz A sim�etrica

se obtiene una matriz tridiagonal sim�etrica, que se la denota nuevamente por

A, para no cargar la notaci�on. Por consiguiente, A es de la forma

A =

0BBBBB@d1 e2

e2 d2 e3

e3

. . .. . .

. . .. . . en

en dn

1CCCCCA : (V:2:9)

Se de�ne, el polinomio p0(x) por

p0(x) = 1; (V:2:10)

y los polinomios pi(x) i = 1; : : : ; n, como

pi(x) = det(Ai � xI); (V:2:11)

donde

A =

�Ai 0

0 �

�;

Ai es la matriz formada por las primeras i �las y columnas de A. Por lo

tanto, se tiene

Pn(x) = det(A� xI): (V:2:12)

Por otro lado, los determinantes que de�nen estos polinomios cumplen la

siguiente relaci�on recursiva

det(Ai�xI) = (di�x) det(Ai�1�xI)� e2i det(Ai�2�xI); i = 2; 3; : : : ; n;

de donde

pi(x) = (di � x)pi�1(x)� e2i pi�2(x); i = 2; 3; : : : ; n: (V:2:13)

Page 241: alisis erico

230 V C�alculo de Valores Propios

Teorema V.2.3.- Sea A una matriz tridiagonal y sim�etrica con los coe�-

cientes ei 6= 0 para i = 2; : : : ; n. Entonces:

a) Las raices de pn(x) = �A(x) son simples,

b) p0

n(�i) � pn�1(�i) < 0 si �i es una raiz de pn(x),

c) pj(x�) = 0 (1 � j � n� 1; x� 2 R) ) pj�1(x

�)pj+1(x�) < 0,

d) p0(x) � 0 para todo x 2 R.Demostraci�on.- El punto d) se veri�ca inmediatamente puesto que p0(x) =

1 por de�nici�on.

La demostraci�on del punto c) se la realiza por el absurdo, en efecto,

si se tuviera pj(x�) = 0 y pj+1(x

�) = 0, utilizando (V.2.13), se tendr��a

p0(x�) = 0 lo cual contradice el hecho que p0(x

�) = 1. Ahora bien, utilizando

nuevamente (V.2.13) se tiene en el caso en que pj(x�) = 0

pj�1(x�) = �e2n�j+1pj+1(x

�):

El punto b) implica el punto a), ya que p0n(�i) 6= 0 conduce a que �i sea

raiz simple. S�olo queda el punto b) por demostrar.

Se de�ne, los polinomios:

qi(x) = (�1)ipi(x)1

e2e3 � � � ei+1

; i = 1; : : : ; n;

q0(x) = p0(x);

donde en+1 = 1. Efectuando c�alculos sobre los polinomios qj(x), se tiene

(�1)iqi(x)e2 � � � ei+1 =(di � x)(�1)i�1qi�1(x)e2 � � � ei� e

2i (�1)i�2qi�2(x)e2 � � � ei�1;

de donde

ei+1qi(x) + (di � x)qi�1(x) + eiqi�2(x) = 0; i = 2; : : : ; n:

Esta �ultima relaci�on puede escribirse de manera matricial, como

0BBBBB@d1 � x e2

e2 d2 � x e3

e3

. . .. . .

: : :

. . . en

en dn � x

1CCCCCA| {z }

A� xI

0BB@q0(x)

q1(x)...

qn�1(x)

1CCA| {z }q(x) 6= 0

=

0BB@0...

0

�qn(x)

1CCA :

Si �i es valor propio de A, entonces q(�i) es un vector propio, derivando

la relaci�on matricial, se obtiene

Page 242: alisis erico

V.2 Determinaci�on de Valores Propios 231

�q(x) + (A� xI)q0(x) =

0BB@0...

0

�q0n(x)

1CCA ;

multiplicando por la traspuesta de q(x), se tiene

�qt(x)q(x) + qt(x)(A � xI)q0(x)| {z }= 0 si x = �i

= qt(x)

0BB@0...

0

�q0n(x)

1CCA ;

de donde

�q0n(�i)qn�1(�i) = �kq(�i)k2< 0;

dando por consiguiente

p0

n(�i)pn�1(�i) < 0:

Cabe remarcar que los polinomios pi(x) i = 0; : : : ; n; forman una

sucesi�on de Sturm, cuyo estudio y c�alculo de raices est�an dados en la

primera secci�on del cap��tulo IV concerniente a la resoluci�on de ecuaciones

polinomiales. Por consiguiente el n�umero de valores propios de la matriz A

en el intervalo [a; b], est�a dado por

w(b)� w(a);

donde w(x) indica los cambios de signo de los polinomios pi(x). La

determinaci�on exacta de los valores propios se efectua mediante el algoritmo

de la bisecci�on, ya estudiado en la secci�on IV.1. Ahora bien, el problema

consiste en encontrar un algoritmo simple que permita evaluar w(x).

Algoritmo para calcular w(x)

Se de�ne la sucesi�on fi(x), i = 1; : : : ; n; por

fi(x) =pi(x)

pi�1(x); (V:2:14)

obteniendo de inmediato, la siguiente relaci�on recursiva para fi(x):

f1(x) = (d1 � x);

fi(x) = (di � x)� e2i

1

fi�1(x); i = 2; : : : ; n:

(V:2:15)

Page 243: alisis erico

232 V C�alculo de Valores Propios

Ahora bien, si por azar, existe x 2 R, i = 2; : : : ; n con fi(x) = 0, (V.2.15)

puede ser modi�cado para evitar la divisi�on por 0, de la manera siguiente:

fi(x) =

8>><>>:(di � x)� e

2i

1

fi�1(x); si fi�1(x) 6= 0;

(di � x)� jeijeps

; si fi�1 = 0:

(V:2:16)

La justi�caci�on de utilizar la sucesi�on fi(x) est�a en la siguiente proposici�on.

Proposici�on V.2.4.- w(x) es igual al n�umero de elementos negativos de�f1(x); f2(x); : : : ; fn(x)

Demostraci�on.- La demostraci�on tiene sus bases te�oricas en el Teorema

de Sylvester, que indica que si A es una matriz, T una matriz no singular,

entonces la matriz B = TtAT tiene el mismo n�umero de valores propios

negativos que la matriz A. Aplicando este teorema a la proposici�on a

demostrar, se tiene

A� xI =

0BB@1

e2=f1(x) 1. . .

en=fn�1 1

1CCA0BB@f1(x)

f2(x). . .

fn(x)

1CCA0BB@1 e2=f1(x)

. . .

1 en=fn�1(x)

1

1CCA ;

de donde A� xI tiene el mismo n�umero de valores propios negativos que el

conjunto ff1(x); f2(x); : : : ; fn(x)g. Por otro lado este n�umero est�a dado porw(x), quedando demostrada la proposici�on. �

Para poder aplicar el algoritmo de la bisecci�on es necesario conocer los

intervalos, donde pueden estar localizados los valores propios, para evitar

busquedas inutiles. El siguiente teorema es muy util para determinar las

regiones donde se encuentran estos.

Teorema V.2.5.- Gerschgorin. Sea � un valor propio de Amatriz, Entonces

existe i tal que

j�� aiij �Xj 6=i

jaij j : (V:2:17)

Demostraci�on.- Sea x 6= 0, el vector propio asociado a �, por consiguiente

x = (x1; x2; : : : ; xn)t. Sea i, tal que

jxij � jxj j 8j;

Page 244: alisis erico

V.2 Determinaci�on de Valores Propios 233

puesto que x 6= 0, se tiene necesariamente que xi 6= 0. Efectuando c�alculos

se obtiene:nXj=1

aijxj = �xi;Xj 6=i

aijxj = (�� aii)xi;

pasando a valores absolutos se tiene:

j�� aiij jxij �Xj 6=i

jaij j jxj j ;

j�� aiij �Xj 6=i

jaij j :

Generalizaci�on del M�etodo de la Potencia

Al formular el m�etodo de la potencia, se buscaba el valor propio, cuyo

valor absoluto era m�aximo, de una matriz A. Ahora bien, existen muchos

problemas en los cuales se requiere conocer no solamente el valor propio m�as

grande en valor absoluto, sino tambi�en los otros valores propios. El prop�osito

de esta subsecci�on es formular un m�etodo que permita calcular los dos valores

propios m�as grandes en m�odulo. Para tal efecto, es necesario suponer que

�1,�2; : : : ; �n valores propios de A satisfacen

j�1j > j�2j > j�3j � � � � j�nj :Recordando el m�etodo de la potencia, se tiene la sucesi�on de los fykg

de�nida por

yj+1 = Ayj ;

si y0 cumple ciertas condiciones, se tiene

yj = �

j1[a1v1 +O

�����2�1

����j!;

donde v1 es el vector propio asociado a �1 y a1 la componente de y0respecto a v1. Para evitar explosiones en los c�alculos de los yj se puede

mejorar el algoritmo de la potencia exigiendo que kyjk2 = 1, y adem�as para

evitar oscilaciones en los yj , se plantea por consiguiente

yj+1 =Ayj

kAyjk2signo

�(Ayj)1

(yj)1

�; (V:2:18)

donde (yj)1 es la primera componente de yj . Puesto que los yj son de

norma igual a 1, haciendo referencia a vectores ortonormales, se cambia la

notaci�on de yj por qj , dando por consiguiente la siguiente de�nici�on recursiva

para los qj :

Page 245: alisis erico

234 V C�alculo de Valores Propios

q0 arbitrario, tal que kq0k2 = 1;

kqjk2 = 1;

(j+1)1 qj+1 = Aqj :

(V:2:19)

Por el teorema V.2.1, se tiene que:

limj!1

qj = v1;

limj!1

(j)1 = �1;

con v1 valor propio de norma unitaria respecto a �1. Por otro lado la

velocidad de convergencia de (V.2.19), est�a dada por O�(�2=�1)

j�.

Por consiguiente, el problema consiste en calcular �1 y �2, si es posible

al mismo tiempo. Sup�ongase que conoce de antemano �1 y v1. Considerando

el subespacio vectorial V de C n de�nido por

V =�u 2 C n ju�v1 = 0

;

espacio de dimensi�on n� 1. La matriz A induce una aplicaci�on lineal que se

la denota por la letra A tambien, la cual est�a de�nida por

A : C n �! C n

y �! Ay

;

de�niendo la aplicaci�on lineal f : V �! V como f = p � AjV donde p es

la proyecci�on ortogonal de C n en V , y AjV es la restricci�on de A sobre el

espacio V se tiene el:

Teorema V.2.6.- Los valores propios de f son: �2; : : : ; �n, m�as precisa-

mente se tiene

f(v) = U

0BB@�1 0 0

�2 r22 � � � r2n

. . .

�n

1CCAU�v;

donde v 2 V y

U�AU =

0BBB@�1 r12 � � � r1n

. . .. . .

�n

1CCCAes la descomposici�on de Schur dada en teorema V.1.7.

Page 246: alisis erico

V.2 Determinaci�on de Valores Propios 235

Demostraci�on.- Sea U = (u1; u2; : : : ; un) matriz unitaria con u1 = v1,

entonces cualquier elemento v 2 V se escribe, como

v =

nXi=2

�iui;

por consiguiente

v = U�; con � =

0BB@0

�2

...

�n

1CCA ;

de donde f(v) = AU�.

Ahora bien, si U es la matriz unitaria de la descomposici�on de Schur de

A, se tiene

f(v) = U

0BBB@�1 r12 � � � r1n

. . .. . .

�n

1CCCAU�U�;

como U� = v, se tiene despu�es de una simple veri�caci�on que

f(v) = U

0BB@�1 0 0

�2 r22 � � � r2n

. . .

�n

1CCAU�v:

El teorema precedente proporciona un medio te�orico para calcular �2,

el cual es el m�etodo de la potencia a f . Por lo tanto, si se tiene determinado

�1 y v1 el algoritmo de la potencia, se lo formula de la siguiente manera:

r0; tal que v�1r0 = 0 y kr0k2 = 1;

�j = v�

1Arj ;

krjk2 = 1;

Arj � �jv1 = �

(j+1)2 rj+1:

(V:2:20)

Es facil veri�car que

limj!1

(j)2 = �2;

limj!1

rj = u2;

Page 247: alisis erico

236 V C�alculo de Valores Propios

donde v2 es el vector propio de norma unitaria respecto a �2.

Ser��a interesante poder calcular �1 y �2 al mismo tiempo, sin necesidad

de determinar primero �1 y luego �2, esto es posible mediante el siguiente

algoritmo.

Se da, como vectores iniciales: q0 y r0, tales que:

kq0k = 1; kr0k = 1; y r�0q0 = 0: (V:2:21)

Se supone, que se ha calculado

qj ; con kqjk = 1; rj ; con krjk = 1 y r�j qj = 0;

entonces se aplica el algoritmo de la potencia de la siguiente manera

Aqj = �

(j+1)1 qj+1;

kqj+1k = 1;

��������j+1 = q

j+1Arj ;

Arj � �j+1qj+1 = �

j+12 rj+1;

krj+1k = 1:

(V:2:22)

Se puede demostrar que tambi�en

limj!1

(j)2 = �2;

limj!1

rj = u2;

donde u2 es la segunda columna de la matriz U de la descomposici�on de

Schur de A. Vale la pena recalcar, el siguiente hecho

A (qj ; rj)| {z }Uj

= (qj+1; rj+1)| {z }Uj+1

��

(j+1)1 �

(j+1)

0 �

(j+1)2

�| {z }

Rj+1

;

de donde planteando U0 = (q0; r0) con U�

0U0 =

�1 0

0 1

�, el algoritmo de la

potencia generalizada, se expresa de manera matricial como

AUj = Uj+1Rj+1;

donde el segundo miembro no es nada m�as que la descomposici�on QR, pero

esta vez utilizando matrices unitarias.

Si la matriz A tiene sus n valores propios diferentes, y adem�as que

veri�can

j�ij > j�2j > � � � > j�nj ;

Page 248: alisis erico

V.2 Determinaci�on de Valores Propios 237

el m�etodo de la potencia puede ser aplicado para calcular de manera

simult�anea los n autovalores. Se toma U0 una matriz unitaria arbitraria

que puede ser por ejemplo U0 = I . Sup�ongase que se ha calculado Rj y Uj ,

entonces se tiene

AUj = Uj+1Rj+1: (V:2:23)

Se puede demostrar que:

Rj �! R =

0@�1 � � � �. . .

�n

1A;

Uj �! U;

cuando j !1, donde AU = UR es la descomposici�on de Schur.

El M�etodo QR

Al �nalizar la �ultima subsecci�on, se dio una generalizaci�on del m�etodo de la

potencia. Por razones de presentaci�on, se ver�a en esta secci�on un algoritmo

equivalente a este �ultimo, conocido como el m�etodo QR.

La versi�on simple del algoritmoQR es aplicable a matrices, cuyos valores

propios son reales y diferentes en valor absoluto, se lo de�ne recursivamente

de la siguiente manera:

A1 = A = Q1R1;

Aj+1 = RjQj = Qj+1Rj+1;(V:2:24)

donde Qj es una matriz ortogonal, y R es una matriz triangular superior. De

donde, este algoritmo es equivalente al m�etodo de la potencia generalizada.

En efecto, planteando

Uj = Q1 � � �Qj ;

se tiene

Uj+1Rj+1 = Q1Q2 � � �Qj Qj+1Rj+1| {z }RjQj

;

llegando �nalmente a

Uj+1Rj+1 = Q1R1| {z }A

Q1Q2 � � �Qj| {z }Uj

:

Puesto que el m�etodo QR y el algoritmo de la potencia son equivalentes, es

facil ver que

Rj �! R =

0@�1 � � � �. . .

�n

1A;

Qj �! I:

Page 249: alisis erico

238 V C�alculo de Valores Propios

Por otro lado, las matrices Aj+1 y Aj tienen los mismos valores propios, pues

Aj+1 = Q�

jAjQj

Indudablemente, el m�etodo QR es aplicable a toda matriz cuyos valores

propios son diferentes en m�odulo, sin embargo es conveniente reducir la

matriz A a una de tipo Hessenberg, ya que si A es una matriz de Hessenberg,

las matrices Ak construidas a partir del algoritmo QR lo son tambi�en, ver

ejercicio 5, adem�as el costo de operaciones es menor.

El siguiente resultado, enunciado sin demostraci�on, indica la velocidad

de convergencia del m�etodo QR donde A es una matriz de tipo Hessenberg.

Esta relaci�on esta dada por

a

(j+1)n;n�1

a

(j)n;n�1

��

�n

�n�1

�; (V:2:25)

es decir

a

(j)n;n�1 = O

��n

�n�1

�j!: (V:2:26)

Uno de los problemas con que se confronta es que la convergencia puede

ser demasiado lenta, sobre todo si j�nj � j�n�1j; pero este inconveniente

puede superarse aplicando el algoritmo QR, en lugar de la matriz A, a

A� pI; (V:2:27)

donde p � �n. p se lo conoce con el nombre de shift. En este caso la velocidad

de convergencia est�a dada por

a

(j)n;n�1 = O

��n � p

�n1 � p

�j!: (V:2:28)

El algoritmo QR con shift

Antes de comenzar el algoritmo QR, se supone que la matriz A est�a

expresada bajo la forma de una matriz de Hessenberg. El algoritmo QR

con shift, se lo de�ne de manera recursiva como:

A1 = A;

QjRj = Aj � pjI;

Aj+1 = RjQj + pjI:

(V:2:29)

Las dos maneras m�as corrientes de elegir el shift pk son:

Page 250: alisis erico

V.2 Determinaci�on de Valores Propios 239

1.- Se plantea pk = a

(k)n;n.

Este procedimiento funciona bien, si todos los valores propios de la

matriz A son reales.

2.- Se toma pk, al valor propio de la matriz a

(k)n�1;n�1 a

(k)n�1;n

a

(k)n;n�1 a

(k)n;n

!;

que es m�as pr�oximo al coe�ciente a(k)n;n.

Una interrogante muy importante surge, cuando detener el algoritmo

QR. Uno de los criterios m�as usados es el siguiente. Si���a(k)n;n�1

��� � eps

����a(k)nn

���+ ���a(k)n�1;n�1

���� ; (V:2:30)

se plantea

�n = a(k)nn : (V:2:31)

Luego se continua con la matriz A(k) de dimension n � 1 resultante, hasta

obtener todos los valores propios de la matriz A.

La experiencia n�umerica muestra que el algoritmo QR converge lineal-

mente, mientras que el algoritmoQR con shift tiene convergencia cuadr�atica.

Ejemplos

1.- Consid�erese, la matriz A de�nida por

A =

0@ 10 7 6

0:1 5 3

0 0:1 1

1Amatriz de tipo Hessenberg. Por lo tanto lista, para ser aplicado el m�etodo

QR y el m�etodoQR con shift. A continuaci�on, se mostrar�a las iteraciones

resultantes del m�etodo QR sin shift

A2 =

10:070493 7:0701525 5:8875209

:49305211� 001 4:9895287 2:8589253

:00000000 :19067451� 001 :93997833

A3 =

10:105227 7:0677632 5:8742925

:24258892� 001 4:9656988 2:8145741

:00000000 :35752960� 002 :92907381

A4 =

10:122222 7:0596308 5:8759333

:11880000� 001 4:9507267 2:7975584

:00000000 :66976513� 003 :92705007

Page 251: alisis erico

240 V C�alculo de Valores Propios

Puede observarse que la convergencia es lineal y adem�as se tiene

a

(k+1)21

a

(k)21

� 1

2;

a

(k+1)32

a

(k)32

� 1

5;

por consiguiente se necesitan por lo menos 10 iteraciones para obtener

a

(k)32 � 10�8 y por lo menos 23 iteraciones para tener a

(k)21 � 10�8.

Para poder observar la verdadera potencia de aplicar el m�etodo QR con

shift, a continuaci�on se muestran las 6 iteraciones que son necesarias,

para obtener los valores propios de la matriz A.

p1 = 1:0

A2 =

10:078261 7:0950933 5:8540158

:43358029� 001 4:9964769 2:8312527

:00000000 �:19045643� 002 :92526107

p2 = :92526107

A3 =

10:112141 7:0679606 5:8707690

:19226871� 001 4:9612733 2:8312527

:00000000 �:62453559� 006 :92526107

p3 = :92526107

A4 =

10:126953 7:0571468 5:8766286

:84142592� 002 4:9464609 2:7929532

:00000000 �:67414063� 013 :92658424

p4 = :84142592� 002

A5 =10:138415 7:0571468

�:18617346� 004 4:9349986

p5 = �:18617346� 004

A6 =10:138390 7:0497319

�:90446847� 010 4:9350238

obteniendo, as�� los siguientes valores propios:

�1 = 10:138390;

�2 = 4:9350238;

�3 = 0:92658424:

2.- Puede observarse en el ejemplo anterior que la convergencia del m�etodo

QR con shift es cuadr�atica, para ilustrar este hecho, consid�erese

A =

�2 a

� 1

�;

Page 252: alisis erico

V.2 Determinaci�on de Valores Propios 241

con � bastante peque~no. Aplicando el m�etodoQR con shift se tiene p1 = 1

y

A� p1I =

�1 a

� 0

�;

obteniendo

Q1R1 =

�1=p1 + �

2 ��=p1 + �

2

�=

p1 + �

2 1=p1 + �

2

��p1 + �

2a=

p1 + �

2

0 ��a=p1 + �

2

�;

lo que da

A1 =

�� �

��2=1 + �2 �

�;

de donde la convergencia es cuadr�atica, si a es arbitrario. Si la matriz

es sim�etrica, se puede observar que la convergencia ser��a c�ubica en este

ejemplo, tomar a = �.

Ejercicios

1.- Calcular los valores propios y vectores propios de

A =

0B@2 1

1 2 12

0 1 2 1

1 2

1CA ;

utilizando el m�etodo de la potencia inversa de Wielandt.

2.- Sea

A =

0BBB@88� 7

p6

360296� 169

p6

1800�2 + 3

p6

225296 + 169

p6

180088 + 7

p6

360�2� 3

p6

22516�

p6

3616 +

p6

3619

1CCCA :

Calcular �; �; � y una matriz T a coe�cientes reales, tal que

T�1 =

0@ � � 0

�� � 0

0 0 �

1A:

La matriz A de�ne un m�etodo de Runge-Kutta.

3.- Sea A una matriz de orden s que es diagonalizable, y sea J una matriz

de orden n. Se de�ne el producto tensorial A J por

A J =

0@a11J � � � a1sJ

......

as1J � � � assJ

1A:

Page 253: alisis erico

242 V C�alculo de Valores Propios

Encontrar un algoritmo e�caz para resolver un sistema lineal con la

matriz

I �A J:

Indicaciones:

a) Mostrar que

(AB)(C C) = (AC) (BD):

b) Sup�ongase que

T�1AT = � =

0@�1

. . .

�s

1Ay utilizar la descomposici�on

I �A J = (T I)(I � � J)(T�1 I) (V2:32)

c) estimar el n�umero de multiplicaciones necesarias, si:

| se calcula la descomposici�on LR de I �A J ,

| se utiliza (V.2.32); el trabajo principal es el c�alculo de la descom-

posic�on LR de I � � J .

4.- Calcular todos los valores propios de

A =

0BBBB@1 �1�1 2 �1

. . .. . .

. . .

�1 2 �1�1 3

1CCCCA9>>>>=>>>>;n

para n = 10 y n = 20. Utilizar el m�etodo de la bisecci�on.

5.- Mostrar que si la matriz A = A1 es una matriz de Hessenberg, las

matrices Ak, k = 2, construidas en el m�etodo QR son igualmente

matrices de Hessenberg.

Page 254: alisis erico

Cap��tulo VI

Integraci�on Num�erica

En muchos problemas aparecen integrales, ya sean �estas simples, m�ultiples

y de otras clases. En los cursos elementales de C�alculo, la determinaci�on de

primitivas es un t�opico de bastante importancia. Por consiguiente, existen los

elementos te�oricos para evaluar primitivas. Sin embargo la mayor parte de las

aplicaciones n�umericas donde interviene la integraci�on, presenta integrales

cuyo c�alculo de primitivas es imposible en t�erminos de funciones elementales,

o por las caracter��sticas propias de los problemas solo se requiere una

c�omputo aproximado de �estas.

En este cap��tulo se tratar�a las base te�oricas de la integral de Riemann,

luego se abordar�a la noci�on de f�ormula de cuadratura y como consecuencia

l�ogica se de�nir�a el orden de una f�ormula de cuadratura. El segundo

tema que ser�a estudiado, como parte integrante del An�alisis Num�erico,

est�a relacionado con la estimaci�on del error cometido por la utilizaci�on de

m�etodos num�ericos de integraci�on. Se comparar�a, diferentes f�ormulas de

cuadratura haciendo hincapi�e en aqu�ellas de orden elevado. Las f�ormulas

de cuadratura de Gauss ser�an estudiadas como un caso de f�ormulas de orden

elevado y para comprenderlas mejor se introducir�a la noci�on de polinomios

ortogonales. Despu�es, se formular�a un m�etodo adaptativo para determinar

integrales y como corolario se har�a un tratamiento de singularidades, es decir

se implementar�a m�etodos para resolver integrales impropias. Como �ultimo

t�opico, se vera la interpolaci�on trigonom�etrica, es decir se har�a un estudio

de las Transformadas de Fourier discretas, como tambi�en la Transformada

de Fourier R�apida, mas conocida como FTP.

Page 255: alisis erico

VI.1 Bases Te�oricas

En esta secci�on, se ver�an las bases te�oricas de la teor��a de la integraci�on,

pero �esta limitada a la integral de Riemann. Por otro lado, tambi�en ser�an

abordados las motivaciones para tener la integral como un instrumento

matem�atico de C�alculo.

Uno de los problemas con el cual el hombre ha confortado desde �epocas

lejanas, ha sido el c�alculo de areas, volumenes y otros, tanto por la necesidad

cotidiana, como tambi�en dentro el esp��ritu de re exi�on e investigaci�on que

lo ha caracterizado siempre.

La integral m�as utilizada, desde el punto de vista de c�alculo y pr�actico,

es la integral de Riemann, cuya de�nici�on permiti�o que el c�alculo integral

tuviese bases te�oricas cimentadas. En lo que sigue, se har�a una presentaci�on

te�orica de esta importante noci�on.

De�nici�on VI.1.1.- Sea, [a; b] un intervalo compacto de la recta real. Se

llama subdivisi�on del intervalo [a; b] un conjunto S � [a; b] �nito.

Por consiguiente S puede ser ordenado, como una sucesi�on �nita de

puntos de [a; b] expresada de la manera siguiente

S =�x0 < x1 < � � � < xn

� [a; b]:

De�nici�on VI.1.2.- Sea S una subdivisi�on de [a; b], se llama paso de la

subdivisi�on S a

�(S) = maxi=1;:::;n

jxi � xi�1j :

Ahora bien, la noci�on de integral est�a de�nida para funciones cuyo

dominio son intervalos compactos, adem�as se exige que la funci�on sea

acotada. Como no es proposito del libro hacer una exposici�on sobre la teor��a

de la integraci�on, se dar�a una de las de�niciones de una funci�on integrable

en el sentido de Riemann.

De�nici�on VI.1.3.- Sea f : [a; b] ! R una funci�on acotada sobre un

intervalo compacto. Se dira que f es Riemann integrable si

lim�(S)!0

nXi=1

f(�i)(xi � xi�1) existe,

con �i 2 [xi�1; xi], independientemente de S y de los �i. Si �este es el caso,

este l��mite se lo denota por Z b

a

f(x)dx:

Page 256: alisis erico

VI.1 Bases Te�oricas 245

Se puede demostrar que las funciones mon�otonas, continuas y en escalera

son Riemann integrables. El c�alculo de la integral como un l��mite puede ser

bastante tedioso, motivo por el cual, los cursos de C�alculo en los niveles

b�asicos universitarios y ultimos cursos de colegio, dan un �enfasis al c�alculo

de primitivas, que para recordar es:

De�nici�on VI.1.4.- Dada una funci�on ' sobre un intervalo I de R. Se dice

que una funci�on � : I ! R es una primitiva de ' si, en todo punto x de I ,

la funci�on � es derivable y si �0(x) = '(x).

Sea f : [a; b] ! R una funci�on integrable en el sentido de Riemann, se

de�ne para todo x 2 [a; b]

F (x) =

Z x

a

f(t)dt:

Proposici�on VI.1.5.- La funci�on F es continua, adem�as si la funci�on

f es continua en un punto x de [a; b], la funci�on F es derivable en x y

F0(x) = f(x).

Corolario VI.1.6.- Una funci�on continua sobre un intervalo compacto

admite una primitiva.

Las demostraciones de la proposici�on y el corolario precedentes se las

puede encontrar en cualquier libro de An�alisis. A continuaci�on, se enuncia

uno de los teoremas fundamentales del c�alculo.

Teorema VI.1.7.- Sea f : [a; b] ! R una funci�on integrable en el sentido

de Riemann que, adem�as admite una primitiva G. Para todo x 2 [a; b], se

tiene:

G(x) �G(a) =

Z x

a

f(t)dt:

Ahora bien, desde el punto de vista num�erico, el c�alculo de primitivas

no tiene mayor utilidad pr�actica, pu�es en la mayor parte de los casos

la determinaci�on anal��tica de �estas es costosa en tiempo. El tratamiento

num�erico que se realiza en el c�alculo de integrales est�a basado en la misma

de�nici�on de integral. Por consiguiente utilizando la de�nici�on, se tiene que

8� > 0, existe S � [a; b] y �i 2 [xi�1; xi] tal que�����nXi=1

f(�i)(xi � xi�1)�Z b

a

f(x)dx

����� < �;

de donde el enfoque num�erico consiste en aproximar la integral utilizando,

sumas �nitas de Riemann. Por otro lado, una de las tareas del An�alisis

Num�erico en lo que respecta el c�alculo de integrales, est�a dada en la cons-

trucci�on de f�ormulas de cuadratura con un costo razonable en operaciones,

y una precisi�on aceptable en la determinaci�on de la integral.

Page 257: alisis erico

246 VI Integraci�on Num�erica

A continuaci�on, se mostrar�a las f�ormulas de cuadratura o de integraci�on

mas rudimentarias.

a) Regla del Punto Medio

Consiste en utilizar la suma de Riemann con �i =xi�1 + xi

2 , por

consiguiente

nXi=1

f

�xi�1 + xi

2

�(xi � xi�1) �

Z b

a

f(x)dx:

La regla del punto medio, da resultados exactos cuando f es un

polinomio de grado menor o igual a 1. Ver �gura VI.1.1.

x0 x1 x2 x3 xn-1 xn

Figura VI.1.1. Regla del Punto Medio.

b) Regla del Trapecio

Consiste en aproximar f(�i)(xi�1 � xi) con el area de un trapecio de

alturas f(xi�1) y f(xi). Por consiguiente

nXi=1

f(xi�1) + f(xi)

2(xi � xi�1) �

Z b

a

f(x)dx;

de donde, esta suma puede expresarse de manera m�as simple, comoZ b

a

f(x)dx � f(x0)x1 � x0

2+ f(x1)

x2 � x0

2+ � � �

� � �+ f(xn�1)xn � xn�2

2+ f(xn)

xn � xn�1

2:

x0 x1 x2 x3 xn-1 xn

Figura VI.1.2. Regla del Trapecio.

Page 258: alisis erico

VI.1 Bases Te�oricas 247

Esta f�ormula es exacta para polinomios de grado igual o inferior a 1.

Ver �gura VI.1.2.

c) Regla de Simpson

Consiste en aproximar f(�i)(xi�1�xi), con el area de la super�cie cuyolado superior, ver �gura VI.1.3, esta dada por la par�abola que pasa por

los puntos (xi�1; f(xi�1); (xi�1 + xi

2 ; f(xi�1 + xi

2 )) y (xi; f(xi)). Para

simpli�car los c�alculos se toma para x0, y x1; obteniendo como polinomio

de interpolaci�on

p(x) = f(x0) + 2f(x0) + f((x0 + x1)=2)

x1 � x0

(x� x0)

+2f(x0)� 2f((x0 + x1)=2) + f(x1)

(x1 � x0)2

(x� (x0 + x1)=2)(x� x1):

Ahora bien, integrando este polinomio de segundo grado entre x0 y x1,

se obtieneZ x1

x0

f(x)dx ��1

6f(x0) +

4

6f

�x0 + x1

2

�+1

6f(x1)

�h1;

para �nalmente tenerZ b

a

f(x)dx �nXi=1

�1

6f(xi�1) +

4

6f

�xi�1 +

hi

2

�+1

6f(xi)

�hi:

La f�ormula de Simpson es exacta para polinomios de grado igual o

inferior a 3.

x0 x1

Figura VI.1.3. Regla de Simpson.

d) Regla de Newton

Consiste en aproximar f(�i)(xi�1�xi), con el area de la super�cie cuyolado superior, ver �gura VI.1.4, esta dada por la par�abola c�ubica que

pasa por los puntos (xi�1; f(xi�1), (2xi�1 + xi

3 ; f(2xi�1 + xi

3 )),

Page 259: alisis erico

248 VI Integraci�on Num�erica

(xi�1 + 2xi

3 ; f(xi�1 + 2xi

3 )) y (xi; f(xi)). De la misma manera que en la

regla de Simpson, se calcula esta par�abola c�ubica utilizando por ejemplo

la f�ormula de Newton para determinar polinomios de interpolaci�on,

luego se integra para obtenerZ x1

x0

f(x)dx��1

8f(x0)+

3

8f

�x0 +

h1

3

�+3

8f

�x0 +

2h1

3

�+1

8f(x1)

�h1:

La regla de Newton es exacta para polinomios de grado menor o igual

a 3.

x0 x1

Figura VI.1.4. Regla de Newton.

F�ormulas de Cuadratura

En los cuatro ejemplos precedentes de la anterior subsecci�on, puede obser-

varse claramente que las reglas de integraci�on formuladas tienen la misma

estructura, la cual de�ne t�acitamente una f�ormula de cuadratura. La mayor

parte de los m�etodos num�ericos est�an basados en este principio.

Se desea integrar la funci�on f : [a; b] ! R, donde f es Riemann

integrable. Para tal efecto se considera una subdivisi�on

S = fa = x0 < x1 < � < xn = bg :

La integral puede ser aproximada mediante la f�ormula de cuadratura si-

guientenXj=1

sX

i=1

bif(xj�1 + cihj)

!; (VI:1:1)

los ci se llaman nudos de la f�ormula de cuadratura y los bi son los coe�cientes

de la f�ormula de cuadratura.

Para la regla del Trapecio, se tiene s = 2, b1 = b2 = 1=2 y c1 = 0, c2 = 1.

As�� mismo, para la regla de Simpson se tiene s = 3, b1 = b3 = j1=6, b = 4=6

y c1 = 0, c2 = 1=2, c3 = 1.

Dada una f�ormula de cuadratura, uno de los objetivos principales es

medir la precisi�on de �esta. Por razones de simplicidad, es preferible estudiar

Page 260: alisis erico

VI.1 Bases Te�oricas 249

la f�ormula de cuadratura en una funci�on f : [0; 1]! R y considerar h1 = 1, es

decir integrar num�ericamente con un paso de integraci�on. Por consiguiente,

se analizar�a el problema

sXi=0

bif(ci) �Z 1

0

f(x)dx:

El Orden de una F�ormula de Cuadratura

De�nici�on VI.1.8.- Una f�ormula de cuadratura tiene orden p, si y sola-

mente si, p es el entero m�as grande, tal que

sXi=0

bif(ci) =

Z 1

0

f(x)dx; (VI:1:2)

donde f es un polinomio de grado � p� 1.

Proposici�on VI.1.9.- Una f�ormula de cuadratura es de orden p, si y

solamente sisX

i=0

bicq�1i =

1

q

; q = 1; : : : ; p: (VI:1:3)

Demostraci�on. La integraci�on es una operaci�on lineal, por lo tanto es

su�ciente mostrar que (VI.1.2) se cumple para f(x) = xq�1, donde q =

1; : : : ; p� 1. Ahora bien, Z 1

0

xp�1

dx =1

q

:

Por simple veri�caci�on, puede comprobarse que la f�ormula de cuadratura

de la regla del Trapecio es p = 2, la de la regla de Simpson es p = 4.

De�nici�on VI.1.10.- Una f�ormula de cuadratura se dice sim�etrica, si:

ci = 1� cs+1�i;

bi = bs+1�i;i = 1; : : : ; s: (IV:1:3)

Teorema VI.1.11.- Una f�ormula de cuadratura sim�etrica tiene un orden

par.

Demostraci�on.- Sup�ongase que la f�ormula de cuadratura sea exacta para

f(x) polinomio de grado � 2k. Por consiguiente se debe demostrar que la

Page 261: alisis erico

250 VI Integraci�on Num�erica

f�ormula de cuadratura es exacta para los polinomios de grado igual a 2k+1.

Sea f(x) un polinomio de grado igual a 2k + 1. Ahora bien, f(x) puede

expresarse de la siguiente manera

f(x) = c

�x� 1

2

�2k+1

+ g(x);

donde g(x) es un polinomio de grado a lo m�as 2k. Por otro ladoZ 1

0

c

�x� 1

2

�2k+1

dx = 0:

Por consiguiente, es su�ciente mostrar que

sXi=1

bi

�ci �

1

2

�2k+1

= 0;

esto es cierto debido a la simetr��a de la f�ormula de cuadratura. �

Estimacion del Error

Dada una funci�on f : [a; b] ! R, se quiere tener una estimaci�on del error

cometido por la utilizaci�on de una f�ormula de cuadratura. Sea c1; : : : ; cs y

b1; : : : ; bs los coe�cientes y los nudos respectivamente, de una f�ormula de

cuadratura dada. Por consiguiente, se tieneZ b

a

f(x)dx =

nXj=1

hj

sXi=1

bif(xj + cihj) =

nXj=1

h

"Z xj

xj�1

f(x)dx � hj

sXi=1

bif(xj + cihj)

#:

Para poder determinar el error, es decir la diferencia entre la integral y la

f�ormula de cuadratura que aproxima la integral, se de�ne

E(f) =

Z x0+h

x0

f(x)dx� h

sXi=1

bif(x0 + cih): (VI:1:4)

Habiendo de�nido E(f), se puede determinar su valor, el cual est�a dado en

el siguiente:

Teorema VI.1.12.- Sea f 2 Ck[a; b], es decir f k veces continuamente

derivable. Entonces, se tiene

E(f) =

k�1Xj=0

hj+1

j!

"1

j + 1�

sXi=1

bicji

#+ h

k+1

Z 1

0

Pk(t)f(k)(x0 + th)dt

(VI:1:5)

Page 262: alisis erico

VI.1 Bases Te�oricas 251

donde

Pk(t) = E

(x� t)k�1+

(k � 1)!

!; �

k�1+ =

(�k�1

� � 0

0 � < 0:

Demostraci�on.- Se tiene, efectuando un cambio de variable en la integral,

que

E(f) = h

Z 1

0

f(x0 + th)dt� h

sXi=1

bif(x0 + cih);

por otro lado, el desarrollo en serie de Taylor de f(x0 + �h) con resto en

forma de integral est�a dado por

f(x0 + h) =

k�1Xj=0

hj

j!f(j)(x0) + h

k

Z 1

0

(1� �)k�1

(k � 1)!f(k)(x0 + �h)d�;

por lo tanto

f(x0 + th) =

k�1Xj=0

hj

j!f(j)(x0)t

j + hk

Z t

0

(t� �)k�1

(k � 1)!f(k)(x0 + �h)d�;

introduciendo esta serie en E(f), se obtiene

E(f) =

k�1Xj=0

hj+1

j!f(j)(x0)

h Z 1

0

tjdt| {z }

1j+1

�sX

i=1

bicji

i

+ hk+1

"Z 1

0

Z t

0

(t� �)k+1+

(k � 1)!f(k)(x0 + �h)d�dt

�sX

i=1

bi

Z ci

0

(ci � �)k�1+

(k � 1)!f(k)(x0 + �h)d�

#

remplazando en el l��mite de integraci�on t por 1, se tiene que el �ultimo t�ermino

del lado derecho de la anterior relaci�on, est�a dado por

hk+1

Z 1

0

"Z 1

0

(t� �)k+1+

(k � 1)!dt�

sXi=1

bi

(ci � �)k�1+

(k � 1)!

#f(k)(x0 + �h)d�:

La funci�on Pk(t) de�nida en el teorema, es conocida por el nombre de

Nucleo de Peano de la f�ormula de cuadratura c1; : : : ; cs; b1; : : : ; bs.

Page 263: alisis erico

252 VI Integraci�on Num�erica

Teorema VI.1.13.- El nucleo de Peano de una f�ormula de cuadratura dada,

tiene las siguientes propiedades:

Pk(�) =(1� �)k

k!�

sXi=1

(ci � �)k�1+

(k � 1)!a);

P0

k(�) = �Pk�1(�); para k � 2;b)

Pk(1) = 0; para k � 2; si ci � 1;c)

Pk(0) = 0; para 2 � k � p; si ci � 0 y p orden de la f.q.;d)

e) Si la f�ormula de cuadratura es 0 � c1 < : : : < cs � 1 y

sXi=1

bi = 1;

entonces P1(�) es lineal por trozos, con las siguientes propiedades: P1(0) = 0,

P1j(ci�1;ci)(x) = �x + di, donde di es una constante, adem�as P1(ci+) �P1(ci�) = bi, ver �gura VI.1.4.

0 1c c c1 2 s

Figura VI.1.5. Gr�a�ca de P1(�)

Demostraci�on.- Para el punto a), se tiene que

Pk(�) =

Z 1

0

(x� �)k�1+

(k � 1)!dx�

sXi=1

bi

(x � �)k�1+

(k � 1)!

=

Z 1

(x� �)k�1

(k � 1)!dx�

sXi=1

bi

(x � �)k�1+

(k � 1)!

=(1� �)k

k!�

sXi=1

bi

(x� �)k�1+

(k � 1)!:

El punto b), se obtiene del punto a), derivando para k � 2. El punto c) es

veri�caci�on inmediata, remplazando en � = 1, siempre que los ci � 1.

La demostraci�on del punto d) se basa en que la f�ormula de cuadratura,

es exacta para los polinomios de grado inferior a p y

Pk(0) =1

k!�

sXi=1

bi

ck�1i

(k � 1)!

=1

(k � 1)!

"1

k

�sX

i=1

bick�1i

#:

Page 264: alisis erico

VI.1 Bases Te�oricas 253

El punto e) es una veri�caci�on sencilla que se deja al lector. �

Ejemplo

La regla de Simpson es una f�ormula de cuadratura, dada por

c1 = 0; c2 = 1=2; c3 = 1;

b1 = 1; =6 b2 = 4; =6 b3 = 1=6:

Utilizando las propiedades dadas en el teorema precedente, se tiene:

P1(�) =

8><>:1

6� �; 0 � � � 1

2;

(1� �) � 1

6;

1

2� � � 1:

P2(�) se obtiene integrando P1(�) por el punto b) del teorema prece-

dente. Por consiguiente

P2(�) =

8>><>>:� �

6+�2

2; 0 � � � 1

2;

(1� �)2

2� (1� �)

6;

1

2< � � 1:

De la misma manera, se obtiene P3(�) de P2(�), dando como resultado:

P3(�) =

8>><>>:�2

12� �

3

6; 0 � � � 1

2;

� (1� �)3

6� (1� �)2

12;

1

2< � � 1;

P4(�) =

8>><>>:� �

3

36+�4

24; 0 � � � 1

2;

(1� �)4

24� (1� �)3

36;

1

2< � � 1:

Ver los gr�a�cos en la �gura IV.1.6.

Consecuencia inmediata del teorema VI.1.12, se tiene el siguiente:

Teorema VI.1.14.- Sean, f 2 Ck[a; b], c1; : : : ; cs; b1; : : : ; bs una f�ormula de

cuadratura cuyo orden p � k, entonces

jE(f)j � hk+1

Z 1

0

jPk(�)j d� maxx2[x0;x0+h]

���f (k)(x)��� : (VI:1:6)

Page 265: alisis erico

254 VI Integraci�on Num�erica

.0 .5 1.0

−.6

−.4

−.2

.0

.2

.4

.6

P1

.0 .5 1.0

−.1

.0

.1 P2

.0 .5 1.0

−.01

.00

.01P3

.0 .5 1.0

−.004

−.003

−.002

−.001

.000

.001

.002

.003

.004 P4

Figura VI.1.6. Nucleos de Peano, para la f�ormula de Simpson.

Para el ejemplo precedente, se tiene que la f�ormula de Simpson es una

f�ormula de cuadratura de orden 4, por consiguienteZ 1

0

jP4(�)j d� = �2Z 1=2

0

P4(�)d� =1

2880;

de donde, si f es cuatro veces continuamente derivable, se tiene que el error

veri�ca

jE(f)j � h5

2880max

x2[x0;x0+h]

���f (4)(x)��� :Teorema VI.1.15.- Si f 2 Ck[a; b], k � p , donde p es el orden de la f�ormula

de cuadratura, entonces������Z b

a

f(x)dx �nXj=1

hj

sXi=1

bif(xj�1 + cihj)

������� h

k(b� a)

Z 1

0

jPk(�)j d� maxx2[a;b]

���f (k)(x)��� ; (VI:6:7)

Page 266: alisis erico

VI.1 Bases Te�oricas 255

donde h = maxhi.

Demostraci�on.- Se tieneZ b

a

f(x)dx �nXj=1

hj

"sX

i=1

bif(xj�1 + cihj)

#=

=

nXj=1

"Z xj

xj�1

f(x)dx � hj

sXi=1

bif(xj�1 + cihj)

#

� hk+1j

Z 1

0

jPk(�)j d� maxx2[a;b]

���f (k)(x)��� ;por otro lado, se tiene

nXi=1

hk+1j =

nXi=1

hjhkj � (b� a)hk:

Por lo tanto, la Regla de Simpson da la siguiente estimaci�on para el error

global

jerrorj � h4(b� a)

2880maxx2[a;b]

���f (4)(x)��� :Los teoremas VI.1.13 a VI.1.15 dan estimaciones te�oricas del error

cometido, cuando se utiliza una f�ormula de cuadratura. Sin embargo, es im-

portante comprobar estas estimaciones te�oricas con experimentos num�ericos.

Suponiendo que la subdivisi�on del intervalo [a; b] es uniforme, de la f�ormula

(VI.1.7), suponiendo f su�cientemente derivable, se deduce,Z b

a

f(x)dx =

nXj=1

h

sXi=1

bif(xj�1 + cih) + Chp +O(hp+1); (VI:1:8)

donde C depende solamente de a; b y f(x). Por consiguiente, el error satisface

Error � Chp: (VI:1:9)

Introduciendo logaritmos, se tiene

log10(Error) = log10 C + p logh;

denotando fe, la cantidad de evaluaciones de la funci�on f(x), en el proceso

de integraci�on num�erica, se tiene

fe =C0

h

;

Page 267: alisis erico

256 VI Integraci�on Num�erica

donde C 0 es una constante, Por lo tanto, se obtiene

� log10(Error) = C + p log10 fe: (VI:1:10)

De esta �ultima relaci�on, se deduce que � log10(Error) y log10 fe tienen

una relaci�on lineal de pendiente p, donde p es el orden de la f�ormula de

cuadratura. En la �gura VI.1.7, se comprueba este hecho, utilizando como

integral test Z 1

0

cos(�ex)exdx =1

sin(�e):

100 101 102 103 10410−1

10−2

10−3

10−4

10−5

10−6

10−7

10−8

10−9

10−10

fe

Err

Punto Medio

Regla del Trapecio

Regla de Simpson

Regla de Newton

Gauss de orden 4

Gauss de orden 6

Figura VI.1.7. Gr�a�ca del Error vs fe.

Ejercicios

1.- Calcular el orden de la regla de Newton:

(ci) = (0;1

3;

2

3; 1); (bi) = (

1

8;

3

8;

3

8;

1

8):

2.- Sean 0 � c1 < c2 < � � � < cs � 1 dados. Mostrar que existe una f�ormula

de cuadratura �unica con nudos ci y con un orden � s.

Page 268: alisis erico

VI.1 Bases Te�oricas 257

3.- Mostrar que si la f�ormula de cuadratura satisface

ci = 1� cs+1�i;

y si es de orden � s, entonces se tiene tambi�en

bi = bs+1�i:

4.- >C�omo se debe elegir c1; c2? para que la f�ormula de cuadratura

b1f(c1) + b2f(c2)

tenga un orden maximal. >C�ual es el orden?, >La f�ormula de cuadratura

es sim�etrica?

5.- Calcular

Z 2

1

dx

x

= ln2 mediante la regla del trapecio, la regla de Simpson

y la regla de Newton. >C�ual f�ormula es la mejor? Hacer un gr�a�co

logar��tmico para el n�umero de evaluaciones de la funci�on f respecto

al error.

6.- Lo mismo que el ejercicio 5, pero paraZ 2�

0

exp(sinx)dx:

7.- Calcular � utilizando

� = 4

Z 1

0

dx

1 + x2

y � = 4

Z 1

0

p1� x

2dx:

>Por qu�e el segundo resultado es menos bueno?

8.- Mostrar que el resultado obtenido por la regla del trapecio, o por la regla

de Simpson, es una suma de Riemann.

9.- Sean h = (b� a)=n, xi = a+ ih y

T (h) = h

�1

2f(x0) + f(x1) + � � �+ f(xn�1) +

1

2f(xn)

�:

Demostrar que para f su�cientemente derivableZ b

a

f(x)dx � T (h) = �h2

12(f 0(b)� f

0(a)) +O(h3):

10.- Calcular los nucleos de Peano para la f�ormula del ejercicio 4 y hacer sus

gr�a�cas.

11.- Calcular la expresi�on �R baf(x)dx� T (h)

�h2

;

para f(x) = 1=x, a = 1, b = 10; con varios valores de h. Veri�car la

f�ormula del ejercicio 9.

Page 269: alisis erico

VI.2 Cuadraturas de Orden Elevado

En esta secci�on, se dar�an las herramientas te�oricas, para construir f�ormulas

de cuadratura de orden elevado. El inter�es que se tiene para utilizar f�ormulas

de cuadratura del mayor orden posible, reside sustancialmente en el hecho

de aumentar la precisi�on en el c�alculo de integrales de�nidas, como tambi�en

de disminuir el n�umero de evaluaciones de la funci�on a integrar, ver la �gura

VI.1.7.

Mediante el ejercicio 2, de la secci�on precedente, se demuestra que si

c1; : : : ; cs dados, existe una �unica formula de cuadratura que es de orden

� s, es decirsX

i=1

bicq�1i =

1

q

; (VI:2:1)

para q = 1; : : : ; s.

Sea m un entero no negativo, la f�ormula de cuadratura c1; : : : ; cs;

b1; : : : ; bs; es de orden � s+m, si y solamente si, la f�ormula de cuadratura

es exacta para polinomios de grado � s + m � 1. Ahora bien, se de�ne el

polinomioM(x) de grado s, por

M(x) = (x � c1)(x� c2) � � � (x� cs); (VI:2:2)

donde los ci son los nudos de la f�ormula de cuadratura estudiada. Sea f(x)

un polinomio de grado � s+m� 1, por la divisi�on con resto se tiene que

f(x) = q(x)M(x) + r(x);

donde q(x) y r(x) son polinomios con deg q � m � 1 y deg r � s � 1. Por

consiguiente Z 1

0

f(x)dx =

Z 1

0

q(x)M(x)dx +

Z 1

0

r(x)dx:

Utilizando la f�ormula de cuadratura en la anterior expresi�on, se obtiene

sXi=1

bif(ci) =

sXi=1

biq(ci)M(ci)| {z }= 0

+

sXi=1

bir(ci);

suponiendo que el orden de la f�ormula de cuadratura sea � s, se acaba de

demostrar el:

Page 270: alisis erico

VI.2 Cuadraturas de Orden Elevado 259

Teorema VI.2.1.- Sea (bi; ci); i = 1; : : : ; s; una f�ormula de cuadratura con

orden � s. Entonces

el orden de la f�ormula de

cuadratura es � s+m

�()

8>>><>>>:Z 1

0

q(x)M(x)dx = 0;

para todo polinomio q(x)

con deg q � m� 1.

Ejemplo

El ejercicio 4 de la secci�on precedente demanda la construcci�on de una

f�ormula de cuadratura del orden m�as elevado posible. En consecuencia,

se de�ne

M(x) = (x� c1)(x � c2):

Se tiene que la f�ormula de cuadratura es de orden � 3 si y solamente siZ 1

0

M(x)dx = 0;

1

3� 1

2(c1 + c2) + c1c2 = 0;

la f�ormula de cuadratura es de orden m�as grande o igual a 4, si adem�asZ 0

1

xM(x)dx = 0;

1

4� 1

3(c1 + c2) +

1

2c1c2 = 0;

obteniendo as�� un sistema de dos ecuaciones y dos incognitas. Una vez

determinados los ci, el siguiente paso es determinar los bi.

Polinomios Ortogonales

Uno de los mayores inconvenientes en la construcci�on de f�ormulas de

cuadratura de orden elevado utilizando el teoremaVI.2.1, consiste en el hecho

siguiente: se deben resolver sistemas de ecuaciones no lineales para determi-

nar los nudos de la f�ormula de cuadratura. Est�a claro que para f�ormulas de

cuadratura con una cantidad no muy grande de nudos esto es posible, sin

embargo para s ya m�as grande esto presenta una desventaja. En esta sub-

secci�on se estudiar�an polinomios ortogonales, cuyas raices son precisamente

los nudos.

Page 271: alisis erico

260 VI Integraci�on Num�erica

Se iniciar�a esta subsecci�on, de�niendo un conjunto de funci�ones particu-

lares. Sea ! : (a; b)! R una funci�on, llamada funci�on de peso. Sea

E =(f : (a; b)! Rj

Z b

a

!(x) jf(x)j2 dx <1): (VI:2:3)

Puede mostrarse que E es un espacio vectorial para la adici�on de funciones yla multiplicaci�on por escalares reales. Para las aplicaciones en general, puede

suponerse que f es una funci�on continua.

Suponiendo que !(x) > 0, puede de�nirse un producto escalar sobre E ,de la siguiente manera,

hf; gi =Z b

a

!(x)f(x)g(x)dx: (VI:2:4)

Hay que remarcar dos hechos importantes; el primero E es en realidad

un conjunto de clases de equivalencia de funciones, donde la relaci�on de

equivalencia est�a de�nida por

f � g () f(x) 6= g(x) en un conjunto de medida nula.

La segunda observaci�on es consecuencia de la primera, se puede suponer

por lo tanto que E est�a constituida por funciones continuas, a lo sumo por

funciones continuas por trozos, y con ciertas condiciones impuestas a !(x)

puede demostrarse que

hf; fi = 0 () f = 0:

De�nici�on VI.2.2.- f es ortogonal a g, que se denota por f ? g, si

hf; gi = 0: (VI:2:5)

El objetivo central ser�a, por consiguiente, encontrar M(x) ? q(x) si

deg q � m� 1.

Teorema VI.2.3.- Sea !(x) dado, entonces existe una sucesi�on de poli-

nomios p0(x); p1(x); p2(x); : : :, tal que:

deg pj = j;

hpk; qi = 0; 8q polinomio de grado � k � 1:

Si se supone que pk(x) = xk + r(x) con deg r(x) � k� 1, los polinomios son

�unicos.

Page 272: alisis erico

VI.2 Cuadraturas de Orden Elevado 261

Los polinomios satisfacen la siguiente relaci�on recursiva:

p�1(x) := 0; p0(x) = 1; (VI:2:6a)

pk+1 = (x� �k+1)pk(x) � 2k+1pk�1(x); (VI:2:6b)

donde

�k+1 =hxpk; pkihpk; pki

; 2k+1 =

hpk; pkihpk�1; pk�1i

: (VI:2:6c)

Demostraci�on.- El primer punto del teorema, se obtiene a partir del

proceso de ortogonalizaci�onde Gramm-Schmidt. Las relaciones entre los dife-

rentes polinomios ortogonales se demuestra por inducci�on. Por consiguiente,

se supone cierto para los polinomios p0; p1; : : : ; pk. Ahora bien, se tiene

pk+1(x) = xpk(x) +

kXj=0

cjpj(x);

por que el coe�ciente dominante de pk es 1. Aplicando el producto escalar

se tiene0 = hpk+1; pki

= hxpk; pki+kX

j=0

cjhpj ; pki

= hxpk; pki+ ckhpk; pki;

de donde

ck = �hxpk; pkihpk; pki

:

Por otro lado, aplicando nuevamente el producto escalar se tiene

0 = hpk+1; pk�1i

= hxpk; pk�1i+kX

j=0

cjhpj ; pk�1i

= hxpk; pk�1i+ ck�1hpk�1; pk�1i

Ahora bien, se veri�ca facilmente, utilizando la de�nici�on del producto

escalar de�nido en E , que

hxpk ; pk�1i = hpk; xpk�1i;

Page 273: alisis erico

262 VI Integraci�on Num�erica

con la hip�otesis de inducci�on, se veri�ca inmediatamente que

hpk; xpk�1i = hpk; pki;

de donde

ck�1 =hpk; pki

hpk�1; pk�1i:

Los restantes cj , son nulos, utilizando la hip�otesis de inducci�on sobre la

ortogonalidad. �

Consecuencia de este teorema, es que si los nudos de una f�ormula de

cuadratura son las raices del polinomio ps, de�nido en el teorema precedente,

se tiene M(x) = ps(x) y por el teorema VI.2.1 el orden de la f�ormula de

cuadratura es igual o mayor a 2s.

Teorema VI.2.4.- Sean los pk, como en el teorema VI.2.3, entonces las

raices de pk(x) son reales, simples y est�an localizadas en el intervalo (a; b).

Demostraci�on.- Se donota por �1; : : : ; �T las raices distintas de pk donde

la funci�on pk(x) cambia de signo. Se de�ne el polinomio g(x) por

g(x) = (x � �1) � � � (x� �T );

por consiguiente, se tiene que

g(x)pk(x)

no cambia de signo, de donde

hg(x); pk(x)i 6= 0;

por lo tanto deg g � k, y por la hip�otesis inicial se tiene necesariamente que

T = k. �

En la tabla VI.2.1, se tienen los diferentes tipos de polinomios ortonor-

males para diferentes tipos de funci�on de peso !(x).

Tabla VI.2.1. Ejemplos de Polinomios Ortonormales

!(x) (a; b) Notaci�on Nombre

1 (�1; 1) Pk(x) Polinomios de Legendre

1p1� x

2(�1; 1) Tk(x) Polinomios de Chebichef

(1� x)�(1 + x)� (�1; 1) P

(�;�)

k (x) Jacobi, �; � > �1x�e�x (0;1) L

(�)

k (x) Pol. de Laguerre, �>�1e�x2 (�1;1) Hk(x) Polinomios de Hermite

Page 274: alisis erico

VI.2 Cuadraturas de Orden Elevado 263

Teorema VI.2.5.- F�ormula de Rodriguez. Sea !(x) una funci�on de peso

de�nida como antes. Entonces

pk(x) = Ck

1

!(x)

dk

dxk

�!(x)(x � a)k(b� x)k

: (VI:2:7)

Demostraci�on.- Una veri�caci�on simple sobre pk(x), muestra que se tratan

efectivamente de polinomios. Para la relaci�on de ortogonalidad con k dado,

es su�ciente mostrar que si q(x) es un polinomio de grado � k � 1 entonces

q ? pk. En efectoZ b

a

!(x)pk(x)q(x)dx =

Z b

a

dk

dxk

�!(x)(x � a)k(b� x)k

q(x)dx

=dk�1

dxk�1

�!(x)x � a)k(b� x)k

q(x)

����ba| {z }

= 0

�Z b

a

dk�1

dxk�1

�!(x)x � a)k(b� x)k

q0(x)dx

...

= �Z b

a

�!(x)x � a)k(b� x)k

q(k)dx

= 0:

La mayor parte de los c�alculos de integrales de�nidas, tienen como funci�on de

peso !(x) = 1. A continuaci�on se estudiar�a con mayor detalle los polinomios

de Legendre.

Los Polinomios de Legendre

Los polinomios de Legendre son los polinomios ortogonales para la funci�on

de peso !(x) = 1 de�nida en el intervalo (�1; 1), ver la tabla VI.2.1. Por otrolado, utilizando la f�ormula de Rodriguez se puede elegir los Ck de manera

que Pk(1) = 1. Por consiguiente, se tiene

1 = Pk(1) = Ck

dk

dxk

�(1� x)k(1 + x)k

����x=1

= Ck(�2)kk!;

de donde

Ck =(�1)k

2kk!;

Page 275: alisis erico

264 VI Integraci�on Num�erica

por lo tanto

Pk(x) =(�1)k

2kk!

dk

dxk

�(1� x

2)k�: (VI:2:8)

Los polinomios de Legendre pueden ser calculados mediante la f�ormula

de Rodriguez, o mediante una relaci�on recursiva, ver ejercicio 1. En la tabla

VI.2.2, se da los cuatro primeros polinomios de Legendre.

Tabla VI.2.2. Polinomios de Legengre

k Pk(x)

0 1

1 x

23

2x2 � 1

2

35

2x3 � 3

2x

Puede observarse que si k es par, entonces Pk(x) = Q(x2) donde Q es un

polinomio; de la misma manera si k es impar, se tiene que Pk(x) = xQ(x2).

Las F�ormulas de Cuadratura de Gauss

La veri�caci�on del orden de una f�ormula de cuadratura, se la realiza en el

intervalo [0; 1]. Efectuando una transformaci�on af��n, se tiene que M(x) del

teorema VI.2.1, es igual a

M(x) = (x� c1) � � � (x � cs) = Ps(2x� 1) (VI:2:9)

con Ps el s-simo polinomio de Legendre, si se desea que orden de la f�ormula

cuadratura sea al menos s. El siguiente teorema, tiene una importancia en

lo concerniente al orden de una f�ormula de cuadratura.

Teorema VI.2.6.- El orden de una f�ormula de cuadratura dada por (bi; ci),

i = 1; : : : ; s; es menor o igual a 2s.

Demostraci�on.- Por el absurdo. Sup�ongase que existe una f�ormula de

cuadratura de orden superior o igual a 2s+1, de donde para todo polinomio

l(x) de grado s, se tiene Z 1

0

l(x)M(x)dx;

Page 276: alisis erico

VI.2 Cuadraturas de Orden Elevado 265

sin embargo, tomando l(x) =M(x) se tieneZ 1

0

M2(x)dx = 0;

lo que conduce a una contradicci�on �

El objetivo, ser�a por consiguiente, encontrar una f�ormula de cuadratura

de orden m�aximo, es decir 2s. Por la observaci�on hecha al inicio de esta

�ultima subsecci�on, los nudos ci de la f�ormula de cuadratura de orden s son

las raices de Ps(2x � 1) polinomio de Legendre. Como consecuencia de lo

anteriormente expuesto se tiene el siguiente teorema formulado por Gauss

en 1814.

Teorema VI.2.7.- Una f�ormula de cuadratura (ci; bi), i = 1; : : : ; s; es de

orden 2s si y solamente si c1; : : : ; cs son las raices de Ps(2x � 1), Ps(t)

polinomio de Legendre y los bi est�an determinados por

sXi=1

bicq�1i =

1

q

; q = 1; : : : ; s: (VI:2:10)

Por otro lado, debe observarse que los coe�cientes de una f�ormula de

cuadratura de Gauss son extrictamente positivos, en efecto, se de�ne

li(x) =

sYj=1

j 6=i

x� cj

ci � cj

el i-esimo polinomio de Lagrange para la subdivsi�on c1 < � � � < cs. El grado

de este polinomio es igual a s� 1 y veri�ca

li(cj) =

(0; j 6= i;

1; j = i:

Ahora bien, se tiene

bi =

sXj=1

bj(li(cj))2 =

Z 1

0

(li(x))2dx > 0;

ya que, deg l2i = 2s� 2 < 2s.

El c�alculo de los coe�cientes bi de una f�ormula de cuadratura de Gauss,

pueden ser resueltos mediante el sistema lineal dado por (VI.2.10). Sin

embargo este procedimiento no es el mejor, debido a la acumulaci�on de los

Page 277: alisis erico

266 VI Integraci�on Num�erica

errores de redondeo. Existe un procedimiento que determina los bi de una

manera sencilla, el est�a dado en el:

Teorema VI.2.8.- Para la formula de cuadratura de Gauss de orden 2s, se

tiene

bi =1

(1� x2i )P

0

s(xi)2; i = 1; : : : ; s; (VI:2:11)

donde xi = 2ci � 1.

Demostraci�on.- Se tiene,

bi =

sXj=1

bjli(cj) =

Z 1

0

li(t)dt;

realizando la transformaci�on x = 2t� 1, se obtiene

bi =1

2

Z 1

�1

li

�x+ 1

2

�dx;

por otro lado, se tiene

li

�x+ 1

2

�= C

Ps(x)

x� xi

;

de donde pasando al l��mite, se obtiene

limx!xi

C

Ps(x)

x� xi

= CP0

s(xi) = 1;

despejando C, bi est�a dado por

bi =1

2

Z 1

�1

Ps(x)

(x� xi)P0

s(xi)dx: (VI:2:12)

Adem�as,

bi =

sXj=1

bjli(cj) =1

2

Z 1

�1

�Ps(x)

(x� xi)P0

s(xi)

�2

dx; (VI:2:13)

esta integral se la resulve por partes, obteniendo as��

bi =1

2(P 0s(xi))2

Z 1

�1

(Ps(x))2 1

(x� xi)2dx

Page 278: alisis erico

VI.2 Cuadraturas de Orden Elevado 267

=1

2(P 0s(xi))2

��1

1� xi

+1

�1� xi

�+

Z 1

�1

P0

s(x)

P0

s(xi)

�Ps(x)

(x � xi)P0

s(xi)

�| {z }= li

�x+ 1

2

�dx

=1

2(P 0s(xi))2

�11� x

2i

+

sXj=1

bj

P0

s(xj)

P0

s(xi)li

�xj + 1

2

�=

1

2(P 0s(xi))2

�11� x

2i

+ 2bi

En el ejercicio 1 de esta secci�on, se mostrar�a que los polinomios de

Legendre veri�can la siguiente relaci�on recursiva

(1� x2)P 0s(x) = �sxPs(x) + sPs�1(x);

de donde

(1� x2i )P

0

s(xi) = sPs�1(xi);

obteniendo

bi =1� x

2i

s2(Ps�1(xi))

2: (VI:2:14)

En la tabla VI.6.3, se dan las primeras f�ormulas de cuadratura de Gauss.

Tabla VI.6.3. Primeras F�ormulas de Cuadratura de Gauss.

s c1 c2 c3 b1 b2 b3

11

21

21

2�p3

6

1

2+

p3

6

1

2

1

2

31

2�p15

10

1

2

1

2+

p15

10

5

18

8

18

5

18

Ejercicios

1.- Para los polinomios de Legendre, demostrar que:

(k + 1)Pk+1(x) = (2k + 1)xPk(x)� kPk�1(x);

(1� x2)P 0k(x) = �kxPk(x) + kPk�1(x):

Page 279: alisis erico

268 VI Integraci�on Num�erica

2.- Los polinomios de Chebychef est�an de�nidos por

Tk(x) = cos(k arccosx):

Veri�car que:

T0(x) = 1; T1(x) = x;

Tk+1(x) = 2xTk(x) � Tk�1(x);Z 1

�1

1p1� x

2Tk(x)Tj(x); para i 6= j:

3.- Calcular las raices de P8(x) con un m�etodo iterativo, como por ejemplo

el m�etodo de la bisecci�on.

4.- Mostrar que el nucleo de Peano Pk(t) de una f�ormula de cuadratura

satisface Z 1

0

Pk(t)dt =1

k + 1�

sXi=1

bicki :

5.- Sea p el orden de una f�ormula de cuadratura y sup�ongase que el nucleo

de Peano Pp(t) no cambia de signo sobre [0; 1]. Mostrar que

Z x0+h

x0

f(x)dx�hsX

i=1

bif(x0+cih) = hp+1

1

p+ 1� h

sXi=1

bicpi

!f(p)(�);

con � 2 (x0; x0 + h).

Indicaci�on.- Utilizar el teorema VI.1.15 con k = p.

6.- Mostrar que para las f�ormulas de cuadratura de Gauss de orden 2s, el

nucleo de Peano P2s(t) no cambia de signo.

Page 280: alisis erico

VI.3 Implementaci�on Num�erica

El c�alculo num�erico de integrales de�nidas, requiere la implementaci�on de

las f�ormulas de cuadratura en forma de programas o subrutinas. Dada una

funci�on f : [a; b]! R, el c�alculo de

Z b

a

f(x)dx; (VI:3:1)

se lo realiza teniendo en cuenta el error que se desea cometer. Generalmente

se da una tolerancia que se la denota por TOL, por consiguiente se busca una

aproximaci�on I , tal que�����Z b

a

f(x)dx� I

����� � TOL

Z b

a

jf(x)j dx: (VI:3:2)

Ahora bien, una manera de conseguir (VI.3.2), es subdividir el intervalo

[a; b] en subintervalos y aplicar el teorema VI.1.16 de manera de obtener

un h �optimo. Sin embargo este procedimiento presenta dos incovenientes:

es necesario conocer de antemano este h �optimo; adem�as de conocer las

propiedades de la funci�on f a integrar. La segunda manera de resolver

(VI.3.2) es de concevir un algoritmo, donde el c�alculo del error se haga de

manera autom�atica es decir utilizando un m�etodo adaptativo.

Lo primero que se debe tener en la implementaci�on de un programa que

permita evaluar la integral de una funci�on f , es una estimaci�on del error. Sea

(bi; ci) i = 1; : : : ; s, una f�ormula de cuadratura y a = x0 < x1 < � � � < xn = b,

una subdivisi�on de [a; b]; se de�ne el error en cada subintervalo [xi; xi+1] a

E(f; xi; xi+1) =

Z xi+1

xi

f(x)dx � (xi+1 � xi)

sXj=1

bjf(xi + cj(xi+1 � xi)):

(VI:3:3)

Por lo tanto, el programa que va calcular num�ericamente la integral debe

tener en cuenta dos aspectos:

1.- Estimaci�on del error.

2.- Elecci�on de la subdivisi�on de [a; b], x0 < x1 < � � � < xn; tal que

nXj=0

jE(f; xj ; xj+1)j � TOL

Z b

a

jf(x)j dx:

Page 281: alisis erico

270 VI Integraci�on Num�erica

Por consiguiente, denotando por:

res[a;b] = I; resabs[a;b] =

Z b

a

jf(x)j dx; err[a;b] =

�����Z b

a

f(x)dx � I

����� ;se tiene el siguiente algoritmo.

Algoritmo

| Calcular: res[a;b], resabs[a;b] y err[a;b].

err[a;b] � TOLresabs[a;b]: si es cierto se ha terminado, si no continuar

el siguiente paso.

| Plantear c = c =a+ b

2y calcular:

res[a;c]; err[a;c]; resabs[a;c];

res[c;b]; err[c;b]; resabs[c;b];�err[a;c] + err[c;b]

�� TOL

�resabs[a;c] + resabs[c;b]

�: si es cierto se ha

terminado, si no dividir el subintervalo con error maximal y continuar

con el siguiente paso.

| Continuar hasta queXerr[aj ;cj ] � TOL

�Xresabs[aj ;cj ]

�:

Una vez planteado el algoritmo, el principal problema consiste en estimar

el error cometido en el c�alculo de la integral, en cada subintervalo [xi; xi+1].

El teorema VI.1.12 da una estimaci�on cuando la f�ormula de cuadratura tiene

un orden p, la cual est�a dada por

E(f; x0; x1) = hp+1

Z 1

0

Pp(t)f(p)(x0 + th)dt;

donde Pp(t) es el k-simo nucleo de Peano, para la f�ormula de cuadratura. El

principal inconveniente de utilizar esta estimaci�on radica en que el c�alculo

de la derivada de orden p de f puede ser tan complicado, como encontrar

una primitiva de f , y por otro lado, determinar el nucleo de Peano no es una

tarea nada simple, motivos por los cuales, la estimaci�on del teorema VI.1.12

no es nada pr�actica desde el punto de vista computacional.

Ahora bien, existen dos m�etodos num�ericos que permiten encontrar una

estimaci�on del error cometido en cada subintervalo, sin necesidad de conocer

las propiedades del nucleo de Peano y de las derivadas de la funci�on a

Page 282: alisis erico

VI.3 Implementaci�on Num�erica 271

integrar. Por consiguiente sea (ci; bi), una f�ormula de cuadratura dada de

orden p, se desea estimar

E(f; x0; x1) =

Z x1

x0

f(x)dx � (x1 � x0)

sXi=1

bi(f(x0 + ci(x1 � x0)):

El primer m�etodo para estimar E es conocido como QUADPACK, algoritmo

implementado en algunas bibliotecas de programas. La idea central de este

m�etodo es tomar una segunda f�ormula de cuadratura (ci; bi) con un orden

p > p y estimar E(f; x0; x1), como

E(f; x0; x1)=(x1�x0)"

sXi=1

bif(x0 + ci(x1 � x0)�sX

i=1

bif(x0 + ci(x1 � x0))

#;

(VI:3:4)

Para evitar demasiadas evaluaciones de la funci�on f , es deseable que

fc1; : : : ; csg � fc1; : : : ; csg ;

es decir

fc1; : : : ; csg = fc1; : : : ; csg [ fcs+1; : : : ; cs+mg ;con s+m = s. Sin embargo m debe ser m�as grande que s, si la f�ormula de

cuadratura (ci; bi) es una de tipo Gauss; en efecto, si m � s, se tiene:

s+mXi=1

bicj�1i =

1

j

; j = 1; : : : ; s+m;

sXi=1

bicj�1i =

1

j

; j = 1; : : : ; 2s;

lo cual conduce a que

bi =

(bi; i = 1; : : : ; s;

0; i = s+ 1; : : : ; s+m;

obteniendo as��, la misma f�ormula de cuadratura. Por consiguiente es nece-

sario elegir m > s, por ejemplo m = s+ 1.

Por otro lado, se pueden elegir los ci restantes de manera que la f�ormula

de cuadratura (ci; bi), i = 1; : : : ; 2s + 1; tenga un orden igual a 3s + 2.

Esta f�ormula de cuadratura lleva el nombre de Konrad, en honor a su

descubridor. El m�etodo QUADPACK, toma como resultado de la integral al

resultado num�erico proporcionado por la f�ormula de cuadratura de Konrad,

es decir

res = (x1 � x0)

2s+1Xi=1

bif(x0 + ci(x1 � x0)); (VI:3:5)

Page 283: alisis erico

272 VI Integraci�on Num�erica

la estimaci�on del error cometido es de la f�ormula de cuadratura de Gauss y

no as�� de la de Konrad. No obstante, se puede obtener una estimaci�on de

este error. En efecto los errores de las f�ormulas de cuadratura est�an dados

por:

errGauss = Ch2s+1 + : : : ;

errKonrad = Ch3s+3 + : : : :

Para simpli�car los c�alculos se puede suponer que tanto C, como C son

iguales y valen 1, obteniendo as��, cuando h tiende a 0�h2s+1

�3=2 � h3s+3

;

de donde la estimaci�on del error de la f�ormula de cuadratura multiplicada

por una constante de seguridad est�a dada por:

err =

"(x1 � x0)

2s+1Xi=1

bif(x0 + cih)�sX

i=1

bif(x0 + cih)

!#3=2� 100;

(VI:3:6)

�nalmente se tiene

resabs = (x1 � x0)

2s+1Xi=1

bi jf(x0 + ci(x1 � x0))j : (VI:3:7)

El segundo m�etodo es conocido como GAUINT,GAUSS. Al igual que en el

m�etodo QUADPACK, se considera una formula de cuadratura de tipo Gauss

(ci; bi), i = 1; : : : ; s; pero s impar, de manera que uno de los nudos sea igual

a 1=2. Luego se considera la f�ormula de cuadratura de orden al menos s� 1

obtenida de la f�ormula original, cuyos nudos est�an dados por

fc1; : : : ; cs�1g = fc1; : : : ; csg n f1=2g :Con los mismos argumentos desarrollados para el m�etodo QUADPACK, pero

esta vez tomando el resultado num�erico proporcionado por la f�ormula de

cuadratura de Gauss, se obtiene:

res = (x1 � x0)

sXi=1

bif(x0 + cih); (VI:3:8)

err =

"(x1 � x0)

sX

i=1

bif(x0 + cih)�sX

i=1

bif(x0 + cih)

!#2� 100; (VI:3:9)

resabs = (x1 � x0)

sXi=1

bi jf(x0 + cih)j : (VI:3:10)

Las experiencias num�ericas muestran que en la mayor��a de los casos las

estimaciones del error cometido son demasiado pesimistas, ver en la tabla

VI.3.1, las experiencias num�ericas han sido realizadas por el m�etodo GAUINT.

El programa GAUINT, para estas experiencias num�ericas, utiliza una f�ormula

de cuadratura de Gauss de orden 30.

Page 284: alisis erico

VI.3 Implementaci�on Num�erica 273

Tabla VI.3.1 Error exacto vs Error estimado.

f(x) [a; b] Error exacto err

1

x4 + x

2 + 1[0; 2] 0:23� 10�10 0; 90� 10�10

25e�25x [0; 1] 0; 14� 10�11 0:23� 10�5

px [0; 1=2] 0; 98� 10�5 0:14� 10�8

Puede observase que la tercera funci�on a ser integrada es una excepci�on de la

regla anteriormente formulada, eso se debe a quepx no es lo su�cientemente

derivable, y el algoritmo ha sido concebido para funciones lo su�cientemente

lisas.

Tratamiento de singularidades

Los m�etodos desarrollados en la anterior subsecci�on, tal como se puede

observar en la tabla precedente, son utilizables para funciones lo su�ciente-

mente derivables. Por lo tanto, no son muy e�cientes para resolver integrales

de�nidas de funciones no muy lisas, adem�as existen integrales impropias cuyo

c�alculo es frecuente en diversas aplicaciones, como por ejemplo integrales de

los tipos: Z 1

0

f(x)px

dx;

Z 1

0

(logx)f(x)dx:

Ejemplo

Consid�erese, la funci�on

f(x) = � 4x logx

x4 + 100

;

se desea calcularR 10f(x)dx. Esta integral es impropia, no obstante que

una f�ormula de cuadratura de tipo Gauss proporciona resultados que

se aproximan al valor exacto de esta integral. Esto se debe a que los

nudos de la f�ormula utilizada son diferentes de 0 y que la funci�on f(x)

es singular en x = 0. Ahora bien, el error exacto al integrar sobre el

intervalo [0; 1] es del orden de 0:18� 10�4, el cual est�a cerca del 5% del

Page 285: alisis erico

274 VI Integraci�on Num�erica

valor exacto, valor muy grande. Un procedimiento para obtener un error

que este en el orden de TOL, es de�nir la sucesi�on Sk dada por

Sk =

kXj=0

Z bj

aj

f(x)dx;

donde bj = 2j�k y aj = bj=2, para j > 0. Con este procedimiento,

solamente se debe calcular la integral en el intervalo m�as peque~no.

Para poder comparar los resultados obtenidos con el m�etodo num�erico,

el valor exacto de la integral, calculada mediante series, es igual aZ 1

0

� 4x logx

x4 + 100

dx =

Z 1

0

1

100

�4x logx1 + x

4=100

dx

=1

100

Z 1

0

(�4x logx)1Xk=0

(�1)k x4k

100kdx

=�4100

1Xk=0

(�1)k

100k

Z 1

0

x4k+1 logxdx

1

100

1Xk=0

(�1)k

100k1

(2k + 1)2;

lo que es igual con 16 cifras de precisi�on aZ 1

0

� 4x logx

x4 + 100

dx = 9:9889286860336184� 10�03:

Aplicando el procedimiento mencionado m�as arriba, se obtiene la tabla

VI.3.2.

Tabla VI.3.2. C�alculo Integral.

Sk Error Exacto

S0 1:748733098830973E� 07

S1 4:371832748595316E� 08

S2 1:092958187148829E� 08

S3 2:732395467872073E� 09

S4 6:830988674016991E� 10

S5 1:707747172841056E� 10

S6 4:269368018838815E� 11

Sk Error Exacto

S7 1:067342048077790E� 11

S8 2:668355120194476E� 12

S9 6:670896474103571E� 13

S10 1:667728455334582E� 13

S11 4:169407874510255E� 14

S12 1:042395336714463E� 14

S13 2:605554660917164E� 15

Page 286: alisis erico

VI.3 Implementaci�on Num�erica 275

Se puede observar inmediatamente, que la convergencia para calcular la

integral es muy lenta, es necesario, efectuar 13 subdivisiones para obtener

un error igual o inferior a 2:61 � 10�15. Cada utilizaci�on del programa

GAUINT requiere 15 evaluaciones de la funci�on f , por consiguiente para

obtener el error mencionado, es necesario por lo menos 14� 15 evalua-

ciones de la funci�on f .

Para evitar tantas evaluaciones de la funci�on f , es necesario construir

un algoritmo que permita acelerar la convergencia. Una forma de hacerlo es

utilizar procedimientos de extrapolaci�on al l��mite dado en el cap��tulo III.3.

Ahora bien, el m�etodo que ser�a estudiado para acelerar la convergencia en

el c�alculo de estas integrales ser�a tratado con un procedimiento equivalente,

el cual consiste en utilizar diferencias �nitas.

A partir de la tabla precedente puede observarse, el siguiente hecho:

Den�otese por S el valor exacto de la integral, entonces

Sn+1 � S � 1

4(Sn � S);

es decir

Sn+1 � S � �(Sn � S): (VI:3:11)

Sup�ongase, que se conoce tres valores consecutivos de la sucesi�on fSkg, pordecir: Sn; Sn+1 y Sn+1, utilizando la notaci�on de diferencias �nitas dada en

el cap��tulo III.1, se tiene el siguiente sistema lineal(Sn+1 � S = �(Sn � S)

Sn+2 � S = �(Sn+1 � S); (VI:3:12)

de donde sustrayendo ambas ecuaciones, se obtiene

�Sn+1 = ��Sn;

por consiguiente

� =�Sn+1

�Sn: (VI:3:13)

Despejando S de la segunda ecuaci�on de (VI.3.12), se tiene

S =Sn+1 �1

�� 1�Sn+1

=Sn+1 ��Sn�Sn+1

�Sn+1 ��Sn;

obteniendo as��

S0

n = Sn+1 ��Sn�Sn+1

�2Sn

: (VI:3:14)

Page 287: alisis erico

276 VI Integraci�on Num�erica

El m�etodo que acaba de ser formulado por (VI.3.14), es conocido por el

procedimiento �2 de Aitken. En la tabla VI.3.3, se dan los valores obtenidos

por este procedimiento, para el ejemplo precedente.

Tabla VI.3.3. Procedimiento � de Aitken.

S0

k Valor integral Error Exacto

S0

0 9:988928686033609E� 03 0:35E � 14

S0

1 9:988928686033618E� 03 0:26E � 14

S0

2 9:988928686033618E� 03 0:26E � 14

Con la �nalidad de comparar la e�ciencia, del procedimiento �2 de Aitken,

para obtener un error del orden de 0:26� 10�14 solo se necesitan 3 evalua-

ciones de integrales de f , mientras que, sin el procedimiento de aceleraci�on

es necesario 14 evaluaciones de integral.

El siguiente paso en lograr una convergencia m�as rapida en el c�alculo de

integrales, consiste en generalizar el procedimiento �2 de Aitken, para tal

efecto se supuso que

Sn+1 � S = �(Sn � S);

por consiguiente

Sn � S = C�n:

Ahora bien, para ser m�as precisos se puede suponer que

Sn � S = C1�1 + C2�2 + � � �Ck�k; (VI:3:15)

con los �i diferentes dos a dos, de donde la diferencia �n = Sn � S satisface

una ecuaci�on de diferencias �nitas o relaci�on recursiva de la forma

�n+k + a1�n+k�1 + � � �+ ak�n = 0: (VI:3:16)

La teor��a de ecuaciones de diferencias �nitas, tiene como resultado central,

que los �i, i = 1; : : : ; k; son raices del polinomio caracter��stico de (VI.3.16)

dado por

�k + a1�

k�1 + � � �+ ak: (VI:3:17)

Se tiene un problema inverso, pues no se conocen los valores de los ak, pero

si los valores de �n, los cuales pueden servir para determinar los valores de

los ak a partir del sistema lineal0B@ Sn � S � � � Sn+k � S

......

Sn+k � S � � � Sn+2k � S

1CA0@ ak

...

a1

1A = 0: (VI:3:18)

Page 288: alisis erico

VI.3 Implementaci�on Num�erica 277

Este sistema tiene soluciones no triviales para el sistema lineal homogeneo,

por lo tanto el determinante de la matriz es nulo. Efectuando sustracciones

sobre las �las de la matriz, se obtiene

det

0BB@Sn � S Sn+1 � S � � � Sn+k � S

�Sn �Sn+1 � � � �Sn+k...

...

�Sn+k�1 � � � � � � �Sn�k�1

1CCA = 0;

luego, se tiene��������Sn Sn+1 � � � Sn+k

�Sn �Sn+1 � � � �Sn+k...

...

�Sn+k�1 � � � � � � �Sn�k�1

�������� =

= S

��������1 1 � � � 1

�Sn �Sn+1 � � � �Sn+k...

...

�Sn+k�1 � � � � � � �Sn�k�1

�������� ;efectuando sustracciones sobre la columna de la matriz del lado derecho de

la ecuaci�on, se obtiene �nalmente

S =

��������Sn Sn+1 � � � Sn+k

�Sn �Sn+1 � � � �Sn+k...

...

�Sn+k�1 � � � � � � �Sn�k�1

����������������2

Sn � � � �2Sn+k�1

......

�2Sn+k�1 � � � �2

Sn+k�2

�������(VI:3:19)

Por ultimo la relaci�on (VI.3.19), puede mejorarse si al determinante del

numerador se agrega la primera linea a la segunda linea, la segunda linea a

la tercera y as�� sucesivamente, convirtiendose en

S(k) =

��������Sn Sn+1 � � � Sn+k

Sn+1 Sn+1 � � � Sn+k+1

......

Sn+k � � � � � � Sn�k

����������������2

Sn � � � �2Sn+k�1

......

�2Sn+k�1 � � � �2

Sn+k�2

������� :(VI:3:20)

Page 289: alisis erico

278 VI Integraci�on Num�erica

Este resultado constituye una joya desde el punto de vista te�orico, pero es una

cat�astrofe, si se quiere implementar num�ericamente, las razones son obvias.

Por lo tanto es necesario construir un algoritmo que permita determinar

S(k), sin necesidad de calcular expl��citamente los determinantes encontrados

en la �ultima expresi�on. El m�etodo que ser�a explicado constituye el algoritmo

epsilon o m�as simplemente �-algoritmo.

Algoritmo Epsilon

El siguiente teorema formulado por Wynn en 1956, permite calcular S(k).

Teorema VI.3.1.- Dados S0; S1; S2; : : : ; se de�ne la sucesi�on �

(n)

k k =

�1; 0; : : : ; n = 0; 1; : : : ; de manera recursiva, como

(n)�1 = 0;

(n)0 = Sn;

(n)

k+1 = �

(n+1)

k�1 +1

(n+1)

k � �

(n)

k

;

(VI:3:21)

entonces

(n)2 = S

0

n; �

(n)4 = S

00

n; �

(n)6 = S

(3)n ; : : : (VI:3:22)

Demostraci�on.- Una demostraci�on completa y una explicaci�on detallada

puede encontrarse en Brezinski. �

La sucesi�on de�nida por el teorema precedente permite formular el �-

algoritmo en forma de una tablero, ver la �gura VI.3.1.

(0)

�1

�(0)

0

(1)

�1

&������!%

�(0)

1

�(1)

0

&������!%

�(0)

2

(2)

�1

&������!%

�(1)

1

&������!%

�(0)

3

�(2)

0

&������!%

�(1)

2

&������!%

�(0)

4

(3)

�1

&������!%

�(2)

1

&������!%

�(1)

3

&������!%

�(0)

5

�(3)

0

&������!%

�(2)

2

&������!%

�(1)

4

&������!%

�(0)

6

Figura VI.3.1. Esquema �-algoritmo.

Page 290: alisis erico

VI.3 Implementaci�on Num�erica 279

En la �gura VI.3.4, podr�a apreciarse la verdadera potencia del �-

algoritmo. La sucesi�on de�nida por

Sn = 4

nXk=0

(�1)k2k + 1

; (VI:3:23)

converge hacia �, sin embargo la convergencia de esta sucesi�on es muy

lenta. Para obtener una precisi�on de 10�35, son necesarias por lo menos 1035

evaluaciones de esta sucesi�on, lo cual es imposible: por el tiempo de c�alculo

y por el error de redondeo. Aplicando el epsilon-algoritmo, se obtiene la

precisi�on requerida, los errores de �(n)

k son dados en la �gura VI.3.4.

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 1510−20

10−18

10−16

10−14

10−12

10−10

10−8

10−6

10−4

10−2

100

k=0

k=2

k=4

k=6

k=8

k=10

k=24 k=22

k=0

k=2

k=4

k=6

k=8

k=10

k=24 k=22

Figura VI.3.4. Error de �(n)

k en funci�on de n.

Otro medio para acelerar la convergencia en el c�alculo de integrales

impropias, consiste en efectuar un cambio de variable conveniente. A conti-

nuaci�on se presentar�a algunos ejemplos donde el c�alculo de la integral

converge con mas rapidez o mayor lentitud dependiendo del cambio de

variable elegido.

Ejemplos

a) Consid�erese, la integral impropiaZ 1

0

logx

x2 + 100

dx:

Page 291: alisis erico

280 VI Integraci�on Num�erica

Se observa inmediatamente que f(x) no est�a acotada en las proximidades

del origen. Aplicando la funci�on GAUINT con una tolerancia igual a

TOL = 10�14. Si se desea obtener el valor exacto de esta integral con

un error exacto inferior a 10�13 son necesarias 69 � 15 evaluaciones de

la funci�on f .

Efectuando el cambio de variable x = t2, se obtiene la integralZ 1

0

4t log t

t4 + 100

dt;

integral que ha sido ya evaluada, ver la tabla VI.3.2. La funci�on a integrar

es acotada, y son necesarias 27�15 evaluaciones de la funci�on integrada.Si nuevamente se realiza otro cambio de variable, como por ejemplo,

t = s2, se obtiene la integralZ 1

0

16s3 log s

s8 + 100

ds;

denotando por h(s) a la funci�on integrada, se puede mostrar que h(s)

es dos veces continuamente diferenciable. Resolviendo por la funci�on

GAUINT son necesarias 7� 15 evaluaciones de h.

b) Las integrales de la forma Z 1

0

f(x)px

dx;

pueden ser calculadas con menos evaluaciones, si se hace el cambio de

variable x = t2, obteniendo as��

2

Z 1

0

f(t2)dt:

c) Las integrales impropias del tipoZ1

1

f(x)dx;

mediante el cambio de variable x = 1=t se convierten enZ 1

0

f(1=t)1

t2dt:

Por lo tanto, para acelerar la convergencia, puede utilizarse de manera

combinada el �-algoritmo, con un cambio de variable adecuado. Vale la pena

Page 292: alisis erico

VI.3 Implementaci�on Num�erica 281

recalcar que el objetivo principal del cambio de variable es volver la funci�on

integrada m�as lisa, es decir que sea lo su�cientemente derivable para poder

aplicar la subrutina GAUINT en el m�aximo de su e�ciencia. Sin embargo el

cambio de variable puede volver m�as complicada la funci�on a integrar, motivo

por el cual la ganancia obtenida en una disminuci�on de evaluaciones de la

funci�on integrada puede perderse con las mismas evaluaciones de la funci�on.

Uno de los tipos de integral donde mejor se ajusta los m�etodos de

aceleraci�on propuestos, como el cambio de variable conveniente o el algoritmo

epsilon consiste en:

Funciones con Oscilaciones

Escapando un poco a la rutina del libro de presentar las bases te�oricas de

la soluci�on de un problema, para luego tratar algunos ejemplos, se analizar�a

este tipo de evaluaci�on de integral impropia con un ejemplo.

Consid�erese la integral de Fresnel, dada porZ1

0

sin(x2)dx =1

2

r�

2:

La funci�on sin(x2) se anula en x2 = k� con k 2 N, de�niendo as�� una sucesi�onde n�umeros positivos fxkg, dada por

xk =pk�:

Planteando

Ik =

Z xk+1

xk

sin(x2)dx; k = 0; 1; 2; : : : ;

donde Ik pueden ser calculadas por GAUINT se de�ne la sucesi�on fSkg, por

Sk =

kXj=0

Ij ;

teniendo como resultado Z1

0

sin(x2)dx = limk!1

Sk:

Ahora bien la convergencia de Sk es muy lenta, utilizando �-algoritmo

la velocidad de la convergencia hacia la integral, se aumenta de manera

ostensible. Ver la tabla VI.3.4.

Page 293: alisis erico

282 VI Integraci�on Num�erica

Tabla VI.3.4. C�alculo de la integral de Fresnel

k Sk S0

k S00

k S(3)

S(4)

S(5)

0 :89483147 :63252334 :62682808 :62666213 :62665722 :62665721

1 :43040772 :62447449 :62660885 :62665582 :62665582

2 :78825896 :62773451 :62667509 :62665746 :62665746

3 :48624702 :62603581 :62664903 :62665692

4 :75244267 :62705261 :62666112 :62665713

5 :51172983 :62638728 :62665483

6 :73311637 :62685063 :62665838

7 :52703834 :62651269

8 :72060138 :62676812

9 :53751806

10 :71165881

Ejercicios

1.- Para una sucesi�on fSngn�0, el �-algoritmo est�a de�nido por:

(n)�1 = 0;

(n)0 = Sn;

(n)

k+1 = �

(n+1)

k�1 +1

(n+1)

k � �

(n)

k

:

Si la aplicaci�on del �-algoritmo a fSngn�0 y a fSngn�0 = faSn + bgproporciona respectivamente las cantidades �

(n)

k y �(n)

k . Mostrar que

(n)

2l = a�

(n)

2l + b; �

(n)

2l+1 =1

a

(n)

2l+1: :

2.- Utilizar el �-algoritmo para el c�alculo de las integrales:

a)1

100

Z 1

0

x�0:99

dx; b)

Z 1

0

logxpx

dx:

Page 294: alisis erico

VI.3 Implementaci�on Num�erica 283

3.- Sup�ongase que la sucesi�on fSng satisface

Sn+1 � S = (�+ �n)(Sn � S)

con j�j < 1, limn!1

�n = 0 y consid�erese el procedimiento �2 de Aitken

S0

n = Sn+1 ��Sn�Sn+1

�2Sn

; n = 0; 1; : : : :

Demostrar que la sucesi�on fS0ng converge m�as r�apidamente hacia S que

la sucesi�on fSng; es decir

limn!1

S0

n � S

Sn � S

= 0:

Indicaci�on.- Veri�car que �Sn = (�� 1 + �n)(Sn � S) y encontrar una

f�ormula similar para �2Sn

Page 295: alisis erico

VI.4 Transformaci�on de Fourier

En est�a secci�on ser�a abordado el c�alculo num�erico de las transformadas de

Fourier, es decir los coe�cientes de las series de Fourier para una determinada

funci�on. Se iniciar�a un repaso te�orico sobre las series de Fourier, luego se

introducir�a la transformada discreta de Fourier, cuya abreviaci�on usual es

TDF , para �nalmente ver la transformaci�on r�apida de Fourier m�as conocida

como FFT .

Las motivaciones de la utilizaci�on de series de Fourier est�an dadas por

sus diferentes aplicaciones en numerosas �areas de la ciencia, como de la

tecnolog��a; para citar algunas de ellas, se tiene el tratamiento de se~nales, la

resoluci�on de ecuaciones diferenciales, la construcci�on de m�etodos espectrales

en la resoluci�on de ecuaciones a derivadas parciales, etc.

La teor��a de la transformaci�on de Fourier est�a ��ntimamente ligada a

las funciones 2�-peri�odicas e integrables. En este libro se supondr�a que las

funciones son integrables en el sentido de Riemann, y no se considerar�a el

caso m�as general. Recordando la:

De�nici�on VI.4.1.- La serie de Fourier de una funci�on 2�- peri�odica e

integrable, est�a dada de manera formal por

f(x) �Xk2Z

f(k)eikx; (VI:4:1)

donde los coe�cientes de Fourier est�an de�nidos por

f(k) =1

2�

Z 2�

0

f(x)e�ikxdx: (VI:4:2)

Denotando por E , el espacio de las funciones 2�-peri�odicas, tales queZ 2�

0

f(x)f(x)dx <1; 8f 2 E ;

se tiene que E es un espacio vectorial provisto del producto sesquilinial, dadopor

hf; gi =Z 2�

0

f(x)g(x)dx: (VI:4:3)

Una simple veri�caci�on muestra que las funciones de�nidas por

'k(x) = eikx

; (VI:4:4)

Page 296: alisis erico

VI.4 Transformaci�on de Fourier 285

constituyen una familia ortogonal de funciones, es decir

h'k ; 'ji = 0; si j 6= k:

Para conocer m�as respecto a las propiedades de espacios de Hilbert, familias

ortonormales y series de Fourier existe una ambundante bibliograf��a, por

ejemplo Rudin.

La de�nici�on VII.4.1 es una de�nici�on formal, es decir la serie de Fourier

de una funci�on dada, no necesariamente debe converger hacia la funci�on.

Sin embargo existen condiciones su�cientes sobre la funci�on f , para que

la serie de Fourier converga hacia f o por lo menos en casi todos los

puntos. A continuaci�on se enunciar�a estas condiciones su�cientes y el tipo

de convergencia que uno puede esperar obtener.

Teorema VI.4.2.- Dirichlet. Sea f : R ! C una funci�on de clase C1 por

trozos y peri�odica de periodo 2�. La serie de Fourier de f es convergente en

todo punto de R. En un punto x donde la funci�on es continua, el l��mite de

la serie es f(x). En un punto x donde f no es continua, la suma de la serie

es1

2(f(x�) + f(x+)): (VI:4:5)

Adem�as, la convergencia de la serie de Fourier de f es uniforme en todo

intervalo compacto que no contiene ning�un punto de discontinuidad de f .

Demostraci�on.- Una demostraci�on de este teorema puede encontrarse en

Gramain. �

Con la formulaci�on de este teorema, se conoce la clase de funciones

de las cuales la serie de Fourier es igual a la funci�on, en todo caso en los

puntos donde la funci�on es continua. Es prop�osito de esta secci�on estudiar

los m�etodos num�ericos que permitan calcular los coe�cientes de Fourier, y

por ende la serie de Fourier asociada. Una primera alternativa de c�alculo de

estos coe�cientes consiste en utilizar un m�etodo de integraci�on propuesto en

las secciones precedentes de este cap��tulo. Sin embargo existen alternativas

menos costosas y m�as simples que dan excelentes resultados.

Sea f : [0; 2�] ! C , sup�ongase que la funci�on f(x) es conocida para los

x dados por la subdivisi�on equidistante

xl =2�l

N

; l = 0; 1; : : : ; N: (VI:4:6)

Como f(xN ) = f(x0) por hip�otesis, el c�alculo de (VI.4.2) puede realizarse

mediante la regla del trapecio, obteniendo como aproximaci�on de f(k)

fN(k) =1

N

N�1Xl=0

f(xl)e�ikxl

: (VI:4:7)

Page 297: alisis erico

286 VI Integraci�on Num�erica

Ahora bien, (VI.4.7) induce las de�niciones siguientes.

Consid�erese, el espacio de las sucesiones N -peri�odicas

PN = f(yk)k2Zjyk 2 C ; yk+N = ykg: (VI:4:8)

De�nici�on VI.4.3.- La transformada discreta de Fourier (DFT) de y 2 PNes la sucesi�on (zk)k2Z, donde

zk =1

N

N�1Xl=0

yle�ikxl =

1

N

N�1Xl=0

yl!�kl

; con ! = e2i�=N

:

Se la denota z = FNy.Proposici�on VI.4.4.- La transformada discreta de Fourier satisface las

siguientes propiedades:

a) Para y 2 PN , se tiene que FNy 2 PN .b) La aplicaci�on Fn : PN ! PN es lineal y biyectiva.

c) La aplicaci�on inversa de FN est�a dada por

F�1N = N � �FN ; (VI:4:9)

donde

( �FNz)k := (FN �z)k =1

N

N�1Xl=0

zl!kl: (VI:4:10)

Demostraci�on.- Utilizando el hecho que !N = e

2�i = 1 y !�lN =

(!N )�l = 1, se obtiene

zk+N =1

N

N�1Xl=0

yl!�(k+N)l =

1

N

N�1Xl=0

yl!�kl = zk;

mostrando as�� la periocidad de zk. La linearidad de FN resulta de una

veri�caci�on inmediata. Para mostrar la biyectividad y al mismo tiempo la

f�ormula (VI.4.10), se calcula

( �FNFNy)j =1

N

N�1Xk=0

(FNy)k!kj

=1

N2

N�1Xk=0

N�1Xl=0

yl!�kl

!kj

=1

N2

N�1Xl=0

yl

1

N

N�1Xk=0

!k(j�l)

!

=1

N

yj :

Page 298: alisis erico

VI.4 Transformaci�on de Fourier 287

La �ultima igualdad de este c�alculo, es consecuencia de

N�1Xk=0

!km =

N�1Xk=0

(!m)k =

�N si m = 0modN

!mN�1

!m�1= 0 si no.

Hay que remarcar que !m = 1 si m = 0modN . �

Estudio del Error

Sup�ongase que

yl = f(xl); xl =2�l

N

; l = 0; 1; : : : ; N ;

para una funci�on f : R ! C que es 2�-peri�odica. La f�ormula siguiente des-

cribe c�omo la transformada de Fourier discreta dada por (VI.4.7) aproxima

los coe�cientes de Fourier dados por (VI.4.2).

Teorema VI.4.5.- Si la serieXk2Z

f(k) es absolutamente convergente, en-

tonces

fn(k)� f(k) =Xj2Z

j 6=0

f(k + jN): (VI:4:11)

Demostraci�on.- La hip�otesis sobre los coe�cientes de Fourier implica que

se tenga igualdad en la f�ormula (VI.4.1), ver Gramain. Por lo tanto, se tiene

fN(k) =1

N

N�1Xl=0

Xn2Z

f(n)einxl

!!�kl =

Xn2Z

f(n)

1

N

N�1Xl=0

!(n�k)l

!| {z }

=

�1 si n = k((mod)N

0 si no

=Xj2Z

f(k + jN)

Corolario VI.4.6.- Sea f : R ! C , p veces continuamente derivable (p � 2)

y 2�-peri�odica. Entonces,

fN (k)� f(k) = O(N�p); para jkj � N

2: (VI:4:12)

Page 299: alisis erico

288 VI Integraci�on Num�erica

En particular, con h = 2�=N , se tiene

h

2�

N�1Xj=0

f(xj)�1

2�

Z 2�

0

f(x)dx = O(hp); (VI:4:13)

lo que signi�ca que, para funciones lisas y peri�odicas, la f�ormula del trapecio

es muy precisa.

Demostraci�on.- Se mostrar�a primero que los coe�cientes de Fourier satis-

facen ���f(k)��� � C:k�p: (VI:4:14)

En efecto, varias integraciones por partes dan

f(k) =1

2�

Z 2�

0

f(x)e�ikxdx

= f(x)e�ikx

�ik

����2�0| {z }

0

+(i�)�1

2�

Z 2�

0

f0(x)e�ikxdx

...

=(ik)�p

2�

Z 2�

0

f(p)(x)e�ikxdx

teniendo as��, (VI.4.14) con C =1

2�

Z 2�

0

���f (p)(x)��� dx:Para jkj � N=2 y j 6= 0 se tiene que jk + jN j � (jjj � 1=2)N , utilizando

(VI.4.11), se obtiene���fN(k)� f(k)��� �X

j�1

C(j � 1=2)�pN�p = C1 �N�p:

Obs�ervese que la serie en esta f�ormula converge para p > 1. �

Es muy importante remarcar que fn(k) es una sucesi�on N -peri�odica,

propiedad de la transformada discreta de Fourier, y que por otro lado f(k)

converge muy rapidamente hacia 0 por (VI.4.14). Por consiguiente para k

grande, por ejemplo k � N , fN es una mala aproximaci�on de f(k); mientras

que para jkj � N=2 la aproximaci�on es en general muy buena.

Interpolaci�on Trigonom�etrica

Para la divisi�on equidistante (VI.4.6) del intervalo [0; 2�] y para

y0; y1; : : : ; yN�1 dados, se busca un polinomio trigonom�etrico, es decir una

Page 300: alisis erico

VI.4 Transformaci�on de Fourier 289

combinaci�on lineal �nita de funciones eikx, que pase por (xl; yl), para

l = 0; 1; : : : ; N � 1: La existencia de tal polinomio trigonom�etrico est�a

asegurada por el siguiente:

Teorema VI.4.7.- Sea y 2 PN y z = FNy su transformada discreta de

Fourier. Entonces, el polinomio trigonom�etrico

pN (x) =

N=2Xk=�N=2

0

zkeikx :=

1

2

�z�N=2e

�iNx=2 + zN=2eiNx=2

�+

Xjkj<N=2

zkeikx

;

(VI:4:15)

satisface pn(xl) = yl para l = 0; 1; : : : ; N � 1:

Hay que remarcar que si los yk son reales, fzkg es una sucesi�on herm��tica,es decir z�k = �zk y por lo tanto el polinomio pN (x) es un polinomio a

coe�cientes reales.

Demostraci�on.- Para l �jo, la sucesi�on fzkeikxlg es N -peri�odica, por

consiguiente

pN (xl) =

N�1Xk=0

zkeikxl = N � ( �FNz)l = N( �FNFNy)l = yl:

El siguiente teorema a ser enunciado provee una estimaci�on del error

de la interpolaci�on trigonom�etrica con consecuencias importantes, que ser�an

explicadas posteriormente.

Teorema VI.4.8.- Sea f : R ! C una funci�on 2�-peri�odica tal queXk2Z

f(k)

sea absolutamente convergente. Entonces, el polinomio trigonom�etrico dado

por (VI.4.15), para yl = f(xl) satisface para todo x 2 R

jpN (x)� f(x)j � 2pN (x) =X

jkj�N=2

0

���f(k)��� : (VI:4:16)

Demostraci�on.- Restando (VI.4.1) de (VI.4.15) se obtiene

pN (x) � f(x) =

N=2Xk=�N=2

0

�fN(k)� f(k)

�eikx �

Xjkj�N=2

0f(k)eikx:

La aserci�on es pues consecuencia de (VI.4.11) y de la desigualdad del

tri�angulo �

Page 301: alisis erico

290 VI Integraci�on Num�erica

Este teorema permite una interpretaci�on interesante. Consid�erese una

funci�on 2�-peri�odica de frecuencia maximal M , es decir f(k) = 0 para

jkj > M . Entonces, el polinomio trigonom�etrico da el resultado exacto

pN (x) = f(x) para todo x, si

N > 2M: (VI:4:17)

Este resultado, el Teorema del Muestreo, da una f�ormula para el n�umero de

muestras necesarias para obtener una representaci�on exacta de una funci�on.

La evaluaci�on de FN requiere N2 multiplicaciones y adiciones, si se

la realiza directamente. Sin embargo existe un procedimiento que permite

descender el costo en operaciones a N log2N . Este procedimiento ser�a visto

en la siguiente subsecci�on.

Transformaci�on R�apida de Fourier (FFT)

El algoritmo que ser�a estudiado, se debe a Cooley & Tukey en 1965, se basa

sobre las ideas de Runge 1925. Para poder formular �este, es necesario la

siguiente:

Proposici�on VI.4.9.- Sean u = (u0; u1; : : : ; uN�1) 2 PN ,v = (v0; v1; : : : ; vN�1) 2 PN y def��nase

y = (u0; v0; u1; v1: : : : ; uN�1; vN�1) 2 P2N : (VI:4:18)

Entonces, para k = 0; 1; : : : ; N � 1; se tiene (!2N = e2i�=2N = e

�i=N )

2N(F2Ny)k = N(FNu)k + !�k2NN(FNv)k;

2N(F2Ny)k+N = N(FNu)k � !�k2NN(FNv)k:

(VI:4:18)

Demostraci�on.- Utilizando el hecho que !22N = !N , un c�alculo directo da

para k arbitrario

2N(F2Ny)k =2N�1Xj=0

yje�2�ijk=2n

=

2N�1Xj=0

yj!�jk2N

=

N�1Xl=0

y2l|{z}ul

!�2lk2N| {z }!�lkN

+

N�1Xl=0

y2l+1| {z }vl

!

�(2l+1)k2N| {z }

!�k2N���!�lk

N

= N(FNu)k + !�k2NN(FNv)k:

Page 302: alisis erico

VI.4 Transformaci�on de Fourier 291

La segunda f�ormula de (VI.4.18) resulta de !�N2N = �1: �

La f�ormula (VI.4.18) permite calcular, con N multiplicaciones y 2N

adiciones, la transformada discreta de Fourier de y 2 P2N a partir de FNuy FNv. El mismo procedimiento puede ser aplicado recursivamente a las

sucesiones u y v, si �estas tienen una longitud par.

Si se supone que N = 2m, se obtiene el algoritmo presentado en el

esquema siguiente (para N = 8 = 23).

FN

0BBBBBBBBB@

y0

y1

y2

y3

y4

y5

y6

y7

1CCCCCCCCCA*FN=2

0B@y0

y2

y4

y6

1CA*FN=4

�y0

y4

�*FN=8y0 = y0

FN=8y4 = y4

FN=4

�y2

y6

�*FN=8y2 = y2

FN=8y6 = y6

FN=2

0B@y1

y3

y5

y7

1CA*FN=4

�y1

y5

�*FN=8y1 = y1

FN=8y5 = y5

FN=4

�y3

y7

�*FN=8y3 = y3

FN=8y7 = y7

(VI:4:19)

Figura VI.4.1. Esquema para C�alculo de FFT.

La programaci�on de este algoritmo se la realiza en dos �etapas. La

primera, se ordena los yi en el orden exigido por (VI.4.19), es decir es

necesario invertir los bits en la representaci�on binaria de los indices:

0=(0; 0; 0) 0=(0,0,0)

1=(0; 0; 1) 4=(1,0,0)

2=(0; 1; 0) 2=(0,1,0)

3=(0; 1; 1) ! 6=(1,1,0

4=(1; 0; 0) 1=(0,0,1)

5=(1; 0; 1) 5=(1,0,1)

6=(1; 1; 0) 3=(0,1,1)

7=(1; 1; 1) 7=(1,1,1)

Despu�es, se efectua las operaciones de (VI.4.18) de la manera como indica

el esquema (VI.4.19).

Page 303: alisis erico

292 VI Integraci�on Num�erica

Para pasar de una columna a otra en el esquema (VI.4.19) son necesarias

N=2 multiplicaciones complejas y de otrasN adiciones o sustracciones. Como

m = log2N pasajes son necesarios, entonces se tiene el:

Teorema VI.4.10.- Para N = 2m, el c�alculo de FNy puede ser realizado

con:N

2log2N multiplicaciones complejas y

N log2N adiciones complejas.

Para ilustrar mejor la importancia de este algoritmo, ver la tabla VI.4.1

para comparar el c�alculo de FNy con o sin FFT.

Tabla VI.4.1. Comparaci�on de FFT con DFT.

N N2

N log2N cociente

25 = 32 � 103 160 � 6:4

210 � 103 � 106 � 104 100

220 � 106 � 1012 � 2 � 107 5� � 104

Aplicaciones de la FFT

La transformada r�apida de Fourier, tiene una gran cantidad de aplicaciones,

desde el c�alculo de espectrogramas, resoluci�on de ecuaciones diferenciales

ordinarias o a derivadas parciales, hasta la soluci�on de sistemas lineales.

De�niendo el producto de convoluci�on de dos sucesiones N -peri�odicas

y 2 PN y z 2 Pn, por

(y � z)k =N�1Xl=0

yk�lzl: (VI:4:20)

Se tiene la siguiente propiedad, ver ejercicio 1,

FN (y � z) = N � FNy � FNz; (VI:4:21)

de donde (VI.4.20) puede ser calculado mediante O(N log2N) operaciones.

La resoluci�on de un sistema lineal con una matriz de Toeplitz circular

puede ser resuelto utilizando FFT. En efecto, un tal sistema es de la forma0BBBB@a0 aN�1 aN�2 � � � a1

a1 a0 aN�1 � � � a2

a2 a1 a0 � � � a3

......

... � � �...

aN�1 aN�2 aN�3 � � � a0

1CCCCA0BBBB@

x0

x1

x2

...

xN�1

1CCCCA =

0BBBB@b0

b1

b2

...

bN�1

1CCCCA : (VI:4:22)

Page 304: alisis erico

VI.4 Transformaci�on de Fourier 293

Evidentemente, el sistema lineal (VI.4.22) es equivalente a a � x = b, si se

considera (ai), (xi) y (bi) como sucesiones de PN .La multiplicaci�on de una matriz de Toeplitz arbitraria con un vector0BBBB@a0 a�1 a�2 � � � a�N+1

a1 a0 a�1 � � � a�N+2

a2 a1 a0 � � � aN+3

......

... � � �...

aN�1 aN�2 aN�3 � � � a0

1CCCCA0BBBB@

x0

x1

x2

...

xN�1

1CCCCA =

0BBBB@b0

b1

b2

...

bN�1

1CCCCA ; (VI:4:23)

puede ser resuelta utilizando FFT, considerando las sucesiones en P2N

a = (a0; a1; : : : ; aN�1; 0; a�N+1; a�N+2; : : : ; a�1);

x = (x0; x1; : : : ; xN�1; 0; 0; : : : ; 0):

Se puede veri�car facilmente que el resultado del producto (VI.4.23) es la

primera mitad del producto de convoluci�on a�x. Por consiguiente, el c�alculocon FFT da un algoritmo r�apido para efectuar el producto (VI.4.23).

Ejercicios

1.- Mostrar que

Fn(y � z) = N � FNy � FNz;

para el producto de convoluci�on

(y � z)k =N�1Xl=0

yk�lzl;

de dos suceciones N -peri�odicas. Deducir que

y � z = N � F�1N (FNy � FNz):

2.- Resolver la ecuaci�on diferencial con valores en la frontera

u00(x) = �1 u(0) = u(2�) = 0;

gra�car la soluci�on.

Page 305: alisis erico

Cap��tulo VII

Ecuaciones Diferenciales

El estudio de una gran cantidad de fen�omenos de las m�as diversas ca-

racter��sticas se traducen en ecuaciones diferenciales. La descripci�on de un

fen�omeno mediante ecuaciones diferenciales tiene un proposito primordial

que es la predecibilidad. Por otro lado, permite obtener conclusiones de

car�acter local, que ser�an extrapoladas para tener informaciones globales

del modelo estudiado. El �enfasis que se hace a la resoluci�on anal��tica de

las ecuaciones diferenciales en los cursos de Ecuaciones Diferenciales que

se dictan en los primeros niveles de las universidades, tienen el objetivo de

encontrar soluciones generales a los diversos problemas diferenciales que se

encuentran en el transcurso de los estudios universitarios, como tambi�en en

el ejercicio profecional. Este hecho se debe fundamentalmente que hasta hace

no mucho, no se contaban con los medios tecn�ologicos que permitan resolver

ecuaciones diferenciales con la precisi�on que se requer��a. Por consiguiente, el

objetivo de estos cursos eran esencialemte obtener las soluciones en forma de

f�ormulas, perdiendose as�� el car�acter esencial de las ecuaciones diferenciales

que es el estudio local de los fen�omenos. Adem�as cuestiones como existencia

y unicidad no son abordadas por falta de tiempo.

Este cap��tulo tiene como objetivo principal la formulaci�on de m�etodos

num�ericos de resoluci�on de problemas diferenciales a valores iniciales o

problemas de Cauchy. La primera parte tratar�a sobre cuestiones de existencia

y unicidad de las ecuaciones diferenciales. Luego se abordar�a los m�etodos a

un paso y como expresi�on de estos; los m�etodos de Runge-Kutta, desde la

construcci�on de estos, estimaciones de error y como corolario los metodos

encajonados del tipo Dormand & Prince. La tercera parte de este cap��tulo

tratar�a los m�etodos num�ericos a paso m�ultiple, se ver�a la construcci�on de

estos, cuestiones de estabilidad y convergencia.

Page 306: alisis erico

VII.1 Generalidades

En este cap��tulo I , I0 designan intervalos abiertos de R no reducidos a un

punto y t0 un punto �jo de I0; se da una funci�on f de�nida y continua sobre

I0 � Rm con valores en Rm , un elemento y0 2 Rm , y se desea encontrar una

funci�on y continua y derivable sobre el intervalo I0, con valores en Rm , tal

que:

y0(t) = f(t; y(t)); 8t 2 I0; (VII:1:1)

y(t0) = y0: (VII:1:2)

Este problema se lo conoce con el nombre de problema de Cauchy para el

sistema diferencial (VII.1.1); la condici�on (VII.1.2) se llama una condici�on

de Cauchy. Una funci�on y que satisface el sistema (VII.1.1) es llamada una

integral del sistema (VII.1.1). En numerosos ejemplos f��sicos, la variable t

representa el tiempo, el instante t0, es por consiguiente, llamado instante

inicial y la condici�on (VII.1.2) llamada condici�on inicial.

Se puede remarcar que si se denota por y1; y2; : : : ; ym las componentes

de y, por f1(t; y1; : : : ; ym); : : : ; fm(t; y1; : : : ; ym) las componentes de f(t; y)

la ecuaci�on (VII.1.1) es equivalente al sistema8>>>><>>>>:y0

1(t) = f1(t; y1(t); : : : ; ym(t))

y0

2(t) = f2(t; y1(t); : : : ; ym(t))

...

y0

m(t) = fm(t; y1(t); : : : ; ym(t))

: (VII:1:3)

Las ecuaciones del sistema VII.1.3 son de primer orden, pues en �estas, el

orden de derivaci�on m�as alto que aparece es el primero. Consid�erese ahora

un problema diferencial de orden p, de la forma

y(p)(t) = f(t; y(t); y0(t); : : : ; y(p�1)); (VII:1:4)

el cual puede convertirse en problema de la forma (VII.1.1), planteando

z1(t) = y(t); z2(t) = y0(t); : : : ; zp(t) = y

(p�1)(t);

el problema diferencial (VII.1.4), por consiguiente es equivalente al sistema8>>>>><>>>>>:

z0

1(t) = z2(t)

...

z0

p�1(t) = zp(t)

z0

p(t) = f(t; z1(t); : : : ; zp(t))

:

Page 307: alisis erico

VII.1 Generalidades 297

de donde planteando

z = (z1; z2; : : : ; zp)t y F (t; z) = (z2; : : : ; zp; f(t; z1; : : : ; zp))

t;

se tiene

z0(t) = F (t; z(t)): (VII:1:5)

La condici�on de Cauchy para el problema (VII.1.5) est�a dada por

y(t0); y0(t0); : : : ; y

(p�1)(t0).

Ahora bien, en este cap��tulo no ser�a tratado el problema diferencial

general de orden p, dado por

F (t; y(t); y0(t); : : : ; y(n)(t)) = 0; 8t 2 I0: (VII:1:6)

Cuando se puede aplicar el teorema de las funciones implicitas, (VII.1.6) es

localmente equivalente a la ecuaci�on de la forma (VII.1.4) y la teor��a que

ser�a desarrollada en este cap��tulo podr�a ser aplicada a este tipo de problema

sin inconvenientes. Si el teorema de las funciones implicitas no es aplicable,

serias di�cultades matem�aticas y num�ericas pueden aparecer, en este caso se

habla de ecuaciones diferenciales algebraicas, para saber m�as sobre este tipo

de ecuaciones referirse a Hairer & Wanner.

Finalmente es necesario remarcar que, si bien I0 es un intervalo abierto,

el estudio de las soluciones de los problemas diferenciales permite considerar

los intervalos de la forma [t0; t0 + T ) y (t0 � T; t0], obteniendo el intervalo

abierto por recolamiento de ambos subintervalos semiabiertos.

Teoremas de Existencia y Unicidad

En esta subsecci�on se supondr�a que la terminolog��a b�asica es conocida por

el lector. No obstante, se enunciar�a dos teoremas muy importantes en lo que

concierne el an�alisis num�erico de ecuaciones diferenciales. El primer teorema

a enunciarse da condici�ones su�cientes para asegurar la existencia y unicidad

de las soluciones de los problemas a valores iniciales. El segundo teorema

est�a relacionado con la condici�on misma del problema, pues cuando se trata

num�ericamente un problema es de suponer que se trabaja con una soluci�on

aproximada del problema.

Teorema VII.1.1.- Cauchy-Lipschitz. Sup�ongase que f es continua sobre

I0 � Rm y que satisface una condici�on de Lipschitz, es decir que existe un

real L tal que

kf(t; z)� f(t; y)k � L kz � yk 8(t; y) y (t; z) 2 I0 � Rm ; (VII:1:7)

entonces el problema (VII.1.1,2) admite una soluci�on y una sola.

Demostraci�on.- Se dar�a una demostraci�on directa que tiene la ventaja de

ser valida cuando se remplaza Rn por un espacio de Banach.

Page 308: alisis erico

298 VII Ecuaciones Diferenciales

Paa �jar las ideas, sup�ongase que I0 = [t0; t + t0] y consid�erese la

aplicaci�on � que a y 2 C0([t0; t + t0]) asocia �(y) 2 C0([t0; t + t0]) de�nida

por

�(y)(t) = y0 +

Z t

t0

f(s; y(s))ds:

Introduciendo la norma

kykL = maxs2I0

(e�2L(s�t0) ky(s)k)

que dota C0(I0) de una estructura de espacio de Banach. Se tiene

k(�(y)��(y�))(t)k �Z t

t0

kf(s; y(s))� f(s; y�(s))k ds

�Z t

t0

Le2L(s�t0)

ds ky � y�kL

� 1

2e2L(t�t0) ky � y

�kL ;

deduciendose

k�(y)��(y�)kL �1

2ky � y

�kL :

El teorema del punto �jo implica que � tiene un solo punto �jo en C0(I0),de donde se tiene el resultado. �

Teorema VII.1.2.- Sea f : V ! Rn continua, donde V � Rn+1 abierto.

Sup�ongase que: y(x) es una soluci�on de y0 = f(x; y) sobre [x0; �x], tal que

y(x0) = y0; v(x) una soluci�on aproximada de la ecuaci�on diferencial sobre

[x0; �x0] tal que

kv0(x) � f(x; v(x))k l � � (VII:1:8)

y f satisface una condici�on de Lipschitz sobre un conjunto que contenga

f(x; y(x)); (x; z(x))g, es decir

kf(x; y)� f(x; z)k � L ky � zk : (VII:1:9)

Entonces

ky(x)� v(x)k � ky0 � v(x0)k eL(x�x0) +�

L

�eL(x�x0) � 1

�: (VII:1:10)

Demostraci�on.- Se tiene:

y(x)� v(x) = y(x0)� v(x0) +

Z x

x0

(y0(s)� v0(s))ds

= y(x0)� v(x0) +

Z x

x0

(f(s; y(s))� f(s; v(s)) + f(s; v(s))� v0(s)) ds;

Page 309: alisis erico

VII.1 Generalidades 299

pasando a las normas y aplicando las hip�otesis (VII.1.8) y (VII.1.9), se

obtiene

ky(x)� v(x)k � ky0 � v(x0)k+Z x

x0

(L ky(s)� v(s)k+ �) ds:

Planteando

u(x) = ky0 � v(x0)k+Z x

x0

(L ky(s)� v(s)k+ �) ds;

se deduce

u0(x) = L ky(x)� v(x)k+ � � Lu(x) + �;

de esta manera se obtiene la desigualdad diferencial

u0(x) � Lu(x) + �

u(x0) = ky0 � v(x0)k :(VII:1:11)

Para resolver este desigualdad, se considera la familia de ecuaciones:

w0

n(x) = Lwn(x) + �; wn(x0) = u(x0) +1

n

; (VII:1:12)

cuyas soluciones est�an dadas por:

wn(x) = wn(x0)eL(x�x0) +

L

�eL(x�x0) � 1)

�:

El siguiente paso en la demostraci�on es mostrar que

u(x) � wn(x): (VII:1:13)

Sup�ongase lo contrario, es decir que existe un n y s > x0, tales que

u(s) > wn(s). Consid�erese el conjunto

A = fx > x0ju(x) > wn(x)g

y sea x1 = inf A. Por continuidad se tiene u(x1) = wn(x1). De donde:

wn(x1)� wn(x0) =

Z x1

x0

w0

n(s)ds =

Z x1

x0

(Lwn(s) + �)ds

�Z x1

x0

(Lu(s) + �)ds �Z x1

x0

u0(s)ds

= u(x1)� u(x0);

Page 310: alisis erico

300 VII Ecuaciones Diferenciales

por lo tanto

w(x0) � u(x0);

llegando a una contradicci�on con �1=n � 0.

Problemas con Valores en la Frontera

La teor��a de existencia y unicidad de ecuaciones diferenciales son general-

mente formuladas para problemas de Cauchy o problemas a valores iniciales,

sin embargo existe una gran variedad de problemas diferenciales de otras ca-

racter��sticas que ser�an tratados en esta subsecci�on.

Toda ecuaci�on diferencial puede expresarse como un sistema de ecua-

ciones diferenciales de primer orden de la manera siguiente

y0 = f(x; y); (VII:1:14)

donde f : R � Rn ! Rn .Un problema diferencial con valores en la frontera es darse una ecuaci�on

diferencial del tipo (VII.1.14) con n condiciones para y(a) y y(b), donde

a; b 2 R. Existe una gama de problemas diferenciales con valores en la

frontera. A continuaci�on se mostrar�a los ejemplos m�as representativos.

Ejemplos

a) Problemas a valores iniciales. Son de la forma

y0 = f(x; y);

y(x0) = y0:

Este tipo de problema tiene soluci�on �unica si f es continua y veri�ca las

condiciones de Lipschitz.

b) Consid�erese el problema

y00 = y;

y(a) = A;

y(b) = B:

La ecuacion diferencial de segundo orden puede reducirse al siguiente

sistema de primer ordeny0

1 = y2;

y0

2 = y1;

con condiciones de borde dadas por y1(a) = A y y1(b) = B. Este

problema siempre tiene soluci�on �unica cuando a 6= b.

Page 311: alisis erico

VII.1 Generalidades 301

c) Encontrar una soluci�on T peri�odica de una ecuaci�on diferencial, por

ejemplo

y0 = y + cosx:

Es muy facil deducir que T = 2�k, con k entero. El problema es encontrar

una soluci�on de la ecuaci�on diferencial que satisfaga

y(x) = y(x+ T ):

d) Determinar el par�ametro � 2 Rp de la ecuaci�on

y0 = f(x; y; �);

donde la soluci�on buscada veri�ca y(a) = ya y g(y(a)) con g : Rn ! Rp .

Ahora bien, este problema puede expresarse como el problema diferencial

equivalentey0 = f(x; y; �);

�0 = 0;

con condiciones de frontera

y(a) = ya;

g(y(b)) = 0:

e) Problemas a frontera libre, son de la forma

y00 = f(x; y; y0);

y(0) = A;

y(l) = B;

y0(l) = 0;

con l desconocido. Este problema mediante una transformaci�on af��n de

x, puede expresarse de la siguiente forma

z00 = l

2f

�lt; z;

z0

l

�;

l0 = 0;

con condiciones de borde dadas por

z(0) = A; z(1) = B; z0(1) = 0:

En base a los ejemplos expuestos m�as arriba, el problema diferencial con

valores en la frontera puede expresarse como

y0 = f(x; y);

r(y(a); y(b));(VII:1:15)

Page 312: alisis erico

302 VII Ecuaciones Diferenciales

donde f : R � Rn ! R y r : Rn � Rn ! Rn .Por consiguiente la funci�on r en los diferentes ejemplos, ser�a igual a:

r(y(a); y(b)) = y(a)� ya ejemplo a);

r

��y1(a)

y2(a)

�;

�y1(b)

y2(b)

��=

�y1(a)�A

y1(b)�B

�ejemplo b);

r(y(x0); y(x0 + T )) = y(x0)� y(x0 + T ) ejemplo c);

Introduciendo la notaci�on siguiente

y(x; a; ya) (VII:1:16)

para expresar la soluci�on y(x) que satisface y(a) = ya, el problema diferencial

con condiciones en la frontera consiste en encontrar ya, tal que

r(ya; y(b; a; ya)) = 0: (VII1:17)

De�niendo la funci�on F : Rn ! Rn por

F (ya) = r(ya; y(b; a; ya)); (VII:1:18)

resumiendose el problema diferencial con valores en la frontera a encontrar

ya tal que

y0 = f(x; y);

F (ya) = 0:(VII:1:19)

Sup�ongase que y�(x) sea una soluci�on de (VII.1.19), es decir y�a = y�(a),

adem�as que F0(y�a) sea inversible, por el teorema de la inversi�on local la

soluci�on y�a es localmente �unica y por consiguiente y�(x) lo es tambi�en.

La ecuaci�on F (ya) se resuelve generalmente por un m�etodo iterativo,

si F no es lineal, se utiliza por ejemplo el m�etodo de Newton. Para poder

aplicar el m�etodo de Newton es necesario conocer F 0(ya). Ahora bien, se

tiene

F0(ya) =

@r

@ya

(ya; y(b; a; ya)) +@r

@yb

(ya; y(b; a; ya))@y

@ya

(b; a; ya): (VII:1:20)

Diferenciabilidad respecto a los Valores Iniciales

En la expresi�on (VII.1.20) puede observarse que existe una expresi�on que es

derivada respecto al valor inicial ya. Retomando la notaci�on de la secci�on

precedente se tiene y(x; x0; y0) es la soluci�on que pasa por (x0; y0) de la

Page 313: alisis erico

VII.1 Generalidades 303

ecuaci�on diferencial y0 = f(x; y), donde f : R � Rn ! Rn . El problemaconsiste en determinar

@y

@y0

(x; x0; y0): (VII:1:21)

En el caso lineal, se tiene que la ecuaci�on diferencial es de la forma

y0 = A(x)y (VII:1:22)

donde A(x) es una matriz de coe�cientes (aij(x) continuos. La soluci�on

general de (VII.1.22) est�a dada por

y(x; x0; y0) =

nXi=1

y(x; x0; ei)y0i = R(x; x0)y0 (VII:1:23)

donde los ei son los vectores de la base can�onica de Rn . La matriz R(x; x0)

se llama el nucleo resolvente o la resolvente de la ecuacion (VII.1.22). Es

facil de veri�car que@y

@y0

(x; x0; y0) = R(x; x0) (VII:1:24)

Para el caso no lineal la situaci�on es un poco m�as complicada. Se tiene

@y

@x

(x; x0; y0) = f(x; y(x; x0; y0)) (VII:1:25)

suponiendo que @y=@y0 existe y el orden de derivaci�on conmuta, se obtiene

@

@x

�@y

@y0

(x; x0; y0)

�=

@f

@y

(x; y(x; x0; y0))@y

@y0

(x; x0; y0)

con@y

@y0

(x0; x0; y0) = I;

de donde@y

@y0

(x; x0; y0) es la resolvente de la ecuaci�on diferencial lineal

0 =@f

@y

(x; y(x; x0; y0)): (VII:1:26)

Shooting Simple

Retomando el problema con valores en la frontera formulado bajo la forma

de las ecuaciones (VII.1.18) y (VII.1.19) puede ser resuelto utilizando el

m�etodo conocido como shooting simple, que en s��ntesis es utilizar un m�etodo

Page 314: alisis erico

304 VII Ecuaciones Diferenciales

n�umerico para resolver (VII.1.19). Este m�etodo puede ser Newton u otro

m�etodo num�erico adaptado al problema. Sin pretender dar una teor��a que

justi�que tal m�etodo, para tal efecto referirse a Stoer, se mostrar�a este

m�etodo implementado en ejemplos.

Ejemplos

a) Consid�erese el problema con valores en la frontera dado por:

y00 = �ey;

y(0) = 1;

y(1) =1

2:

(VII:1:27)

Utilizando la notaci�on de la subsecci�on precedente, se plantea

y(x; �);

la soluci�on del problema diferencial a valores iniciales

y00 = �ey;

y(0) = 1;

y0(0) = �:

(VII:1:27b)

El problema (VII.1.27) se traduce en encontrar �, tal que

y(1; �) =1

2:

En la �gura VII.1.1, puede observarse en la gr�a�ca los valores de y(1) en

funci�on de �.

0 2 4 6 8 10

−1

0

1

2

α

y(1)

Figura VII.1.1. Valores de y(1) en funci�on de �.

Page 315: alisis erico

VII.1 Generalidades 305

Observando la gr�a�ca, se puede deducir que el problema (VII.1.27) tiene

dos soluciones. El siguiente paso es aplicar el m�etodo del shooting simple,

obteniendo de esta manera dos soluciones. La primera con

� = 0:9708369956661049;

la segunda soluci�on con

� = 7:93719815816973:

Puede apreciarse las gra�cas de las dos soluciones, en la �gura (VII.1.2)

0 10

1

2

3

4

5

0

1

2

3

4

5

Figura VII.1.2. Soluciones del Problema (VII.1.26).

b) En este ejemplo se analizar�a un problema de soluciones peri�odicas.

Consid�erese la ecuaci�on diferencial de Van der Pol, dada por

y00 = (1� y

2)y0 � y: (VII:1:28)

El problema consiste en determinar si existe una soluci�on peri�odica y

sobre todo c�omo es �esta. Ahora bien, (VII.1.28) puede escribirse como

el sistema de ecuaciones diferenciales

y0

1 = y2;

y0

2 = (1� y21)y2 � y1:

(VII:1:29)

Planteando y(x) = (y1(x); y2(x)), el problema se resume en encontrar

T > 0, tal que y(T ) = y(0), que puede formularse de la siguiente manera

F (T; y0) = y(T; 0; y0)� y0 = 0: (VII:1:30)

Sup�ongase que T; y0 sean una aproximaci�on de la soluci�on del problema

(VII.1.30), de donde

F (T +�T; y0 +�y0) = 0;

Page 316: alisis erico

306 VII Ecuaciones Diferenciales

con �T , �y0 escogidos convenientemente. Desarrollando en serie de

Taylor, se deduce:

F (T; y0) +@F

@T

(T; y0)�T +@F

@y0

(T; y0)�y0 = 0;

y(T; 0; y0)� y0 + f(y(T; 0; y0))�T +

�@y

@y0

(T; 0; y0)� I

��y0 = 0:

Por consiguiente, se tiene n ecuaciones lineales, con n + 1 incognitas,

agregando la condici�on suplementaria

�y0 ? f(y(T; 0; y0)); (VII:1:31)

se obtiene� @y

@y0(T; 0; y0)� I f(y(T; 0; y0))

ft(y(T; 0; y0)) 0

���y0�T

�= �

�y(T; 0; y0)� y0

0

�:

(VII:1:32)

Partiendo de los valores iniciales

y1(0) = 1:;

y2(0) = 2:;

T = 7:;

luego de 14 iteraciones se obtiene con una precisi�on del orden de 10�13,

los valores iniciales y el periodo

y1(0) = 2:00861986087296;

y2(0) = 0:;

T = 6:66328685933633:

La soluci�on peri�odica de la ecuaci�on Van der Pol puede apreciarse en la

�gura VII.1.3

−3 −2 −1 0 1 2 3

−3

−2

−1

0

1

2

3

Figura VII.1.3. Soluciones Periodica de Van der Pol.

Page 317: alisis erico

VII.1 Generalidades 307

Shooting M�ultiple

La soluci�on del problema con valores en la frontera

y0 = f(x; y); r(y(a); y(b)) = 0;

requiere que para todo punto x de la regi�on donde est�a de�nida la soluci�on y

se tenga una aproximaci�on num�erica de y(x). En el m�etodo shooting descrito

en la anterior subsecci�on, solamente el valor inicial y(a) = ya es determinado.

En muchos problemas es su�ciente conocer este valor, sin embargo en una

gran variedad de problemas con valores en la frontera conocer este valor no

es nada �able. Para ilustrar esto, consid�erese la ecuaci�on diferencial.

y00 � y

0 + 110y = 0; (VII:1:33)

cuya soluci�on general est�a dada por

y(x) = C1e�10x + C2e

11x; (VII:1:34)

donde C1 y C2 son constantes reales arbitrarias. El problema a valor inicial

y(0) = y0 y y0(0) = y

0

0 tiene como soluci�on

y(x) =11y0 � y

0

0

21e�10x +

y0

0 + 10y0

21e11x

: (VII:1:35)

Ahora bien, consid�erese el problema con valores en la frontera dado por

y(0) = 1; y(10) = 1;

la soluci�on de este problema consiste en determinar y0

0 de la f�ormula

(VII.1.35). Por consiguiente, resolviendo la ecuaci�on lineal

11� y0

0

21e�100 +

10 + y0

0

21e110 = 1;

se obtiene

y0

0 =21� 10e110 � 11e�100

e110 � e

100:

Debido a la aritm�etica de punto otante que las computadoras poseen, en

lugar de y00, se manipula la cantidad

�y00 = �10(1 + �); con j�j � eps: (VII:1:36)

Suponiendo que los c�alculos se hacen en doble precisi�on, se puede tomar por

ejemplo � = 10�16. Remplazando y00 en (VII.1.35), se obtiene

y(100) � 10�15

21e110 � 2:8� 1031:

Page 318: alisis erico

308 VII Ecuaciones Diferenciales

Otra de las di�cultades mayores en la implementaci�on del m�etodo

shooting en su versi�on simple, es la necesidad de contar con una buena

aproximaci�on de ya, lo que en general no sucede. Por otra lado, los valores

que pueden tomar los ya, en muchas situaciones, est�an con�nados a regiones

demasiado peque~nas; por ejemplo considerese el problema

y00 = y

3;

y(0) = 1;

y(100) = 2;

(VII:1:37)

los valores que puede tomar y0(0), para que y(x) est�e de�nida en el intervalo

[0; 100], est�an restringidos a un intervalo de longitudo no mayor a 10�6. Por

este motivo puede deducirse la di�cultad de implementar el m�etodo shooting

simple.

El remedio a estas di�cultades enumeradas m�as arriba est�a en la im-

plementaci�on del m�etodo shooting m�ultiple, que consiste en subdividir el

intervalo [a; b] en subintervalos de extremidades xi, es decir tomar una sub-

divisi�on a = x0 < x1 � � � < xn = b. Luego, se denota por yi = y(xi). De esta

manera se obtiene el sistema de ecuaciones8>>>>>>><>>>>>>>:

y(x1; x0; y0)� y1 = 0

y(x2; x1; y1)� y2 = 0

...

y(xn; xn�1; yn�1) = 0

r(y0; yn) = 0:

(VII:1:38)

La soluci�on de (VII.1.38) se la encuentra utilizando un m�etodo iterativo,

que puede ser Newton si el problema no es lineal. Como ilustraci�on de este

M�etodo se tiene los siguientes dos ejemplos.

Ejemplos

a) Consid�erese el problema (VII.1.37). Para su resoluci�on se ha subdivi-

dido equidistantemente en 100 subintervalos. La soluci�on del sistema

(VII.1.38) se la hecho utilizando el m�etodo de Newton. Las iteraciones

y las gr�a�cas pueden apreciarse en la �gura VII.1.4.

Page 319: alisis erico

VII.1 Generalidades 309

0 20 40 60 80 1000

1

2

3iter=0

0 20 40 60 80 1000

1

2

3iter=1

0 20 40 60 80 1000

1

2

3iter=2

0 20 40 60 80 1000

1

2

3iter=3

0 20 40 60 80 1000

1

2

3iter=4

0 20 40 60 80 1000

1

2

3iter=11

Figura VII.1.4. Implementaci�on M�ultiple Shooting.

b) Este ejemplo est�a relacionado con un problema ingen��eril. Un granjero

desea un silo cuya base sea un c��rculo de radio 5m, de altura 10m y

el techo sea un c��rculo de radio 2:5m, la capacidad del silo debe ser

exactamente de 550m3. Suponiendo que el costo es proporcional al �area

del silo. >C�ual es la forma de �este?

Page 320: alisis erico

310 VII Ecuaciones Diferenciales

Matem�aticamente el problema puede ser formulado como:

area lateral �! min;

v�olumen = 550:

Por la simetr��a del problema, se puede deducir que el silo es una super�cie

de revoluci�on, por lo tanto el problema puede expresarse de la manera

siguiente: Encontrar una funci�on y(x), tal que

Z 10

0

y

p1 + y

02dx �! min;

Z 10

0

y2dx = 550;

y(0) = 5;

y(10) = 2:5:

Planteando

L(�; y; y0) = y

p1 + y

02 � �

�y2 � 55

�;

el problema es equivalente, por los Multiplicadores de Lagrange a

Z 10

0

L(�; y; y0)dx! min :

Este problema es de tipo variacional. Aplicando las ecuaciones de Euler-

Lagrange se convierte en el problema diferencial siguiente

d

dx

�@

@y0

�y

p1 + y

02 � �(y2 � 55

���

@

@y

�y

p1 + y

02 � �(y2 � 55

)

�= 0:

La soluci�on de este problema ha sido efectuada utilizando el m�eto de

shooting m�ultiple. Como soluci�on inicial se ha utilizado una par�abola

que satisfaga las condiciones de contorno y la condici�on de v�olumen. El

intervalo [0; 10] ha sido subdivido en 10 subintervalos de igual longitud.

Despues de 5 iteraciones se llega a una precisi�on de 10�10. Las iteraciones

Page 321: alisis erico

VII.1 Generalidades 311

del m�etodo pueden apreciarse en la �gura VII.1.5.

0 10012345678

iter=0

0 10012345678

iter=1

0 10012345678

iter=2

0 10012345678

iter=3

0 10012345678

iter=4

0 10012345678

iter=5

Figura VII.1.4. Determinaci�on del Silo �optimo.

A continuaci�on se presenta una serie de ejercicios, cuya �nalidad es

recordar las nociones b�asicas sobre las ecuaciones diferenciales.

Ejercicios

1.- Resolver:y0 = �x signo(y)

pjxj;

y0 = exp(y) sin(x);

y0 = (x� y + 3)2:

Dibujar los campos de vectores.

2.- Dibujar el campo de vectores de la ecuaci�on

xy0 =

px2 � y

2 + y:

Encontrar una f�ormula explicita para las soluciones.

3.- La ecuaci�on de un cuerpo en caida libre est�a dada por

r00 = � M

r2; r(0) = R; r

0(0) = v0: (VII:1:39)

Page 322: alisis erico

312 VII Ecuaciones Diferenciales

Plantear r0 = p(r), deducir una ecuaci�on diferencial para p y resolverla.

Encontrar una condici�on para v0, tal que r(t) ! 1 si t ! 1. Calcular las

soluciones de (VII.1.39) que tienen la forma a(b� x)�.

4.- Transformar la ecuaci�on de Bernoulli

y0 +

y

1 + x

+ (1 + x)y4 = 0;

en una ecuaci�on lineal. Plantear y(x) = z(x)q con q conveniente.

5.- Resolver la ecuaci�on de Riccati

y0 = y

2 + 1� x2: (VII:1:40)

Dibujar el campo de vectores considerando las curvas donde y0 = cons,

las isoclinas. Deducir una soluci�on particular �(x) de (VII.1.40). Calcular

las otras soluciones mediante la transformaci�on z(x) = y(x)� �(x):

6.- Encontrar la soluci�on de

y00 � 3y0 � 4y = g(x); g(x) =

�cosx; 0 � x � �=2;

0; �=2 � x;

que satisface y(0) = y0(0) = 0.

7.- Resolver las ecuaciones lineales

y0 =

�3 6

�2 �3

�y; y

0 =

�1 �14 �3

�:

Page 323: alisis erico

VII.2 M�etodo de Euler

En esta secci�on ser�a estudiado el m�etodo m�as sencillo de resoluci�on de

ecuaciones diferenciales con valores iniciales.

Se considera el problema a valor inicial o problema de Cauchy dado por(y0 = f(x; y);

y(t0) = y0;(VII:2:1)

donde f : V ! Rn continua, con V � R�Rn . Se desea determinar y(t0+T ),

para eso se considera la subdivisi�on del intervalo [t0; t0 + T ] dada por

t0 < t1 < t2 < � � � < tn = t0 + T;

de�niendo

hi = xi+1 � xi; i = 0; : : : ; n� 1: (VII:2:2)

La idea fundamental del m�etodo de Euler consiste en aproximar la soluci�on

exacta en x1, utilizando una tangente que pase por (x0; y0), es decir

y1 = y0 + h0f(x0; y0): (VII:2:3)

De manera generalxi+1 = xi + hi;

yi+1 = yi + hif(xi; yi):(VII:2:4)

La soluci�on num�erica proporcionada por el m�etodo de Euler es, por consi-

guiente una funci�on poligonal, ver �gura VI.2.1, denotada por yh(x), llamada

pol��gono de Euler; esta funci�on esta de�nida por:

h = (h0; : : : ; hn);(x 2 [xk; xk+1];

yh(x) = yk + (x � xk)f(xk; yk):

(VII:2:5)

y

yy

yy

yy

0

1

2

3

4

56

x x x x x x1 2 3 4 5 6

y(x)

Figura VII.2.1. El Pol��gono de Euler

Page 324: alisis erico

314 VII Ecuaciones Diferenciales

Una pregunta muy natural, que uno puede plantearse, consiste en determinar

bajo que condiciones el m�etodo de Euler converge hacia la soluci�on exacta

del problema diferencial de Cauchy, cuando n!1.

Consid�erese el problema

y0 = f(x; y);

y(x0) = y0;(VII:2:6)

donde f : U ! Rn , con U � R � Rn abierto. Se de�ne

jhj = maxi=0;:::;n�1

hi: (VII:2:7)

Proposici�on VII.2.1.- Sea D = f(x; y)jx 2 [x0; x0+a]; ky � y0k � bg � U .Sup�ongase que f jfD continua, A = max

(x;y)2Dkf(x; y)k, � = min(a; b=A).

Entonces para cada divisi�on h del intervalo [x0; x0 + �] se tiene:

a) kyh(x) � yh(�x)k � A kx� �xk; x; �x 2 [x0; x0 + �].

b) si kf(x; y)� f(x0; y0)k � � sobre D, entonceskyh(x) � (y0 + (x� x0)f(x0; y0))k � � jx� x0j :

Demostraci�on.-El punto a) es trivial, ya que es consecuencia de la

de�nici�on de yh, A y la desigualdad del tri�angulo aplicada una cantidad

�nita de veces.

La demostraci�on del punto b) es la siguiente. Sea x 2 [x0; x0 + �], por

consiguiente x 2 [xk�1; xk], de donde

yh(x) = yk + (x� xk�1)f(xk�1; yk�1)

= y0 + h0f(x0; y0) + h1f(x1; y1) + � � �+ hk�2f(xk�2; yk�2)

+ (x� xk�1)f(xk�1; yk�1):

Ahora bien,

y0 + (x� x0)f(x0; y0) = y0 + h0f(x0; y0) + : : : hk�2f(x0; y0)

+ (x� xk�1)f(xk�1; yk�1);

obteniendo �nalmente b). �

Proposici�on VII.2.2.- Sea h una divisi�on del intervalo I . Sean yh(x) el

pol��gono de Euler para (x0; y0) y zk(x) el pol��gono de Euler para (x0; z0). Si

kf(x; y)� f(x; z)k � L ky � zk ; 8(x; y); (x; z) 2 D; (VII:2:8)

entonces

kyh(x) � zh(x)k � kx0 � z0k eL(x�x0): (VII:2:9)

Page 325: alisis erico

VII.2 M�etodo de Euler 315

Antes de demostrar esta proposici�on vale la pena recalcar que si f

satisface una condici�on de Lipschitz, es decir (VII.2.8), el pol��gono de Euler

es �unico paa h dado.

Demostraci�on.- Se tiene:

y1 = y0 + h0f(x0; y0);

z1 = z0 + h0f(x0; z0);

obteniendo como desigualdad

ky1 � z1k � ky0 � z0k+ h0L ky0 � z0k� (1 + h0L) ky0 � z0k� e

h0L;

procediendo de manera recursiva, se obtiene

kyk � zkk � eLhk�1 kyk�1 � zk�1k

� eL(x�x0) ky0 � z0k :

Teorema VII.2.3.- Cauchy. Sea D = f(x; y)jx0 � x � x0 + a; ky � y0kg �U ; sup�ongase:i) f jD continua, A = max

(x;y)2Dkf(x; y)k, � = min(a; b=A),

ii) kf(x; y)� f(x; z)k � L ky � zk si (x; y); (x; z) 2 D;entonces:

a) Si jhj ! 0, entonces los pol��gonos de Euler yh(x) convergen uniforme-

mente sobre [x0; x0 + �] hacia una funci�on '(x).

b) '(x) es soluci�on de y0 = f(x; y), y(x0) = y0.

c) La soluci�on es �unica sobre [x0; x0 + �].

Demostraci�on.- Inicialmente se mostrar�a, que si hk es una sucesi�on de sub-

divisiones de [x0; x0 + �] con jhkj ! 0, entonces la sucesi�on de poligonos de

Euler asociada, es una sucesi�on de Cauchy para la norma de la convergencia

uniforme. Para tal efecto, se mostrar�a que

8� > 09� > 0 tal que jhj < �;

���h��� < �

=) 8x 2 [x0; x0 + �] se tiene yh(x) � yh(x)

< �:

donde h es una divisi�on con jhj < � y h una divisi�on m�as �na que h.

Page 326: alisis erico

316 VII Ecuaciones Diferenciales

Sea � > 0 dado, entonces existe � > 0 tal que si jx� �xj � � y

ky � �yk � A� implica que kf(x; y)� f(�x; �y)k � �. Esto es cierto por que

f es uniformemente continua sobre D.Por la proposici�on VII.2.1, se tiene

kyh(x)� fy0 + (x� x0)f(x0; y0)gk � � jx� x0j ;

de donde yh(x)� yh(x)

� �

h(x1 � x0)e

L(x�x1) + � � �+ (x� xk)eL(x�xk)

i�Z x

x0

eL(x�s)

ds = �

eL(x�x0) � 1

L

� �

eL� � 1

L

;

por consiguiente, fyh(x)g es una sucesi�on de Cauchy, con � que no depende

de x. Como consecuencia inmediata, se tiene que la sucesi�on converge hacia

una funci�on '(x) que adem�as es continua.

La demostraci�on del punto b) se basa en los siguientes hechos: yh(x0) =

y0 implica que '(x0) = y0, se considera el m�odulo de continuidad de f ,

de�nido por

�(�) = supfkf(x; y)� f(�x; �y)k j jx� �xj � �; ky � �yk � A�g;

se observa inmediatamente, que �(�)! 0 si � ! 0. Utilizando la proposici�on

VII.2.2, se obtiene

kyh(x+ �)� yh(x) � �f(x; yh(x))k � ��(�);

de donde, se tiene

k'(x + �)� '(x) � �f(x; '(x))k � ��(�);

efectuando el pasaje al l��mite, se obtiene

'0(x) = f(x; '(x)):

La unicidad del punto c) ha sido ya demostrada en el corolario VII.1.12 �

Corolario VII.2.4.- f : U ! Rn (U � �Rn ) continuamente diferenciable.

D = f(x; y)jx0 � x � x0 + �; ky � y0k � bg � U :

Page 327: alisis erico

VII.2 M�etodo de Euler 317

Sobre D se tiene kf(x; y)k � A,

@f@y

(x; y)

� L,

@f@x

(x; y)

�M .

Entonces

ky(x) � yh(x)k �M + AL

L

�eL(x�x0) � 1

�jhj ; (VII:2:10)

donde y(x) es soluci�on de y0 = f(x; y), y(x0) = y0.

Demostraci�on.- Remontando la demostraci�on del teorema precedente, se

tiene

kyh(x) � y(x)k � �

eL(x�x0) � 1

L

:

Puesto que f es diferenciable, se tiene

kf(x; y)� f(�x; �y)k � L ky � �yk+M jx� �xj� A jhj+ jhj ;

de donde planteando � = (LA+M) jhj se tiene (VII.2.10). �

Efectos de los Errores de Redondeo

Generalmente no se puede calcular la soluci�on exacta del esquema (VII.2.4);

se calcula solamente la soluci�on del esquema perturbado dado por

y�

n+1 = y�

n + hnf(tn; y�

n) + hn�n + %n (VII:2:11)

donde �n designa el error con el cual es calculado la funci�on f y %n los errores

de redondeo cometidos por la computadora. Se supondr�a que j�nj � � y

j%nj � %.

Con la hip�otesis suplementaria que f es continuamente diferenciable,

como en en el corolario VII.2.4, se tiene planteando en = y�

n � yn y

sustrayendo (VII.2.11) con (VII.2.4),

e�

n+1 = e�

n + hn[f(tn; y�

n)� f(tn; yn)] + hn�n + %n: (VII:2:12)

Puesto que f es diferenciable, se obtiene de (VII.2.12) el siguiente esquema

e�

n+1 = e�

n + hn[@f

@y

(tn; yn)e�

n] + hn�n + %n +O(ke�nk2): (VII:2:13)

Planteando zn = hne�

n, despreciando O(ke�nk2) y suponiendo que hn = h

constante, se obtiene el siguiente esquema para zn, con

zn+1 = zn + h[@f

@y

(tn; yn)zn] + h(h�n + %n); (VII:2:14)

Page 328: alisis erico

318 VII Ecuaciones Diferenciales

de donde zn es la soluci�on num�erica exacta obtenida a partir del m�etodo de

Euler de la ecuaci�on

z0(t) = [

@f

@y

(t; y(t))]z(t) + (h�(t) + %(t)): (VII:2:15)

En lugar de estudiar la soluci�on num�erica de (VII.2.15), se estudiar�a la

soluci�on de este problema cuando h tiende a 0. Qualquier soluci�on de

la ecuaci�on diferencial (VII.2.15) no puede ser identicamente nula por

la existencia del t�ermino no homogeneo no nulo, para h su�cientemente

peque~no este t�ermino no homogeneo es no nulo. Sea C = maxkz(t)k cuandoh = 0, por otro lado denotando zh(t) la soluci�on de (VII.2.15) para un h �jo,

se tiene que zh(t) converge uniformente hacia z0(t) cuando h tiende a 0. Por

lo tanto, existe un intervalo cerrado J � [t0; t0 + T ] y h0 para los cuales

kzh(t)k �C

28t 2 J;8h � h0:

Puesto que e�n � z(tn)=h, se tiene que

limh!0

e�

n =1:

Acaba de observarse que cuando la longitud de paso hn tiende a 0,

el error debido al redondeo toma un lugar preponderante, distorsionando

completamente cualquier resultado num�erico. En la �gura VII.2.2 puede

verse un comportamiento aproximado del error de redondeo en funci�on de

h.

h

Err

or

Figura VII.2.2. Error de Redondeo en el M�etodo de Euler.

La pregunta natural que surge es: >C�ual es el h m��nimo que se puede

tomar sin que el error de redondeo sea preponderante? La respuesta a esta

Page 329: alisis erico

VII.2 M�etodo de Euler 319

pregunta tiene dos fuentes, la primera que radica en la pr�actica num�erica,

y la segunda en un an�alisis sobre el origen de los otros errores que ocurren

durante la implementaci�on del m�etodo. Ambos estudios llegan a la conclusi�on

de

hmin � C

peps; (VII:2:16)

donde eps es la precisi�on de la computadora.

Las mayoraciones que se acaban de dar son por lo general demasiado

pesimistas, por ser rigurosos matem�aticamente, uno se situa en la situaci�on

m�as desfavorable posible. Por otro lado si se toma h muy peque~no, inferior

a eps, el algoritmo se mantiene estacionario.

Estabilidad del M�etodo de Euler

En la anterior subsecci�on se pudo observar la incidencia directa del error de

redondeo. En esta parte se analizar�a la propagaci�on del error de redondeo

en la soluci�on num�erica. Consid�erese el problema siguiente

y0 = �y; y(0) = y0: (VII:2:17)

El m�etodo de Euler con paso constante, da el siguiente esquema

yn+1 = yn + h�yn; (VII:2:18)

sup�ongase que en lugar de y0, se introduce una aproximaci�on �y0, planteando

en = �yn � yn donde �yn es la soluci�on num�erica de la ecuci�on (VII.2.17) con

valor inicial �y0. Los en veri�can la siguiente relaci�on:

en+1 = en + h�en; e0 = (�y0 � y0);

de donde

en = (�h+ 1)ne0: (VII:2:19)

Por consiguiente, el esquema (VII.2.17) ser�a estable siempre y cuando

limn!1

en = 0;

situaci�on que sucede cuando j�h+ 1j < 1. Por consiguiente, para obtener un

m�etodo estable es necesario que

hmax =2

j�j : (VII:2:20)

Por lo expuesto en la anterior subsecci�on y en �esta, se tiene necesariamente

que la longitud de paso est�a acotada inferiormente e superiormente. La

cota inferior impide que el error de redondeo distorsione completamente

Page 330: alisis erico

320 VII Ecuaciones Diferenciales

la soluci�on num�erica del problema, mientras que la cota superior en los

problemas lineales impide que el m�etodo diverga. La idea de estabilidad

puede generalizarse a problemas diferenciales lineales de mayor dimensi�on.

Por ejemplo, consid�erese el problema

y0 = Ay; y(0) = y0:

Con el procedimiento utilizado anterioremente e introduciendo normas en

los lugares apropiados es facil mostrar que el m�etodo de Euler es estable si

�(A+ I)h < 1; (VII:2:21)

donde �(A+ I) es el radio espectral de la matriz A+ I . Planteando z = �h,

se tiene estabilidad en el m�etodo, si y solamente si jz + 1j < 1. De donde, se

tiene de�nida una regi�on de estabilidad, dada en la �gura VII.2.3, la parte

achurada del c��rculo corresponde a la regi�on donde el m�etodo es estable.

1−1

i

−i

Figura VII.2.3. Regi�on de Estabilidad del M�etodo de Euler

El siguiente ejemplo ilustra, que el m�etodo de Euler no es un m�etodo

muy apropiado para resolver ciertos problemas diferenciales a valor inicial.

Consid�erese, el problema

y0(x) = �100y(x) + cosx;

y(0) = 0:(VII:2:22)

La soluci�on de este problema, est�a dada por

y(x) =100

10001cosx+

1

10001sinx+ Ce

�100x;

con C una constante determinada por la condici�on inicial. Puede observarse

que para x = �, se tiene

y(�) � � 100

10001� �0; 01: (VII:2:23)

Page 331: alisis erico

VII.2 M�etodo de Euler 321

Aplicando el m�etodo de Euler con paso constante se tiene:

h1 =�

165! yh(�) = �9:999� 10�3;

h2 =�

155! yh(�) = �60:101:

No obstante que h2 � h1 � 1:2 � 10�3, la diferencia de los resultados es

abismal. La explicaci�on de este fen�omeno de inestabilidad ha sido explicado

m�as arriba.

El problema dado por (VII.2.22) est�a dentro una categor��a de problemas

diferenciales conocidos con el nombre de ecuaciones diferenciales rigidas, ver

Hairer & Wanner. Para evitar aberraciones en los resultados num�ericos en

la resoluci�on num�erica de esta clase de problemas, el m�etodo de Euler puede

modi�carse, obteniendo as�� el:

M�etodo de Euler Impl��cito

En lugar de utilizar el esquema dado por (VII.2.4); el m�etodo de Euler

impl��cito, est�a dado por el esquema

yk+1 = yk + hkf(xk+1; yk+1): (VII:2:24)

Puede observarse inmediatamente, que para determinar yk+1 se debe resolver

una ecuaci�on, que en lo general no es lineal. Comparando con la versi�on

expl��cita del m�etodo de Euler, �esto constituye una di�cultad adicional, pues

para evaluar yk+1 debe utilizarse un m�etodo de resoluci�on de ecuaciones,

como ser el m�etodo de Newton. Puede mostrarse, ver Hairer & Wanner,

que si hk es lo su�cientemente peque~no, la convergencia del m�etodo de

Newton, o de otro m�etodo de resoluci�on est�a asegurada. Se ha expuesto

la desventaja principal del m�etodo de Euler impl��cito, respecto al m�etodo

de Euler expl��cito. A continuaci�on se expondr�a la principal motivaci�on

de utilizar la versi�on impl��cita en determinadas situaciones. La principal

desventaja del m�etodo de Euler expl��cito en radica en la falta de estabilidad

cuando h no es los su�cientemente peque~no, ver el ejemplo en el cual para

2 pasos muy proximos, las soluciones numericas del problema (VII.2.22)

di�eren de manera signi�cativa. El an�alisis de estabilidad del m�etodo de

Euler impl��cito es muy similar a la del m�etodo de Euler expl��cito, en

efecto considerando el problema (VII.2.18), se tiene que el m�etodo impl��cito

satisface la siguiente relaci�on recursiva para el error

en+1 = en + �hen+1; (VII:2:25)

de donde, se obtiene de manera expl��cita

en+1 =1

1� �h

en; (VII:2:26)

Page 332: alisis erico

322 VII Ecuaciones Diferenciales

teniendo de esta manera estabilidad en la propagaci�on de los errores de

redondeo, si y solamente si

j1� �hj > 1: (VII:2:27)

Para los problemas de la forma y0 = Ay, (VII.2.27) y remplazando z = �h,

se obtiene el dominio de estabilidad dado por

jz � 1j > 1; (VII:2:28)

el cual est�a dado en la �gura VII.2.3.

1

Figura VII.2.3. Regi�on de Estabilidad del M�etodo de Euler Impl��cito.

Ejercicios

1.- Aplicar el m�etodo de Euler al problema

y0 = y

2; y(0) = 1:

Evaluar y(1=4).

Utilizar pasos constantes, (por ejemplo h=1/6). Estimar el error con el

corolario VII.2.4. Comparar esta estimaci�on con el error exacto.

2.- Demostrar el resultado siguiente: Si el problema

y0 = f(x; y); y(x0) = y0;

con f : U ! Rn continua, U � �Rn abierto y (x0; y0) 2 U posee una

y una sola soluci�on sobre el intervalo I , entonces los pol��gonos de Euler

yh(x) convergen uniformemente sobre I hacia esta soluci�on.

3.- Aplicar el m�etodo de Euler al sistema

y0

1 = �y2;y0

2 = y1;

y1(0) = 1;

y2(0) = 0:

Utilizar pasos constantes para encontrar una aproximaci�on de la soluci�on

en el punto x = 0:4. Estimar el error como en el ejercicio 1 y compararla

con el error exacto. La soluci�on exacta es y1(x) = cosx, y2(x) = � sinx.

Page 333: alisis erico

VII.3 M�etodos de Runge-Kutta

En la anterior secci�on se formul�o el m�etodo de Euler en su versi�on expl��cita

como en su versi�on impl��cita. Uno de los grandes problemas con el cual

se debe confrontar en la utilizaci�on de este m�etodo, consiste en la falta

de precisi�on de �este, ver el corolario VII.2.4, motivo por el cual, los pasos

de integraci�on deben ser demasiado peque~nos, induciendo de esta manera

grandes perturbaciones debido al error de redondeo.

En esta secci�on se pretende construir m�etodos cuya precisi�on sea m�as

elevada, permitiendo as�� menos evaluaciones y una menor incidencia del

error de redondeo en los c�alculos. Se estudiar�a los m�etodos conocidos como

m�etodos a un paso, en contraposici�on a los m�etodos multipasos que ser�an

tratados en la siguiente secci�on.

Se pretende calcular una aproximaci�on de la soluci�on de

y0 = f(x; y); y(x0) = y0; (VII:3:1)

sobre el intervalo [x0; xe]. Se procede como sigue: De la misma manera que

en el m�etodo de Euler, se particiona [x0; xe] en subintevalos x0 < x1 < � � � <xN = xe, se denota hn = xn+1�xn y se calcula yn � y(xn) por una f�ormula

de la forma

yn+1 = yn + hn�(hn; xn; yn): (VII:3:2)

Una tal f�ormula se llamam�etodo a un paso, por que el c�alculo de yn+1 utiliza

los valores de hn; xn; yn de un paso solamente.

Puede observarse facilmente que el m�etodo de Euler corresponde bien a

esta categor��a de m�etodos a un paso. Vale la pena recalcar que los m�etodos

de la forma (VII.3.2) no solamente son m�etodos a un paso, si no que tambi�en

expl��citos. Para saber m�as referirse a Hairer & Wanner. Para simpli�car la

notaci�on, solamente se considerar�a el primer paso, es decir cuando n = 0 en

(VII.3.2) y escribir h en lugar de h0.

Para obtener otros m�etodos num�ericos se integra (VII.3.1) de x0 a x0+h.

La expresi�on que se obtiene, est�a dada por

y(x0 + h) = y0 +

Z x0+h

x0

f(t; y(t))dt: (VII:3:3)

La idea central consiste en remplazar la integral de (VII.3.3) por una

expresi�on que la aproxime. Por ejemplo, si se utiliza h(f(x0; y0)) como

aproximaci�on se tiene el m�etodo de Euler Expl��cito. Por consiguiente, la

idea ser�a utilizar f�ormulas de cuadratura que tienen un orden m�as elevado.

Page 334: alisis erico

324 VII Ecuaciones Diferenciales

Como ejemplo de la utilizaci�on de este ingenioso argumento, se tiene el

m�etodo de Runge. Se toma la f�ormula del punto medio que es una f�ormula

de cuadratura de orden 2. Obteniendo as��

y(x0 + h) � y0 + hf

�x0 +

h

2; y(x0 +

h

2)

�; (VII:3:4)

obteniendo posteriormente el valor desconocido y(x0 + h=2) mediante el

m�etodo de Euler. Esto da

y1 = y0 + hf

�x0 +

h

2; y0 +

h

2f(x0; y0)

�: (VII:3:5)

La interpretaci�on geom�etrica del m�etodo de Runge, ver �gura VII.3.1,

consiste en hacer pasar una recta tangente por el punto m�edio de las curvas

integrales de la ecuaci�on diferencial, obteniendo este punto medio mediante

una tangente que sale de (x0; y0). Ver la �gura VII.3.1.

x x x0 0 0+h/2 +h

Figura VII.3.1 M�etodo de Runge

Kutta en 1901, generaliz�o la idea de Runge, conduciendo a la de�nici�on

siguiente de los m�etodos que llevan sus nombres.

De�nici�on VII.3.1.- Un m�etodo de Runge-Kutta a s pisos, est�a dada por:

k1 = f(x0; y0);

k2 = f(x0 + c2h; y0 + ha21k1);

k3 = f(x0 + c3h; y0 + h(a31k1 + a32k2));

...

ks = f(x0 + csh; y0 + h(as1k1 + � � �+ as;s�1ks�1));

y1 = y0 + h(b1k1 + � � �+ bsks);

(VII:3:6)

Page 335: alisis erico

VII.3 M�etodos de Runge-Kutta 325

donde los ci; aij ; bj son coe�cientes. El m�etodo se representa por el esquema

c1 = 0

c2 a21

c3 a31 a32

......

.... . .

cs as1 as2 � � � as;s�1

b1 b2 � � � bs�1 bs

(VII:3:7)

Los m�etodos de Euler, como tambi�en los m�etodos de Runge y Heun est�an

dados en la tabla III.3.1

Tabla III.3.1. Primeros m�etodos de Runge-Kutta

0

1

Euler

0

1=2 1=2

0 1

Runge

0

1=3 1=3

2=3 0 2=3

1=4 0 3=4

Heun

Por razones de cuadratura, se supondr�a siempre que los ci satisfacen siempre

c1 = 0; ci =

i�1Xj=1

aij ; i = 2; : : : ; s: (VII:3:8)

La de�nici�on de orden de cuadratura para las f�ormulas de cuadratura,

puede extenderse a los m�etodos de Runge-Kutta de la siguiente manera.

De�nici�on VII.3.2.- Se dice que el m�etodo de Runge-Kutta dado por

(VII.3.6) tiene el orden p si, para cada problema y0 = f(x; y), y(x0) = y0

con f su�cientemente derivable, el error despu�es de un paso satisface

y1 � y(x0 + h) = O(hp+1); cuando h! 0: (VII:3:9)

La diferencia (VII.3.9) se llama error local del m�etodo.

El m�etodo de Euler es un m�etodo de orden 1, por que

y(x0 + h) = y0 + hy0(x0) +O(h2) = y0 + hf(x0; y0) +O(h2) = y1 +O(h2):

Page 336: alisis erico

326 VII Ecuaciones Diferenciales

El m�etodo de Runge est�a basado sobre la f�ormula del punto medio que es

una f�ormula de cuadratura de orden 2:

y(x0 + h) = y0 + hf (x0 + h=2; y(x0 + h=2)) +O(h3):

Remplazando y(x0 + h=2) por el valor y0 + (h=2)f(x0; y0) del m�etodo de

Euler, se agrega un t�ermino de tama~no O(h3). Entonces, este m�etodo tieneorden p = 2.

El m�etodo de Heun, ver tabla VII.3.1, se obtiene a partir de la f�ormula

de cuadratura

y(x0 + h) = y0 +h

4

�f(x0; y0) + 3f

�x0 +

2h

3; y(x0 +

2h

3)

��+O(h4);

si se remplaza y(x0 + 2h=3) por la aproximaci�on del m�etodo de Runge. De

donde el m�etodo de Heun tiene el orden p = 3.

Utilizando la suposici�on (VII.3,8) que es una condici�on simpli�cadora,

se tiene la siguiente proposici�on.

Proposici�on VII.3.3.- La condici�on (VII.3.8) implica que es su�ciente

considerar problemas aut�onomos de la forma y0 = f(y) para veri�car la

condici�on de orden.

Demostraci�on.- Se supone que (VII.3.9) es satisfecha para los problemas

autonomos de la forma y0 = F (y), y(x0) = y0.

Consid�erese un problema de la forma y0 = f(x; y), y(x0) = y0, el cual es

equivalente al problema

_y = f(x; y);

_x = 1;

y(0) = y0;

x(0) = 0;

obteniendo as��

Y0 = F (Y ); donde Y =

�x

y

�; F (Y ) =

�1

f(x; y);

�(VII:3:10)

con valor inicial Y0 = (x0; y0)t. La aplicaci�on del m�etodo de Runge-Kutta al

problema (VII.3.10) da

Ki = F

0@Y0 + h

i�1Xj=1

aijKj

1A =

�1

ki

�; Y1 = Y0 + h

sXi=1

biKi =

�x1

y1

�;

lo que es equivalente a (VII.3.6), por que

Y0 + h

i�1Xj=1

aijKj =

�x0

y0

�+ h

i�1Xj=1

aij

�1

kj

�=

�x0 + cih

y0 + h

Pi�1j=1 aijkj

�:

Page 337: alisis erico

VII.3 M�etodos de Runge-Kutta 327

El siguiente paso, es de estudiar un procedimiento que permita deter-

minar m�etodos de Runge-Kutta de ordenes m�as elevados. Un buen ejercicio

ser�a construir el m�etodo de Kutta que es de orden 4.

Construcci�on de un m�etodo de orden 4

La idea principal de la construcci�on del m�etodo de Runge, es considerar los

desarrollos en serie de Taylor de la soluci�on exacta y(x0+h), como tambi�en de

la soluci�on num�erica obtenida a partir del m�etodo, que se la denota por y1(h).

Luego comparar las series, para obtener condiciones sobre los coe�cientes del

m�etodo.

Serie de Taylor de la soluci�on exacta

Consid�erese el problema de Cauchy

y0 = f(y); y(x0) = y0: (VII:3:11)

derivando la ecuaci�on (VII.3.11), se obtiene para la soluci�on exacta

y00 =f 0yy

0 = f0

yf(y)

y000 =f 00y (y

0; f(y)) + f

0

yf0

yy0 = f

00

y (f(y); f(y)) + f0

yf0

yf(y)

y(4) =f 000y (f(y); f(y); f(y)) + 3f 00y (f

0

yf(y); f(y) + f0

yf00

y (f(y); f(y))

+ f0

yf0

yf0

yf(y);

de donde la serie de Taylor de la soluci�on exacta est�a dada por

y(x0 + h) = y0 + hf(y0) +h2

2!f0

yf(y0)

+h3

3!

�f00

y (f(y0); f(y0)) + f0

yf0

yf(y0)�

+�f000

y (f(y); f(y); f(y)) + 3f 00y (f0

yf(y); f(y)

+ f0

yf00

y (f(y); f(y)) + f0

yf0

yf0

yf(y)�+O(h5):

(VII:3:12)

Serie de Taylor de la soluci�on num�erica

Para calcular la serie de Taylor de y1, es su�ciente determinar las series de

los

ki = f(x0 + h

i�1Xj=1

aijkj): (VII:3:13)

Ahora bien, se puede considerar (VII.3.13) como una ecuaci�on a punto �jo,

pudiendo as�� aproximar los ki por el m�etodo de las aproximaciones sucesivas.

Comenzando la primera aproximaci�on de ki, se tiene

ki = f(y0) +O(h);

Page 338: alisis erico

328 VII Ecuaciones Diferenciales

utilizando (VII.3.8), se obtiene

ki = f(y0) + cihfyf(y0) +O(h2):

La segunda iteraci�on da como resultado

ki = f(y0 + hcif(y0) + h2Xj

aijcjfyf(y0) +O(h3))

= f(y0) + cihfyf(y0) + h2Xj

aijcjfyfyf(y0) +h2

2c2i f00

y (f(y0); f(y0))

+O(h3):

Efectuando todav��a una vez m�as una iteraci�on, e introduciendo los valores

obtenidos en la de�nici�on (VII.3.5) de yi, se obtiene

y1 = y0 + h

Xi

bi

!f0 +

h2

2

2Xi

bici

!(f 0f)0 (VII:3:14)

+h3

3!

0@ 3Xi

bic2i

!(f 00(f; f))0 +

0@6Xij

biaijcj

1A (f 0f 0f)0

1A+h4

4!

0@ Xi

bic3i

!(f 000(f; f; f))0 +

0@8Xij

biciaijcj

1A (f 00(f 0f 0f))0

+

0@24Xijk

biaijajkck

1A (f 0f 0f 0f)0

1A+O(h5);

donde el sub��ndice 0 indica que las evaluaciones deben ser hechas en el punto

y0.

Comparando los coe�cientes de (VII.3.12) y (VII.3.14), se encuentran

las condiciones que deben satisfacer los coe�cientes ci, bi y aij para contar

con un m�etodo de orden 4. Estas condiciones se las enuncia en el:

Teorema VII.3.4.- Condiciones de Orden. El m�etodo de Runge-Kutta

(VII.3.6) tiene el orden 4 si los coe�cientes satisfacen (VII.3.8) yXi

bi = 1; (VII:3:15a)

Xi

bici =1

2; (VII:3:15b)

Xi

bic2i =

1

3; (VII:3:15c)

Page 339: alisis erico

VII.3 M�etodos de Runge-Kutta 329Xij

biaij =1

6; (VII:3:15d)

Xi

bic3i =

1

4; (VII:3:15e)

Xij

biciaijcj =1

8; (VII:3:15f)

Xij

biaijc2j =

1

12; (VII:3:15g)

Xijk

biaijajkbk =1

24: (VII:3:15h)

Es necesario remarcar que si el m�etodo satisface solamente (VII.3.15a),

(VII.3.15a,b) o (VII.3.15,a,b,c) tiene el orden 1, 2 o 3 respectivamente.

El siguiente paso es la resoluci�on del sistema (VII.3.15), para s = 4.

Este sistema consiste de 8 ecuaciones no lineales para 10 param�etros bi;

aij ; los ci est�an determinados por la condici�on (VII.3.8). Las condiciones

(VII.3.15a,b,c,e) traducen el hecho que (bi; ci) es una f�ormula de cuadratura

de orden 4. Por consiguiente los bi pueden ser determinados si los ci son

conocidos. En particular, se obtiene

b3c3(c3 � c2)(c4 � c3) = �c2c4

2+c2 + c3

3� 1

4: (VII:3:16)

Por otro lado (VII.3.15g)�c2�(VII.3.15d) da

b4a43c3(c3 � c2) =1

12� c2

6; (VII:3:17)

y c4�(VII.3.15d)�(VII.3.15f) implica que

b3(c4 � c3)a32c2 =c4

6� 1

8: (VII:3:18)

Si se multiplica (VII.3.17) con (VII.3.18), luego (VII.3.16) con (VII.3.15h),

se obtiene para la misma expresi�on, las dos f�ormulas:

b4a43a32c2 � b3c3(c3 � c2)(c4 � c3) =

�1

12� c2

6

��c4

6� 1

8

�;

b4a43a32c2 � b3c3(c3 � c2)(c4 � c3) =

��c2c42

+c2 + c3

3� 1

4

�=24;

lo que es equivalente a

c2(1� c4) = 0:

Page 340: alisis erico

330 VII Ecuaciones Diferenciales

Puesto que c2 6= 0, consecuencia de la condici�on (VII.3.15h), se tiene

necesariamente que c4 = 1. La soluci�on general del sistema (VII.3.16), se

la obtiene de la manera siguiente.

M�etodo de Resoluci�on.- Plantear c1 = 0, c4 = 1; c2 y c3 son param�etros

libres; calcular b1, b2, b3, b4 tales que la f�ormula de cuadratura sea de orden

4; calcular a32 utilizando (VII.3.18), a43 utilizando (VII.3.19) y a42 proviene

de (V II:3:15d); �nalmente calcular a21; a31; a41 de (VII.3.8) para i = 2; 3; 4:

Entre los m�etodos de orden 4, los m�as conocidos est�an dados en la tabla

VII.3.2.

Tabla VII.3.2. M�etodos de Kutta

0

1=2 1=2

1=2 0 1=2

1 0 0 1

1=6 2=6 2=6 1=6

M�etodo de Runge-Kutta

0

1=3 1=3

2=3 �1=3 1

1 1 �1 1

1=8 3=8 3=8 1=8

Regla 3=8

M�etodos Encajonados

Para resolver un problema realista, un c�alculo a paso constante es en

general ine�ciente. Existen diversas causas para esta ine�ciencia: la primera

es que se debe conocer a priori una estimaci�on del error local cometido,

lo cual es complicado en general ocasionando una perdida de generalidad

en los programas a implementarse. La otra raz�on fundamental que existen

intervalos donde los pasos de integraci�on pueden ser de longitud mayor. El

principal problema reside en como escoger los pasos de integraci�on. La idea

que puede resolver satisfactoriamente estos problemas consiste en escoger

pasos de integraci�on de manera que el error local sea en todo caso inferior o

igual a Tol dado por el utilizador. Motivo por el cual es necesario conocer

una estimaci�on del error local. Inspirados en el programa GAUINT descrito

en VI.3, se construye un m�etodo de Runge-Kutta con y1 como aproximaci�on

num�erica, y se utiliza la diferencia y1 � y1 como estimaci�on del error local

del m�etodo menos preciso.

Se da un m�etodo de orden p a s pisos, con coe�cientes ci; aij ; bj . Se busca

un m�etodo de orden p < p que utiliza las mismas evaluaciones de f , es decir

y1 = y0 + h(b1k1 + � � �+ bsks); (VII:3:19)

Page 341: alisis erico

VII.3 M�etodos de Runge-Kutta 331

donde los ki est�an dados por (VII.3.3). Para tener m�as libertad, se agrega a

menudo un termino que contenga f(x1; y1) a la f�ormula (VII.3.19), de todas

maneras se debe calcular f(x1; y1) para el paso siguiente, determinando as��

y1, como

y1 = y0 + h(b1k1 + � � �+ bsks + bs+1f(x1; y1)): (VII:3:20)

Un tal m�etodo encajonado puede ser representado en forma de un esquema,

ver la tabla VII.3.3.

Tabla VII.3.3. M�etodos encajonados

c1 = 0

c2 a21

c3 a31 a32

......

.... . .

cs as1 as2 � � � as;s�1

(1) b1 b2 � � � bs�1 bs

b1 b2 � � � bs�1 bs (bs+1)

El siguiente paso es la determinaci�on del h optimal. Si se aplica el m�etodo

con un valor h, la estimaci�on del error satisface

y1� y1 = (y1�y(x0+h))+(y(x0+h)� y1) = O(hp+1)+O(hp+1) � Chp+1

:

(VII:3:21)

El h optimal, denotado por hopt, es �aquel donde esta estimaci�on es pr�oxima

de Tol, es decir

Tol � Ch

p+1opt : (VII:3:22)

Eliminando C de las dos �ultimas f�ormulas, se obtiene

hopt = 0:9 � h � p+1

sTol

ky1 � y1k: (VII:3:23)

El factor 0:9 se lo agrega para volver el programa m�as seguro.

Algoritmo para la selecci�on autom�atica de paso.

Al iniciar los c�alculos, el utilizador provee una subrutina que calcule el valor

de f(x; y), los valores iniciales x0; y0 y una primera elecci�on de h.

A) Con h, calcular y1, err = ky1 � y1k y hopt dado por (VII.3.23).B) Si err � Tol, el paso es aceptado, entonces

x0 := x0 + h; y0 := y1; h := min(hopt; xend � x0);

Page 342: alisis erico

332 VII Ecuaciones Diferenciales

si no el paso es rechazado

h := hopt:

C) Si x0 = xend se ha terminado, si no se recomienza por (A) y se calcula

el paso siguiente.

La pr�actica num�erica muestra que es aconsejable remplazar (VII.3.23)

por

hopt = h �min�5;max(0:2; 0:9(Tol=err)1=p+1

�:

Para la norma dada en la relaci�on (VII.3.23), se utiliza en general

ky1 � y1k =

vuut 1

n

nXi=1

�yi1 � yi1

sci

�2

; donde sci = 1 +max(jyi0j ; jyi1j):

(VII:3:24)

En la literatura especializada, estos m�etodos encajonados con control

de paso autom�atico, se los denota por RKpp donde RK son las iniciales

de Runge-Kutta y p, p son los ordenes de los m�etodos encajonados. En la

actualidad la utilizaci�on de tales m�etodos es muy com�un. En la tabla VII.3.4

se da el esquema del m�etodo de Dormand-Prince RK54; este m�etodo es

analizado minuciosamente en Hairer & Wanner.

Tabla VII.3.4. M�etodo Dormand-Prince 5(4)

0

1

5

1

5

3

10

3

40

9

40

4

5

44

45�5615

32

9

8

9

19372

6561�25360

2187

64448

6561�212729

19017

3187�355

33

46732

5247

49

176� 5103

18656

135

3840

500

1113

125

192�21876784

11

84

y1

35

3840

500

1113

125

192�21876784

11

840

y1

5179

576000

7571

16695

393

640� 92097

339200

187

2100

1

40

Page 343: alisis erico

VII.3 M�etodos de Runge-Kutta 333

En el ejemplo siguiente se detallar�a la construcci�on de un m�etodo

encajonado con selecci�on de paso autom�atico. Por razones de simplicidad, se

considerar�a un m�etodo RK32.

Ejemplo

T�omese un m�etodo de orden p = 3 a s = 3 pisos, que en este caso ser�a el

m�etodo de Heun, ver tabla VII.1.1 y se buscar�a un m�etodo encajonado de

orden p = 2 de la forma (VII.3.20), es decir se aumenta s de 1, agregando

un (s+ 1)-emo piso con los coe�cientes as+1;i, para i = 1; : : : ; s.

De esta manera se obtiene el siguiente sistema de ecuaciones para los

coe�cientes bi, el cual est�a dado por:

b1 + b2 + b3 + b4 = 1

1

3b2 +

2

3b3 + b4 =

1

2:

Puedo observarse que para que el m�etodo encajonado tenga un orden

igual a 2, se requieren 2 condiciones, quedando as�� dos grados de libertad.

Al igual que en el m�etodo de Heun, puede plantearse b2 = 0, b4 puede

escogerse libremente, por ejemplo b4 = 1=2 de donde por la segunda

ecuaci�on se deduce facilmente que b3 = 0 y por la primera ecuaci�on

b1 = 1=2. Por lo tanto se obtiene el esquema dado en la tabla VII.3.5.

Tabla VII.3.5. Ejemplo de M�etodo Encajonado

0

1=3 1=3

2=3 0 2=3

1 1=4 0 3=4

1=2 0 0 1=2

Soluciones Continuas

Uno de los incovenientes mayores de los m�etodos formulados en esta secci�on

consiste en el hecho que estos dan las soluciones en un conjunto discreto

de puntos. Una primera alternativa es unir estas soluciones con pol��gonos,

si los puntos donde el m�etodo ha dado las soluciones. El resultado no es

satisfactorio desde varios puntos de vista. Si el m�etodo es de orden elevado

la interpolaci�on lineal, vista en el Cap��tulo III, tiene como efecto la perdida

de precisi�on. Desde el punto de vista gr�a�co las soluciones dejan de ser

Page 344: alisis erico

334 VII Ecuaciones Diferenciales

lisas. Debido a estas dos razones expuestas es necesario complementar estos

m�etodos con alternativas que permitan dar soluciones densas.

Existen varias alternativas validas que permiten subsanar esta falencia

de los m�etodos de Runge-Kutta. La primera consiste en la construcci�on de los

m�etodos de Runge-Kutta Continuos. Para tal efecto, se considera un m�etodo

de Runge-Kutta dado de antemano. Se desea evaluar utilizando este esquema

en el punto x� = x0 + �h con 0 < � � 1. Los coe�cientes de este m�etodo

se los denota por ci(�); aij(�); bj(�). Ahora bien, el m�etodo ser�a interesante

desde el punto de vista num�erico, si los coe�cientes ci(�), aij(�) no dependen

de � coincidiendo de esta manera con los del m�etodo dado de antemano. Sin

embargo no es nada raro que el m�etodo obtenido a partir de los bi(�) tenga

un orden inferior. Esto se debe a que los aij ; ci ya est�an prescritos. Para

ilustrar esta construcci�on consid�erese el ejemplo siguiente.

Ejemplo

Se considera nuevamente el m�etodo de Heun dado en la tabla VII.3.1.

Utilizando el teorema VII.3.4, remplazando y(x0 + h) por y(x0 + �h) se

obtienen las siguientes condiciones de orden para los coe�cientes bi(�):

b1 + b2 + b3 = �;

1

3b2 +

2

3b3 =

�2

2;

1

9b2 +

4

9b3 =

�3

3;

4

9b3 =

�3

6:

Como puede observarse es imposible que los coe�cientes bi puedan

satisfacer las condiciones para obtener un m�etodo de orden 3, por lo

tanto, uno debe contentarse con obtener un m�etodo de orden 2 para �

diferente de 1 y para � = 1 un m�etodo de orden 3. Tomando las dos

primeras ecuaciones y planteando b2 = 0, como en el m�etodo de Heun,

se tiene para b3 =3

4�2 y para b1 = �(�� 3

4�). obteniendo as��, el esquema

dado en la tabla VII.5.6.

Tabla VII.5.6. Ejemplo de M�etodo Continuo.

0

1=3 1=3

2=3 0 2=3

�(� � 3

4�) 0 3

4�2

Page 345: alisis erico

VII.3 M�etodos de Runge-Kutta 335

La segunda estrategia para construir soluciones continuas, consiste en

utilizar la interpolaci�on de Hermite con polinomios c�ubicos, tomando como

extremidades y0, y1 y como derivadas f(x0; y0) y f(x1; y1). Es facil ver,

que a diferencia de la primera alternativa es necesario evaluar y1. Viendo

el cap��tulo III, la interpolaci�on de Hermite tiene un error del orden O(h4),equivalente a un m�etodo de tercen orden.

Convergencia de los M�etodos de Runge-Kutta

En las subsecciones precedentes, se ha hecho un an�alisis del error local,

intimamente ligado al orden del m�etodo. Pero no se ha analizado que sucede

con el error global de la soluci�on num�erica. Para analizar este tipo de error

es necesario introducir alguna notaci�on adicional.

Consid�erese un m�etodo a un paso

yn=1 = yn + hn�(xn; yn; hn); (VII:3:25)

aplicado a una ecuaci�on diferencial y0 = f(x; y), con valor inicial y(x0) =

y0. Es natural plantearse sobre la magnitud del tama~no del error global

y(xn)� yn. A continuaci�on se enunciar�a un teorema general sobre esta clase

de error.

Teorema VII.3.5.- Sea y(x) la soluci�on de y0 = f(x; y), y(x0) = y0 sobre

el intervalo [x0; xe]. Sup�ongase que:

a) el error local satisface para x 2 [x0; xe] y h � hmax

ky(x+ h)� y(x)� h�(x; y(x); h)k � C � hp+1; (VII:3:26)

b) la funci�on �(x; y; z) satisface una condici�on de Lipschitz

k�(x; y; h)��(x; z; h)k � � ky � zk ; (VII:3:27)

para h � hmax y (x; y); (x; z) en un vecindario de la soluci�on.

Entonces , el error global admite para xn � xe la estimaci�on

ky(xn)� ynk � hpC

�e�(xn�x0) � 1

�; (VII:3:28)

donde h = maxi

hi, bajo la condici�on que h sea lo su�cientemente pequ~no.

Demostraci�on.- La idea central de la demostraci�on es estudiar la in uencia

del error local, cometido en el paso i-esimo a la propagaci�on de yn. Enseguida,

adicionar los errores acumulados. Ver �gura VII.3.2.

Sean fyng y fzng dos soluciones num�ericas obtenidas por (VII.3.25) convalores iniciales y0 y z0 respectivamente. Utilizando la condici�on de Lipschitz

dada por (VII.3.27), su diferencia puede ser estimada como

kyn+1 � zn+1k � kyn � znk+ hn� kyn � znk= (1 + �hn) kyn � znk � e

hn� kyn � znk :(VII:3:29)

Page 346: alisis erico

336 VII Ecuaciones Diferenciales

Recursivamente, se obtiene

kyn � znk � ehn�1�

ehn�2� � � � ehi� kyi � zik :

y el error propagado Ei, ver �gura VII.3.2, satisface

kEik � e�(xn�xi) keik � Ch

p+1i�1 e

�(xn�xi); (VII:3:30)

y

0 1 2 3 n

yE

y(x )EE

nn

n−1

1

ee

e n−1

2

1

0

x x x x x

Figura VII.3.2. Estimaci�on del error global.

La desigualdad del tri�angulo, as�� como (VII.3.30) da, ver la �gura VII.3.3,

para la estimaci�on de la suma

ky(xn)� ynk �nXi=1

kEik �nXi=1

h

p+1i�1 e

�(xn�xi)

� Chp�h0e

�(xn�x1) + � � �+ hn�2e�(xn�xn�1) + hn�1

�� Ch

p

Z xn

x0

e�(xn�t)

dt =Ch

p

�e�(xn�x0) � 1

�:

x

x

x x x x0 1 2

n−1 n

eΛ( x x)n −

Figura VII.3.3. Estimaci�on de la suma de Riemann.

Page 347: alisis erico

VII.3 M�etodos de Runge-Kutta 337

Solo queda justi�car la implicaci�on de (VII.3.25) en (VII.3.27), ya que la

estimaci�on (VII.3.25) es valida solamente en un vecindario

U = f(x; y)j ky � y(x)k � bg de la soluci�on exacta. Si se supone que h es lo

su�cientemente peque~no, m�as precisamente, si h es tal que

Chp

�e�(xe�x0) � 1

�� b;

se estar�a seguro que todas las soluciones num�ericas de la �gura VII.3.2 se

quedar�an en U . �

Sup�ongase que (VII.3.25) representa un m�etodo de Runge-Kutta, se

veri�car�a las hip�otesis del teorema precedente. La condici�on (VII.3.26) es

satisfecha para un m�etodo de orden p. Solo queda por veri�car la condici�on

de Lipschitz (VII.3.27), para la funci�on

�(x; y; h) =

sXi=1

biki(y); (VII:3:31)

donde

ki(y) = f

0@x+ cih; y + h

i�1Xj=1

aijkj(y)

1A: (VII:3:32)

Proposici�on VII.3.6.- Si f(x; y) satisface una condici�on de Lipschitz

kf(x; y)� f(x; z)k � L ky � zk en un vecindario de la soluci�on de y0 =

f(x; y), la expresi�on �(x; y; h) de (VII.3.31) veri�ca la condici�on (VII.3.27)

con

� = L

0@Xi

jbij+ (hmaxL

Xij

jbiaij j+ (hmaxL)2Xijk

jbiaijajkj+ � � �

1A:

(VII:3:33)

Demostraci�on.- La condici�on de Lipschitz para f(x; y) aplicado a

(VII.3.32) da

kk1(y)� k1(z)k = kf(x; y)� f(x; z)k � L ky � zkkk2(y)� k2(z)k � L ky � z + ha21(k1(y)� k1(z))k

� L(1 + hmaxL ja21j) ky � zk ;(VII:3:34)

etc. Las estimaciones (VII.3.34) introducidas en

k�(x; y; h)��(x; z; h)k �sX

i=1

jbij kki(y)� ki(z)k ;

Page 348: alisis erico

338 VII Ecuaciones Diferenciales

implican (VII.3.27) con � dado por (VII.3.33). �

Experiencias Num�ericas

En esta subsecci�on se mostrar�a varios ejemplos donde los m�etodos de Runge-

Kutta act�uan. Se comparar�a varios m�etodos.

1.- Se considera la ecuaci�on diferencial, con valor inicial,

y0 = �y + sinx; y(0) = 1; (VII:3:35)

la soluci�on de este problema, est�a dada por

y(x) =3

2e�x � 1

2cosx+

1

2sinx: (VII:3:36)

En la �gura VII.3.4, se muestra las gr�a�cas de diferentes m�etodos de

Runge-Kutta. El intervalo de integraci�on es [0; 10]. Puede comprobarse,

que al igual que en los m�etodos de integraci�on, existe una relaci�on lineal

entre � log10(Error Global) y el n�umero de evaluaciones de la funci�on,

fe. Esta relaci�on lineal tiene una pendiente 1=p, donde p es el orden del

m�etodo.

100 10−1 10−2 10−3 10−4 10−5 10−6 10−7 10−8 10−9 10−10100

101

102

103

104

105

106

fefe

err globerr glob

fefe

err globerr glob

Metodo de Euler

Metodo de Runge

Metodo de Heun

Metodo de Kutta

Metodo 3/8

Figura VII.3.4. Relaci�on del error global vs fe.

Page 349: alisis erico

VII.3 M�etodos de Runge-Kutta 339

2.- En esta experiencia num�erica, se implementa un m�etodo encajonado,

para este efecto, se toma el m�etodo dado en uno de los ejemplos

precedentes. La ecuaci�on diferencial sobre la cual es examinada tal

m�etodo, es una ecuaci�on diferencial de una reacci�on qu��mica, conocida

como Brusselator. Por consiguiente, se debe resolver:

y0

1 = 1 + y21y2 � 4y1;

y0

2 = 3y1 � y21y2;

y1(0) = 1:5;

y2(0)3;(VII:3:37)

sobre el intervalo [0; 10]. Los resultados obtenidos con Tol = 10�5

son presentados en la �gura VII.3.5. En la gr�a�ca superior, las dos

componentes de la soluci�on utilizando la soluci�on continua del m�etodo

de Heun, ver m�etodos continuos. En la gr�a�ca del medio, la longitud

de los pasos, los pasos aceptados est�an ligados, mientras que los pasos

rechazados indicados por �. En la gr�a�ca inferior, la estimaci�on del errorlocal, como tambi�en los valores exactos del error local y global.

0 5 10

1

2

3

4

5

6

y1

y2

0 5 10

10−2

10−1

100

10−8

10−7

10−6

10−5

10−4

10−3 Error global

Error local exacto Error local estimado

Figura VII.3.5. Experiencia num�erica de un m�etodo encajonado.

Page 350: alisis erico

340 VII Ecuaciones Diferenciales

Ejercicios

1.- Aplicar el m�etodo de Runge al sistema

y0

1 = �y2;y0

2 = y1;

y1(0) = 1;

y2(0) = 0;

con h = 1=5. Comparar el trabajo necesario y la precisi�on del resultado

con el m�etodo de Euler.

2.- Consid�erese un m�etodo de Runge-Kutta a s pisos y de orden p. Mostrar

quesX

i=1

bicq�1i =

1

q

para q = 1; : : : ; p:

es decir, la f�ormula de cuadratura asociada tiene al menos el orden p.

3.- Aplicar un m�etodo de Runge-Kutta de orden p = s, s es el n�umero de

pisos, al problema y0 = �y, donde � es una constante compleja. Mostrar

que la soluci�on num�erica est�a dada por

y1 =

0@ sXj=0

zj

j!

1Ay0; z = �h:

4.- Construir todos los m�etodos de Runge-Kutta de orden 3 con s = 3 pisos.

5.- Consid�erese el problema

y0 =

x

y + g(x); y(0) = 0

con g(x) su�cientemente derivable y � � 0. Mostrar que este problema

admite una y una sola soluci�on. Las derivadas de la soluci�on en el punto

x = 0 son

y(j)(0) =

�1� �

j

��1

g(j�1)(0):

6.- Aplicar un m�etodo de Runge-Kutta al problema del ejercicio anterior,

utilizar la de�nici�on f(x; y) =�1� �

j

��1

g(0), para x = 0.

a) Mostrar que el error del primer paso satisface

y(h)� y1 = C2h2g0(0) +O(h3)

donde C2 depende solamente de los coe�cientes del m�etodo.

c) Calcular C2 para uno de los m�etodos de Kutta.

Page 351: alisis erico

VII.4 M�etodos Multipasos

Los m�etodos a un paso calculan un valor aproximado yn+1, en el ins-

tante tn+1, utilizando �unicamente el valor aproximado yn. La utilizaci�on

de varios valores aproximados yn; yn�1; : : :, permite obtener a precisi�on

igual m�etodos de costo menos elevado; estos m�etodos son com�unmente

llamados multipasos, m�as precisamente cuando los c�alculos utilizan r va-

lores precedentes: yn; yn�1; : : : ; yn�r+1, es decir concernientes los r pasos:

hn; hn�1; : : : ; hn�r+1, se habla de m�etodos a r pasos. Entre estos m�etodos,

los m�etodos de Adams son aqu�ellos que parecen ser a la hora actual los m�as

e�caces cuando el problema diferencial es bien condicionado, ser�an estudia-

dos en esta subsecci�on. Los algoritmos modernos utilizan estos m�etodos con

un n�umero variable de pasos y un tama~no de paso variables. La variaci�on

del n�umero de pasos y la longitud de los pasos permite adaptar el m�etodo

a la regularidad de la soluci�on, permite tambi�en de levantar las di�cultades

de arranque que presentan los m�etodos a n�umero de pasos �jo.

M�etodos de Adams Expl��citos

Sea una divisi�on x0 < x1 < � � � < xn = xe del intervalo sobre el cual se

busca resolver la ecuaci�on diferencial y0 = f(x; y) y sup�ongase que se conoce

aproximaciones yn; yn�1; : : : ; yn�k�1 de la soluci�on para k pasos consecutivos

(yi � y(xj)). De la misma forma que para la derivaci�on de los m�etodos de

Runge-Kutta, se integra la ecuaci�on diferencial, para obtener

y(xn+1) = y(xn) +

Z xn+1

xn

f(t; y(t))dt: (VII:4:1)

Pero en lugar de aplicar una f�ormula de cuadratura st�andard a la integral

(VII.4.1), se remplaza f(t; y(t)) por el polinomiio de grado k�1, que satisfaga

p(xj) = fj ; para j = n; n� 1; : : : ; n� k + 1; (VII:4:2)

donde fj = f(xj ; yj). Ver la �gura VII.4.1.

xn−k+1 xn−1 x n xn+1

f f fn−k+1 n−1 n

p(t)

Figura VII.4.1. M�etodo de Adams:

Page 352: alisis erico

342 VII Ecuaciones Diferenciales

Por consiguiente, la aproximaci�on de y(xn+1) est�a de�nida por

yn+1 = yn +

Z xn+1

xn

p(t)dt: (VII:4:3)

Si se representa el polinomio p(t) por la f�ormula de Newton, ver el teorema

III.1.9,

p(t) =

k�1Xj=0

j�1Yi=0

(t� xn�i)

!f [xn; xn�1; : : : ; xn�j ]; (VII:4:4)

el m�etodo (VII.4.3) se convierte en

yn+1 = yn +

k�1Xj=0

Z xn+1

xn

j�1Yi=0

(t� xn�i)

!f [xn; xn�1; : : : ; xn�j ]: (VII:4:5)

El caso m�as simple de estas f�ormulas de Adams expl��citas consiste cuando

la divisi�on es equidistante. En esta situaci�on se tiene xj = x0 + jh, las

diferencias divididas pueden ser expresadas bajo la forma

f [xn; xn�1; : : : ; xn�j ] =rj

fn

j!hh; (VII:4:6)

donde r0fn = fn;rfn = fn � fn�1;r2

fn = r(rfn); : : : son las diferencias

�nitas regresivas.

La f�ormula (VII.4.5), planteando t = xn + sh, se convierte en

yn+1 = yn + h

k�1Xj=0

jrjfn; (VII:4:7)

donde

j =1

j!

Z 1

0

j�1Yi=0

(i+ s)ds =

Z 1

0

�s+ j � 1

j

�ds:

Los primeros coe�cientes j est�an dados en la tabla VII.4.1.

Tabla VII.4.1. Coe�cientes para los m�etodos de Adams Expl��citos.

j 0 1 2 3 4 5 6 7 8

j 11

2

5

12

3

8

251

720

95

288

19087

60480

5257

17280

1070017

3628800

Page 353: alisis erico

VII.4 M�etodos Multipasos 343

Casos particulares de los m�etodos de Adams expl��citos son:

k = 1 : yn+1 = yn + hfn; (m�etodo de Euler);

k = 2 : yn+1 = yn + h

�2

3fn �

1

2fn�1

�;

k = 3 : yn+1 = yn + h

�23

12fn �

16

12fn�1 +

5

12fn�2

�;

k = 4 : yn+1 = yn + h

�55

24fn �

59

24fn�1 +

37

24fn�2 �

9

24fn�3

�:

Si se quiere aplicar este m�etodo, por ejemplo para k=4, a la resoluci�on

de y0 = f(x; y), y(x0) = y0, es necesario conocer y0; y1; y2 y y3. Despu�es

se puede utilizar la f�ormula de recurrencia para determinar y4; y5; : : :. Al

f�ormular Adams sus m�etodos, el utilizaba la serie de Taylor de la soluci�on

en el punto inicial, sin embargo es m�as c�omodo empezar con un m�etodo

a un paso del tipo de Runge-Kutta y luego utilizar el m�etodo multipaso

correspondiente.

En la construcci�on del m�etodo de Adams expl��cito dado por (VII.4.5),

se ha utilizado el polinomio de interpolaci�on p(t) fuera del intervalo

[xn�k+1; xn]. Esta situaci�on puede provocar grandes errores, ver nuevamente

III.1. Por lo tanto, este inconveniente puede modi�carse considerando los:

M�etodos de Adams Impl��citos

La idea central de estos m�etodos consiste en considerar el polinomio p�(t)

de grado k, que satisface

p�(t) = fj para; j = n+ 1; n; n� 1; : : : ; n� k + 1: (VII:4:9)

A diferencia de la versi�on expl��cita fn+1 = f(xn+1; yn+1) es todav��a descono-

cido. El siguiente paso es de�nir la aproximaci�on num�erica por

yn+1 = yn +

Z xn+1

xn

p�(t)dt: (VII:4:10)

De la misma manera que en el caso expl��cito, la f�ormula de Newton da

p�(t) =

kXj=0

j�1Yi=0

(t� xn�i+1)dt

!f [xn+1; xn; : : : ; xn�j+1]; (VII:4:11)

de donde el m�etodo est�a dado por

yn+1 = yn +

kXj=0

Z xn+1

xn

j�1Yi=0

(t� xn�i+1)

!f [xn+1; xn; : : : ; xn�j+1]:

(VII:4:12)

Page 354: alisis erico

344 VII Ecuaciones Diferenciales

El caso m�as simple de estas f�ormulas de Adams impl��citas consiste

cuando la divisi�on es equidistante, el m�etodo est�a dado por

yn+1 = yn + h

kXj=0

jrjfn+1; (VII:4:13)

donde

j =1

j!

Z 1

0

j�1Yi=0

(i+ s� 1)ds =

Z 1

0

�s+ j � 2

j

�ds: (VII:4:14)

Los primeros coe�cientes �j est�an dados en la tabla VII.4.2.

Tabla VII.4.2. Coe�cientes para los m�etodos de Adams Impl��citos.

j 0 1 2 3 4 5 6 7 8

j 1 �12� 1

12� 1

24� 19

720� 3

160� 863

60480� 375

24192� 33953

3628800

Casos particulares de los m�etodos de Adams impl��citos son:

k = 0 : yn+1 = yn + hfn+1 = yn + hf(xn+1; yn+1);

k = 1 : yn+1 = yn + h

�1

2fn+1 +

1

2fn

�;

k = 2 : yn+1 = yn + h

�5

12fn+1 +

8

12fn �

1

12fn�1

�;

k = 2 : yn+1 = yn + h

�9

24fn+1 +

19

24fn �

5

24fn�1 +

1

24fn�2

�:

Cada una de estas f�ormulas representa una ecuaci�on no lineal para yn+1, que

es de la forma

yn+1 = �n + h�f(xn+1; yn+1): (VII.4:15)

que puede ser resuelta por el m�etodo de Newton o simplemente por el m�etodo

iterativo simple.

M�etodos Predictor-Corrector

Los m�etodos de Adams impl��citos tienen la gran ventaja sobre la versi�on

expl��cita, por que las soluciones provistas son m�as realistas. Sin embargo la

gran di�cultad de estos m�etodos es la resoluci�on de (VII.4.15). En algunos

casos particulares, como en el caso de los sistemas lineales, esta resoluci�on

Page 355: alisis erico

VII.4 M�etodos Multipasos 345

podr�a hacerse directamente, pero en el caso general la utilizaci�on de un

m�etodo iterativo para resolver el sistema no lineal es necesaria. Por otro lado,

es necesario recalcar que yn+1 es una aproximaci�on de la soluci�on exacta,

motivo por el cual es natural pensar que un c�alculo muy preciso de yn+1

tal vez no sea necesario. Es por eso, que una mejora de esta situaci�on puede

darse de la manera siguiente. Primero calcular una primera aproximaci�on por

un m�etodo expl��cito, luego corregir este valor, una o varias veces, utilizando

la f�ormula (VII.4.15). Con este algoritmo, un paso de este m�etodo toma la

forma siguiente:

P: se calcula el predictor yn+1 = yn + h

Pk�1j=0 jrj

fn por el m�etodo de

Adams expl��cito; yn+1 es ya una aproximaci�on de y(xn+1).

E: evaluaci�on de la funci�on: se calcula fn+1 = f(xn+1; yn+1).

C: la aproximaci�on corregida est�a dada por yn+1 = �n + h�fn+1.

E: calcular fn+1 = f(xn+1; yn+1).

Este procedimiento, que se lo denota PECE, es el m�as utilizado. Otras

posibilidades son: efectuar varias iteraciones, por ejemplo PECECE, o de

omitir la �ultima evaluaci�on de f , es decir PEC, y de tomar fn+1 en el lugar

de fn+1 para el paso siguiente.

Metodos BDF

Se ha visto que los m�etodos de Adams, tanto en su versi�on expl��cita, como

en su versi�on impl��cita consideran polinomios de interpolaci�on que pasan

por los fj . Esta manera de abordar el problema de la aproximaci�on de las

soluciones de un problema diferencial es e�caz cuando el problema diferencial

es bien condicionado, pero �estos pueden volverse muy costosos desde el

punto de vista computacional para los problemas diferenciales r��gidos. Por

consiguiente, puede ser interesante de utilizar el m�etodo de las diferencias

retr�ogradas que ser�a descrito en esta subseccion.

La idea central de los m�etodos BDF consiste en considerar el polinomio

q(t) de grado k, ver �gura VII.4.2, de�nido por

q(xj) = yj ; para j = n+ 1; n; : : : ; n� k + 1; (VII.4:16)

y se determina yn+1, de manera que

q0(xn+1) = f(xn+1; q(xn+1)): (VII.4:17)

Como en la f�ormula (VII.4.11), la f�ormula de Newton da

q(t) =

kXj=0

j�1Yi=0

(t� xn�i+1)

!y[xn+1; xn; : : : ; xn�j+1]: (VII.4:18)

Page 356: alisis erico

346 VII Ecuaciones Diferenciales

Cada t�ermino de esta suma contiene el factor (t � xn+1), de donde es muy

facil calcular q0(xn+1), obteniendo as��

kXj=0

j�1Yi=1

(xn+1 � xn�i+1)

!y[xn+1; xn; : : : ; xn�j+1] = f(xn+1; yn+1):

(VII.4:19)

x x x xn−k+1 n−1 n n+1

yq(t)

y

yy

n−k+1n−1

n

n+1

Figura VII.4.2. M�etodo de tipo BDF

Para el caso equidistante, (VII.4.19) utilizando (VII.4.6) se convierte en

kXj=1

1

j

rjyn+1 = hfn+1: (VII.4:20)

Obteniendo de esta manera, los siguientes casos particulares:

k = 1 : yn+1 � yn = hfn+1;

k = 2 :3

2yn+1 � 2yn +

1

2yn�1 = hfn+1;

k = 3 :11

6yn+1 � 3yn +

3

2yn�1 �

1

3yn�2 = hfn+1;

k = 4 :25

12yn+1 � 4yn + 3yn�1 �

4

3yn�2 +

1

4yn�3 = hfn+1:

De nuevo, cada f�ormula de�ne impl��citamente la aproximaci�on num�erica

yn+1.

Estudio del Error Local

Al igual de los m�etodos a un paso, como los m�etodos de Runge-Kutta, existe

la noci�on de orden para los m�etodos multipasos, el cual est�a ��ntimamente

ligado al estudio del error local.

Page 357: alisis erico

VII.4 M�etodos Multipasos 347

Los m�etodos multipasos pueden expresarse bajo la forma siguiente

kXi=0

�iyn+i = h

kXi=0

�ifn+i; (VII.4:21)

donde �k 6= 0 y j�0j + j�0j > 0. El m�etodo es expl��cito si �k = 0, si no el

m�etodo es impl��cito.

De�nici�on VII.4.1.- Sea y(x) una soluci�on de y0 = f(x; y(x)) y sea

yn+k el valor obtenido por el m�etodo (VII.4.21) utilizando yi = y(xi) para

i = n; : : : ; n+ k � 1; ver �gurar VII.4.3. Entonces

error local = y(xn+k)� yn+k: (VII.4:22)

Se dice que el m�etodo (VII.4.21) tiene el orden p si el error local es O(hp+1).

x x x x

y(x)

y

y

yy

n n+1 n+k−1 n+k

n+k

n+k−1

n+1

n

Figura VII.4.3. De�nici�on del error local.

Para estudiar el error local de un m�etodo multipaso, se utiliza el operador

L de�nido por:

L(y; x; h) =

kXi=0

(�iy(x+ ih)� h�iy0(x+ ih)) : (VII:4:23)

Como yi = y(xi), para i = n; : : : ; n+ k� 1 en la de�nici�on dada m�as arriba,

se tiene que fi = f(xi; y(xi)) = y0(xi) para i = n; : : : ; n+ k� 1 y la f�ormula

(VII.4.21) puede ser expresada bajo la forma

kXi=0

�iy(xn + ih) + �k(yn+k � y(xn+k)) =h

kXi=0

�iy0(xn + ih)

+ h�(fn+k � f(xn+k; y(xn+k)));

lo que es equivalente a

L(y; xn; h) =

��kI � h�k

@f

@y

(: : :)

�(y(xn+k)� yn+k); (VII:4:24)

Page 358: alisis erico

348 VII Ecuaciones Diferenciales

el argumento de @f=@y puede ser diferente para cada linea de esta matriz,

ver el teorema del valor medio o incrementos �nitos. La f�ormula muestra que

el error local del m�etodo (VII.4.21) es O(hp+1) si y solamente si L(y; x; h) =

O(hp+1) para toda funci�on y(x) que es su�cientemente derivable.

Teorema VII.4.2.- Un m�etodo multipaso tiene el orden p, si y solamente

si sus coe�cientes satisfacen

kXi=0

�i = 0 y

kXi=0

�iiq = q

kXi=0

�iq�1 para q = 1; : : : ; p: (VII:4:25)

Demostraci�on.- En la f�ormula (VII.4.23), se desarrolla las expresiones

y(x+ ih) y y0(x+ ih) en serie de Taylor y obteniendo

L(y; x; h) =

kXi=0

�i

Xg�0

y(q)(x)

(ih)q

q!� h

kXi=0

�i

Xr�0

y(r+1)(x)

(ih)r

r!

= y(x)

kXi=0

�i

!+Xg�1

y(q)(x)

hq

q!

kXi=0

�iiq � q

kXi=0

�iq�1

!:

La condici�on L(y; x; h) = O(hp+1) da la condici�on (VII.4.25). �

Ejemplo

Consid�erese el m�etodo de Adams expl��cito a k pasos. Para q � k, se

considera la ecuaci�on diferencial y0 = qxq�1 cuya soluci�on es y(x) = x

q .

En esta situaci�on, el polinomio p(t) de (VII.4.2) es igual a f(t; y(t)) y el

m�etodo de Adams expl��cito da el resultado exacto. Por consiguiente, se

tiene L(y; x; h) = 0, ver la f�ormula (VII.4.24) lo que implica

kXi=0

��i(x+ ih)q � q�i(x+ ih)q�1h

�= 0

y por lo tanto (VII.4.25), planteando x = 0. Entonces, el orden de este

m�etodo es � k. Se puede mostrar que efectivamente el orden es igual a

k.

De la misma manera, se muestra que el m�etodo de Adams impl��cito tiene

el orden p = k + 1 y el m�etodo BDF el orden p = k.

Estabilidad

A simple vista la relaci�on (VII.4.25) permite formular m�etodos multipaso con

un n�umero dado de pasos con un orden optimal. Sin embargo la experiencia

Page 359: alisis erico

VII.4 M�etodos Multipasos 349

num�erica mostr�o que los resultados obtenidos no siempre eran v�alidos. Es

por eso necesario introducir una nueva noci�on en el estudio de estos m�etodos.

Esta noci�on est�a intimamente ligada a la estabilidad del m�etodo. Para

comprender mejor el problema que se plantea con los m�etodos multipaso,

es necesario referirse al siguiente ejemplo enunciado por Dahlquist en 1956.

Se plantea k = 2 y se construye un m�etodo explicito, �2 = 0, �2 = 1

con un orden maximal. Utilizando las condiciones dadas por (VII.4.25) con

p = 3, se llega al siguiente esquema:

yn+2 + 4yn+1 � 5yn = h(4fn+1 + 2fn): (VII:4:26)

Una aplicaci�on a la ecuaci�on diferencial y0 = y con y(0) = 1 da la f�ormula

de recurrencia

yn+2 + 4(1� h)yn+1 + (5 + 2h)yn = 0: (VII:4:27)

Para resolver la ecuaci�on precedente, se calcula el polinomio caracter��stico

de �esta, obteniendo

�2 + 4(1� h)� � (5 + 2h) = 0; (VII:4:28)

ecuaci�on de segundo grado cuyas soluciones son

�1 = 1 + h+O(h2); �2 = �5 +O(h):

La soluci�on de (VII.4.27) tiene la forma

yn = C1�n1 + C2�

n2 (VII:4:29)

donde las constantes C1 y C2 est�an determinadas por y0 = 1 y y1 = eh. Para

n grande, el t�ermino C2�n2 � C2(�5)n es dominante y ser�a muy di�cil que

la soluci�on num�erica converga hacia la soluci�on exacta. Ver �gura VII.4.4.

.0 .5 1.0

1.0

2.0

3.0

h=0.1

h=0.05

h=0.025

h=0.01

h=0.1

h=0.05

h=0.025

h=0.01

Figura VII.4.4. Inestabilidad del m�etodo VII.4.26:

Page 360: alisis erico

350 VII Ecuaciones Diferenciales

La raz�on de la divergencia de la soluci�on num�erica en el ejemplo precedente,

es que el polinomio

%(�) =

kXi=0

�i�i; (VII:4:30)

tiene una raiz que es m�as grande que 1 en valor absoluto.

Para encontrar una condici�on necesaria para la convergencia, se consi-

derar�a el problema y0 = 0 con valores iniciales y0; y1; : : : ; yk�1 perturbados.

La soluci�on num�erica yn satisface:

�kyn+k + � � �+ �0yn = 0; (VII:4:31)

y est�a dada por una combinaci�on lineal de:

�n: : : : : : : : : : : : : : : : : : : : si � es una raiz simple de %(�) = 0,

�n; n�

n: : : : : : : : : : : : : : : si � es una raiz doble de %(�) = 0,

�n; n�

n; : : : ; n

l�l: : : : : : si � es una raiz de multiplicidad l.

Para que la soluci�on num�erica quede acotada, es necesario que las

condiciones de la de�nici�on siguiente sean satisfechas.

De�nici�on VII.4.3.- Un m�etodo multipaso es estable, si las raices del

polinomio %(�) satisfacen

i) si %(�) = 0 entonces������� � 1,

ii) si %(�) = 0 y������� = 1 entonces � es una raiz simple de %(�).

Se puede mostrar facilmente que los m�etodos de Adams tienen como

polinomio caracter��stico

%(�) = �k�1(� � 1):

Por consiguiente los m�etodos de Adams son estables para la de�nici�on que

acaba de ser enunciada. Por otro lado se muestra igualmente que los m�etodos

BDF son estables solamente para k � 6.

Existe un resultado muy importante en la teor��a de la estabilidad de los

m�etodos multipaso, cuya demostraci�on escapa a los objetivos del libro. Este

resultado es conocido como la primera barrera de Dahlsquist.

Teorema VII.4.4.- Primera barrera de Dahlsquist. Para un m�etodo mul-

tipaso estable, el orden k satisface p � k + 2 si k es par, p � k + 1 si k es

impar y p � k si el m�etodo es expl��cito.

Convergencia de los M�etodos Multipaso

Debido a la complejidad de la demostraci�on, en esta subsecci�on se

tratar�a, solamente el caso equidistante.

Page 361: alisis erico

VII.4 M�etodos Multipasos 351

Teorema VII.4.5.- Sup�ongase que los k valores de partida satisfagan

ky(xi)� yik � C0hp, para i = 0; 1; : : : ; k � 1. Si el m�etodo multipaso

(VII.4.21) es de orden p y estable, entonces el m�etodo es convergente de

orden p, es decir el error global satisface

ky(xn)� ynk � Chp; para xn � x0 = nh � Const: (VII:4:34)

Demostraci�on.- El punto esencial de la demostraci�on es el siguiente: Se

escribe formalmente el m�etodo multipaso (VII.4.21) bajo la forma de un

m�etodo a un paso. El m�etodo multipaso es de la forma, suponiendo �k = 1

yn+k = �k�1Xi=0

�iyn+i + h(xn; yn; : : : ; yn+k�1; h): (VII:4:35)

Para un m�etodo expl��cito �k = 0, est�a dada por

(xn; yn; : : : ; yn+k�1; h) =

k�1Xi=0

�if(xn+i; yn+i);

y para un m�etodo general, est�a de�nida impl��citamente por

(xn; yn; : : : ; yn+k�1; h) =

k�1Xi=0

�if(xn+i; yn+i) (VII:4:36)

+ �kf

xn+k ; h(xn; yn; : : : ; yn+k�1; h)�

k�1Xi=0

�iyn+i

!:

Luego se considera los supervectores

Yn = (yn+k�1; : : : ; yn+1; yn)t;

pudiendo de esta manera escribir el m�etodo dado por (VII.4.35), bajo la

forma

Yn+1 = AYn + h�(xn; Yn; h); (VII:4:37)

donde

A=

0BBBBB@��k�11 ��k�21 � � � ��11 ��01

1 0 � � � 0 0

1. . . O

. . .. . .

...

1 0

1CCCCCA; �(x; Y; h)=0BBBB@(x; Y; h)

0

0...

0

1CCCCA:(VII:4:37)

Page 362: alisis erico

352 VII Ecuaciones Diferenciales

El siguiente paso en la demostraci�on es introducir el error local. Se considera

los valores yn; : : : ; yn+k�1 sobre la soluci�on exacta, denotando

Y (xn) = (y(xn+k�1; : : : ; y(xn+1); y(xn))t; (VII:4:38)

y aplicando una vez el m�etodo multipaso. Esto da

Yn+1 = AY (xn) + h�(xn; Y (xn); h):

La primera componente de Yn+1 � Y (xn+1) es exactamente el error local

dado por (VII.4.22), mientras que las otras componentes son iguales a cero.

Como el m�etodo es de orden p, por hip�otesis, se tiene Yn+1 � Y (xn+1) � C1h

p+1; para xn+1 � x0 = (n+ 1)h � Const:

(VII:4:39)

A continuaci�on se debe analizar la propagaci�on del error, es decir introducir

la estabilidad del m�etodo. Consid�erese una segunda soluci�on num�erica,

de�nida por

Zn+1 = AZn + h�(xn; Zn; h)

y estimar la diferencia Yn+1 � Zn+1. Como ilustraci�on del siguiente paso

en la demostraci�on se considerar�a solamente los m�etodos de Adams, pues el

caso general requiere de la utilizaci�on de otra norma, cuyo estudio escapa el

alcanze de este libro. Por consiguiente

0BB@yn+k � zn+k

yn+k�1 � zn+k�1

...

yn+1 � zn+1

1CCA =

0BB@yn+k�1 � zn+k�1

...

yn+1 � zn+1

yn � zn

1CCA

+h

0BB@(xn; Yn; h)�(xn; Zn; h)

0...

0

1CCA :

Utilizando la norma in�nita y condici�on de Lipschitz para que es conse-

cuencia de la de f(x; y), se obtiene

kYn+1 � Zn+1k � (1 + h�) kYn � Znk : (VII:4:40)

Ahora se ver�a la acumulaci�on de los errores propagados. Esta parte de la

demostraci�on es exactamente igual que para los m�etodos a un paso, ver el

Page 363: alisis erico

VII.4 M�etodos Multipasos 353

paragrafo VII.3 y la �gura VII.4.5. �

y

0 1 2 3 n

yE

y(x )EE

nn

n−1

1

ee

e n−1

2

1

0

x x x x x

Figura VII.3.2. Estimaci�on del error global para m�etodos multipaso.

Ejercicios

1.- Para los coe�cientes del m�etodo de Adams expl��cito, demostrar la

f�ormula de recurrencia siguiente:

m +1

2 m�1 +

1

3 m�2 + � � �+

1

m+ 1 0 = 1:

Indicaci�on.-Introducir la serie

G(t) =

1Xj=0

jtj; j = (�1)j

Z 1

0

��sj

�ds

y demostrar que

G(t) =

Z 1

0

(1� t)�sds y � log(1� t)

t

G(t) =1

1� t

;

enseguida, desarrollar la segunda f�ormula en serie de Taylor y comparar

los coe�cients de tm.

2.- Consid�erese la identidad

y(xn+1) = y(xn�1 +

Z xn+1

xn�1

f(t; y(t))dt

para la soluci�on de la ecuaci�on diferencial y0 = f(x; y).

Page 364: alisis erico

354 VII Ecuaciones Diferenciales

a) Remplazar en la identidad la funci�on desconocida f(t; y(t)) por el

polinomio p(t), como se ha hecho para construir el m�etodo de Adams

expl��cito. Deducir la f�ormula de Nystr�on

yn+1 = yn�1 + h

k�1Xj=0

�jrjfn:

b) Calcular los primeros �j .

c) Veri�car la identidad �j = 2 j � j�1, donde j son los coe�cientes

del m�etodo de Adams expl��cito.

3.- Mostrar que el m�etodo BDF a k pasos tiene orden k.

4.- Calcular el orden para la f�ormula de Nystr�on, ver ejercicio 2.

5.- Un m�etodo multipaso se dice sim�etrico, si

�j = ��k�j ; �j = �k�j :

Mostrar que un m�etodo sim�etrico siempre tiene un orden par.

6.- Dado un predictor de orden p� 1

kXi=0

�Pi yn+1 = h

k�1Xi=0

�Pi fn+1; (P )

y un corrector de orden p

kXi=0

�iyn+1 = h

kXi=0

�ifn+1: (C)

a) Escribir el m�etodo P (EC)ME bajo la forma

Yn+1 = AYn + h�(xn; Yn; h):

b) Mostrar que este m�etodo es convergente de orden p, si el corrector es

estable, no es necesario que el predictor sea estable.

Page 365: alisis erico

Bibliograf��a

Al �nal de cada libro o art��culo, se indica entre corchetes y car�acteres it�alicos

el cap��tulo y/o secci�on al que hace referencia.

J.H Ahlberg, E.N. Nilson & J.L. Walsh (1967): The Theory of Splines

and Their Applications. Academic Press, New York. [III.2]

G. Arfken (1985):Mathematical Methods for Physicists. Academic Press,

London. [I.3], [VI.2].

V.I. Arnol'd (1992): Ordinary Di�erential Equations. Springer-Text-

book. [VII.1].

K.E. Atkinson (1978): An Introduction to Numerical Analysis. John

Wiley & Sons. [I], [III], [VI].

O.A Axelsson (1976): A class of iterative methods for �nite element

equations. Comp. Math. in Appl. Mech. and Eng. 9. [II.4].

N. Bakhbalov (1976): M�ethodes Num�eriques. Editions Mir, Moscou. [I],

[III], [VI].

C. de Boor (1978): A Practical Guide to Splines. Springer-Verlag, Berlin.

[III.2].

C. Br�ezinski (1977): Acc�el�eration de la Convergence en Analyse Num�eri-

que. Lectures Notes in Mathematics, Nr. 584, Springer-Verlag. [III.3], [VI.3].

J.C Butcher (1987): The Numerical Analysis of Ordinary Di�erential

Equations. John Wiley & Sons. [VII].

H. Cartan (1977): Cours de Calcul Di��erentiel. Hermann, Paris. [IV.2],

[IV.3].

P.G Ciarlet (1982): Introduction �a l'analyse num�erique matricielle et �a

l'optimisation. Mason, Paris. [II].

M. Crouzeix & A.L. Mignot (1984): Analyse Num�erique des Equations

Di�erentielles. Mason, Paris. [III], [VI] , [VII].

G. Dahlquist & A. Bj�orck (1974): Numerical Methods. Prentice-Hall. [I],

[III], [VI].

R. Dautray & J.L. Lions (1988): Mathematical Analysis and Numerical

Methods for Science and Technology, volume 2, Functional and Variational

Methods. Springer-Verlag. [VI.4].

P.J. Davis & P. Rabinowitz (1975): Methods of Numerical Integration.

Academic Press, New York. [VI].

Page 366: alisis erico

356 Bibliograf��a

J. Dieudonn�e (1980): Calcul In�n�etisimal. Hermann, Paris. [IV.1],

[IV.2], [VI.4].

J.J. Dongarra, C.B. Moler, J.R. Bunch & G.W. Stewart (1979): LIN-

PACK Users' Guide. SIAM, Philadelphia. [II].

A. Gramain (1988): Integration. Hermann, Paris. [VI.1], [VI.4].

R.P. Grimaldi (1989): Discrete and Combinatorial Mathematics. Addi-

son-Wesley Publishing Company. [II.3].

E. Hairer, S.P. N�rsett & G. Wanner (1987): Solving Ordinary Di�eren-

tial Equations I. Nonsti� Problems. Springer Series in Comput. Math., vol.

8. it [VII].

E. Hairer & G. Wanner. Solving Ordinary Di�erential Equations. Sti�

Problems. Springer Series in Comput. Math., vol. 11. [VII].

P. Henrici (1962): Discrete Variable Methods in Ordinary Di�erential

Equations. John Wiley & Sons. [VII].

R.A. Horn & C.R. Johnson (1985): Matrix Analysis. Cambridge Univer-

sity Press. [II.1], [V.1].

G.H Golub & C.F. Van Loan (1989): Matrix Computations. The Johns

Hopkins University Press, Baltimore and London. [II].

K.L. Kantorovitch & G. Akilov (1981): Analyse Fonctionnelle, Volume2.

Editions Mir, Moscou. [IV.2], [IV.3]

V.I. Krylov (1962):Approximate calculation of integrals.Macmillan,New

Yor. [VI].

S. Lang (1987): Linear Algebra. Springer-Verlag. [II], [V].

M. Marden (1966): Geometry of Polinomials. American Mathematical

Society, Providence, Rhede Island, 2nd Edition. [IV.1]

J.M. Ortega & W.C. Rheinboldt (1970): Iterative Solution of Nonlinear

Equations in Several Variables. Academic Press, New York. [IV].

A.M. Ostrowski (1966): Solution of Equations and Systems of Equations.

Academic Press, New York, 2nd edition. [IV].

B.N. Parlett (1980): The Simmetric Eigenvalue Problem. Prentice-Hall,

Englewood Cli�s, New Jersey. [V].

R. Piessens, E. de Doncker-Kapenga, C.W. �Uberhuber & D.K. Kahaner

(1983): QUAD-PACK. A Subroutine Package for Automatic Integration.

Springer Series in Comput. Math., vol. 1. [VI].

W.H Press, B.R. Flannery, S.A Teukolsky & W.T Vetterling (1989):

Numerical Recipies. The Art of Scienti�c Computing (Versi�on FORTRAN).

Cambridge University Press, Cambridge. [VI.4].

C.R. Rao: (1973): Linear Statistical Inference and Its Applications.

John Wiley & Sons. [II.5]

Page 367: alisis erico

Bibliograf��a 357

W. Rudin (1976): Principles of Mathematical Analysis. MacGraw Hill,

trird edition. [IV.2], [VI.1].

A.A Samarski & E.S. Nikolaev (1982): M�etodos de soluci�on de las

ecuaciones reticulares, Tomo I y II. Editorial Mir, Moscou. [III.3], [III.4]

B.T. Smith, J.M. Boyle, Y. Ikebe, V.C. Klema & C.B Moler (1970):

Matrix Eigensystem Routines: EISPACK Guide. 2nd ed., Springer-Verlag,

New York. [V]

J. Stoer & R. Bulirsch (1980): Introduction to Numerical Analysis.

Springer-Verlag, New York. [I], [III], [VI].

G.H. Stewart (1973): Introduction to Matrix Computations. Academic

Press, New York. [II].

L. Swhwartz (1970): Analyse, Topologie g�enerale et analyse fonction-

nelle. Hermann, Paris. [IV.2].

R.A. De Vore & G.G. Lorentz (1991): Constructive Approximation.

Springer-Verlag. [III.2].

J.H. Wilkinson (1963): The Algebraic Eigenvalue Problem. Clarendon

Press, Oxfordd. [V].

J.H. Wilkinson (1965): Rounding Errors in Algebraic Process. Prentice-

Hall, New York. [I].

J.H. Wilkinson (1969): Rundungsfehler. Springer-Verlag, Berlin. [I], [II].

J.H. Wilkinson & C. Reinsch (1971): Handbook for Automatic Compu-

tation, Volume II, Linear Algebra. Springer-Verlag, New York. [II], [V].

FORTRAN/9000 Reference (1991): Hewlett-Packard Company. [I.2].

Page 368: alisis erico
Page 369: alisis erico

Indice de S��mbolos

Los s��mbolos matem�aticos que aparecen en el libro, est�an enunciados en este

glosaria de la manera siguiente. En la primera columna el s��mbolo mismo, al

medio el nombre de �este y a la derecha la pagina donde est�a de�nido.

P(x) problema, 2.

arr(x) redondeo de x, 8.

eps precisi�on de la computadora, 8.

k k norma de vector, 25.

k k norma de matriz, 26.

1 vector 1, 29.

cond(A) condici�on de la matriz A, 29.

LR descomposici�on de Gauss, 37.

diag(r1; r2; : : : ; rn) matriz diagonal, 45.

D1=2 matriz raiz cuadrada, 45.

! coe�ciente de relajaci�on, 56.

producto tensorial de matrices, 60.

kxkA norma natural, 72.

Q matriz ortogonal, 87.

A+ pseudo inversa de una matriz, 93.

y[xi0 ; : : : ; xik ] diferencia dividida de orden k, 107.

rkyi diferencia �nita progresiva, 109.

�rkyi diferencia �nita regresiva, 109.

Tn(x) polinomio de Chebichef, 113.

li(x) polinomio de Lagrange, 116.

�n constante de Lebesgue, 116.

f0

x aplicaci�on derivada, 168.

�(A) radio espectral, 171.

ker nucleo de una aplicaci�on lineal, 214.

�A(�) polinomio caracter��stico, 214.

A� matriz adjunta, 215.

U matriz unitaria, 215.

Pk(�) nucleo de Peano de orden k, 251.

Pk(x) polinomio de Legendre, 262.

FN transformada discreta de Fourier, 286.

y � k producto de convoluci�on, 292.

Page 370: alisis erico
Page 371: alisis erico

Indice Alf�abetico

acelerador de convergencia, 147,276

Adamsm�etodo expl��cito, 341m�etodo impl��cito, 343

Aitken, 276algoritmo, 2bisecci�on, 161, 164Cholesky, 43epsilon, 278Euclides, 157Gauss, 37H�orner, 3,7

aplicaci�on de spline, 142aproximaci�on de Broyden, 198arm�onica, sucesi�on, 148axiomas de Moore-Penrose, 96

BDF, m�etodos, 345Broyden, 198Brusselator, 339Bulirsch, sucesi�on, 148busquedade Fibonacci, 129de pivote parcial, 41

c�alculo derivada, 177c�alculo variacional, 310Cardano, 154Cauchy, 297cerolocalizaci�on, 155multiplicidad, 105

Chebichefpolinomio, 73, 113puntos, 116teorema, 74

cociente de Rayleigh, 223,227

constantede Lebesgue, 116

condici�ondel problema a valores propios, 217del problema lineal,30,33de un problema, 10de una matriz, 29,30Lipschitz, 297,298

construcci�onpolinomio de interpolaci�on, 106m�etodo de orden 4, 327spline, 133

convergenciaacelerador, 147interpolaci�on, 119m�etodo de Gauss-Newton, 204m�etodo de Gauss-Seidel, 49m�etodo de Jacobi, 49m�etodos de Runge-Kutta, 335m�etodos multipaso, 350spline, 133

costo, 3descomposici�on LR, 39descomposici�on QR, 90transformada r�apida de Fourier, 291

Cramer, regla de, 35

Dahlsquist, primera barrera, 350descomposici�onCholesky, 44, 45Jordan, 219LR, 37, 38, 39QR, 87Schur, 215, 234valores singulares, 94

diferenciasdivididas, 107�nitas, 109

direcci�onconjugada, 69, 70Newton, 194

dispositivoideal de c�alculo, 2material de c�alculo, 8

Dormand & Prince, 332

Page 372: alisis erico

362 Indice Alf�abetico

ecuacionescon derivadas parciales, 59cuadr�aticas, 152c�ubicas, 153de grado cuarto, 154diferenciales, 296Euler-Lagrange, 310no resolubles por radicales, 155resolubles por radicales, 152

e�ciencia, 3�-algoritmo, 278errorde aproximaci�on, 5de la aproximaci�on spline, 136de interpolaci�on, 111del m�etodo, 5de truncaci�on, 4f�ormula de cuadratura, 250extrapolaci�on, 149m�etodo gradiente, 68m�etodo gradiente condicionado, 72m�etodo Gauss-Newton, 205,m�etodo Multipaso, 346m�etodo Newton, 176transformada discreta de Fourier,

287errores de redondeo, 115estabilidadalgoritmo de Gauss, 41,42,43backward analysis, 13forward analysis, 12m�etodo de Euler, 319m�etodo de Euler expl��cito, 322m�etodo multipaso, 348num�ericamente estable, 12

Eulerefecto de los errores de redondeo,

317estabilidad, 319m�etodo, 313m�etodo impl��cito, 321pol��gono, 313

extrapolaci�onpolinomial, 145tablero, 147error, 149

factorizaci�on,incompleta de Cholesky, 77

fen�omeno de Runge, 124FFT, 290Fibonacci, busqueda, 129formas tridiagonales, 227f�ormulade Cardano, 154de Newton, 107de Nystr�om, 354

de Rodr��guez, 262f�ormula de cuadratura, 248error, 250Gauss,

264{266orden, 249orden elevado, 259sim�etrica, 249

Fouriererror, 287serie de, 284transformada, 284transformada discreta, 286transformada r�apida, 290

funcionintegrable, 244modelo, 83ortogonal, 260peso, 259funciones con oscilaciones, 281

Galois, teorema, 155GAUINT, 272Gauss,algoritmo de eliminaci�on, 36, 37f�ormulas de cuadratura,

264{266convergencia Gauss-Newton, 204m�etodo Gauss-Newton, 203

Gerschgorin, teorema, 156, 232grado de aproximaci�on, 120grafo dirigido, 49

Hermite, 104, 138Heun, 325

Page 373: alisis erico

Indice Alf�abetico 363

Interpolaci�onconvergencia, 119de Lagrange, 104{108de Hermite, 104trigonom�etrica, 289

Kantorovich, ver teoremaKonrad, 271

Lagrange, 104�-estrategia, 194Lebesgue, 116Levenberg-Marquandt, 210Lipschitz, 297

mantisa, 8matrizadjunta, 215de�nida positiva, 43Frobenius, 155, 221Hessenberg, 227Hilbert, 31, 87Householder, 88, 228irreducible, 49, 50no-negativa, 50normal, 216ortogonal, 30pseudo-inversa de una, 92sim�etrica, 43tridiagonal, 227Toeplitz, 292unitaria, 215Vandermonde, 31

m�etodo,Adamas expl��citos, 341Adamas impl��citos, 343a un paso, 323BDF, 345de la bisecci�on, 229de la potencia, 223de la potencia generalizada, 233de la potencia inversa, 225Dormand & Prince, 332encajonados, 330Euler, 313, 325falsa posici�on, 165Gauss Newton, 203-205Gauss Seidel, 48{56Gradiente, 67Gradiente Conjugado, 69Gradiente Conjugado

Precondicionado, 75

Heun, 325iterativos, 163{172iterativo simple, 169Jacobi,48{56Levenberg-Marquandt, 210Maehly, 158Multipaso, 341Newton, 157, 174{199Newton con Relajaci�on, 193Newton Simpli�cado, 184predictor-corrector, 344QR, 237QR con shift, 238Sobrerelajaci�on SOR, 56, 58Runge-Kutta, ver Runge-KuttaSSOR precondicionado, 78

m��nicmos cuadrados, 83interpretaci�on estad��stica, 84interpretaci�on geom�etrica, 85

Misovski,ver teorema Newton-Misovski

modi�caciones de Gauss-Newton, 207m�odulo de continuidad, 121

Newtondirecci�on, 194Kantorovich, 185m�etodo, 157, 174{199m�etodo con Relajaci�on, 193m�etodo simpli�cado, 184Misovski, 179regla de, 247

norma,absoluta, 26ciudad-bloque, 25de la convergencia uniforme, 25de una matriz, 26de un vector, 25euclidiana, 25Frobenius, 33mon�otona, 26natural, 72

Nucleo de Peano, 251{254nucleo resolvente, 303

operaci�on elemental, 2ordenf�ormula de cuadratura, 249m�etodo de Runge-Kutta, 325construcci�on de

un m�etodo de orden 4, 327

Page 374: alisis erico

364 Indice Alf�abetico

Peano, 251{254Pearson, 99Perron-Frobenius, 52pivote, 40pol��gono de Euler, 313polinomiocaracter��stico, 214Chebichef, 73, 113, 262Hermite, 104interpolaci�on de Hermite, 104, 138, 262interpolaci�on de Lagrange, 104Jacobi, 262ortonormales, 260Lagrange, 104, 105Laguerre, 262Legendre, 262, 263

precisi�on de la computadora, 8primitiva, 245problema, 2a valor inicial, 296bien condicionado, 10con valores en la frontera, 300de Cauchy, 296de minimizaci�on, 66mal condicionado, 10

potencia inversa de Wielandt, 225procedimienteo �2 de Aitken, 276productode Kronecker, 65escalar de funciones, 260sesquilineal, 284tensorial de matrices, 60

Property A de Young, 55punto otante, 8de Chebichef, 117punto �jo, 169

pseudo-inversa de una matriz, 92

QUADPACK, 271

Rayleigh, 223,227redondeado, 8

regi�on de estabilidad, 320regladel punto medio, 246del trapecio, 246de Newton, 247de Simpson, 247Cramer, 35

resolvente, 303Rodriguez, 262Romberg, 148Runge-Kuttacondiciones de orden, 327,328convergencia, 335error glogal, 335error local, 325Dormand-Prince, 332esquema, 325Euler, 325Heun, 325Kutta, 330m�etodos, 324m�etodos encajonados, 330orden, 325regla 3/8, 330Runge, 325soluciones continuas, 333

Schur, 215,234serie de Fourier, 284Shootingm�ultiple, 307simple, 303

soluciones continuas, 333SOR, 56Splineaplicaci�on,142construcci�on, 133c�ubico, 131,132error, 136�jo en los bordes, 132natural, 132

SSOR precondicionado, 78radio espectral, 58

Page 375: alisis erico

Indice Alf�abetico 365

! optimal, 58Sturm, 159

sucesionesarm�onica, 148Bulirsch, 148Romberg, 148Sturm, 159

Sylvester, 232

tablero de extrapolaci�on, 147teoremaCauchy-Lipschitz, 297, 315Chebichef, 74Dirichlet, 285del Muestreo, 289Fundamental del Algebra, 152Galois, 155Gerschgorin, 156, 232Jordan, 219Newton-Kantorovich, 185Newton-Misovski, 179Pearson, 99Perron-Frobenius, 52punto �jo, 169Schur, 215Sylvester, 232Weirstrass, 124Wilkinson, 42Wynn, 278

transformadadiscreta de Fourier, 286r�apida de Fourier, 290

valor absoluto de un vector, 26valor propio, 215valores singulares, 94Van der Pol, 305vector propio, 215

Weirstrass, 124Wilkinson, 42Wynn, 278

Page 376: alisis erico

366 Indice Alf�abetico

Una Introducci�on al An�alisis Num�erico es un libro

que pretende dar un enfoque moderno de los t�opicos

introductorios de esta disciplina. Las nociones de

estabilidad y error son analizadas minuciosamente en cada

tema. La formulaci�on de m�etodos y algoritmos es tratada

de una manera construccionista, evitando de esta manera

las recetas y trucos que aperecen en otros libros.

El libro cuenta con siete cap��tulos que dan una idea de

lo que constituye actualmente el An�alisis Num�erico. Estos

son: Preliminares, Sistemas Lineales, Interpolaci�on,

Ecuaciones No Lineales, C�alculo de Valores Propios,

Integraci�on Num�erica y Ecuaciones Diferenciales.

Por sus caracter��sticas, este libro puede utilizarse como

texto base, o bien como un complemento bibliogr�a�co.

Est�a destinado a alumnos o profesionales interesados en

el An�alisis Num�erico. Como prerequisito para una buena

utilizaci�on de este libro, se requiere tener los conocimientos

b�asicos de an�alisis y �algebra lineal