tema 6: aproximación. - ehu. · pdf fileprecisamente, el møtodo fue desarrollado...

21
Tema 6: Aproximacin. 71 TEMA 6: APROXIMACIN. 6.1.- INTRODUCCIN. Nos ocuparemos en este captulo del concepto y mØtodos de la aproximacin de funci o- nes, en sus dos modalidades de aproximacin discreta y aproximacin continua. Se pondrÆ mayor Ønfasis en los mØtodos de aproximacin lineal, pero se considerarÆn tambiØn casos caractersticos de aproximacin no lineal, todos ellos enmarcados en el mØtodo de los mni- mos cuadrados que protagoniza el desarrollo del captulo por ser el de mayor interØs e impor- tancia para la prÆctica de la ingeniera. En muchos problemas de ingeniera es necesario trabajar a menudo con conjuntos de datos experimentales (x 1 ,y 1 ), . .., (x N ,y N ), donde las abscisas {x k } (distintas entre s) representan la variable independiente, y las ordenadas {y k } la medida realizada. Interesa entonces deter- minar la funci n y = f (x) que mejor se aproxime a los datos, proceso matemÆtico que se de- nomina aproximacin discreta en consonancia con el nœmero finito N de puntos (x i ,y i ) que se utilizan como datos de partida. En ocasiones la representaci n grÆfica de los datos puede ser fuente de informacin que nos permita elegir el tipo de funci n f que mejor se ajusta a los mismos; pero tambiØn puede ocurrir que, conociendo suficientemente el fenmeno fsico en estudio, dispongamos de un modelo matemÆtico y de la forma de la funcin f que lo describe, a falta de mayor concreci n en parÆmetros fsicos del modelo o, simplemente, de mayor precisi n en las medidas tomadas por limitaciones instrumentales y humanas. En ambos casos, lo que queda es hallar los valores mÆs adecuados de los M parÆmetros {c j (j = 1,...,M)} que definen la funci n matemÆtica f (x,c 1 ,...,c M ) que mejor aproxima el cumplimiento de las N condiciones estipuladas: y i = f (x i ,c 1 ,...,c M ) (i = 1,...,N) (1) Estas condiciones representan un sistema algebraico de ecuaciones lineales que habrÆ que resolver para determinar los parÆmetros {c j (j = 1,...,M)}. Ejemplo 1: Se trata de ajustar los 3 coeficientes de la funcin polinmica de grado 2: f (x) = c 1 + c 2 x + c 3 x 2 a un conjunto de 5 datos (puntos) disponibles (x i ,y i ) (i = 1,...,5). Las ecuaciones (1) indican que la curva y = f (x) debe pasar por los 5 puntos (x i ,y i ) definidos como datos para este ejemplo. En este caso las ecuaciones (1) se particularizan en el siguiente sistema lineal de 5 ecuaciones y 3 incgnitas {c 1 , c 2 , c 3 }: 2 1 1 1 2 1 2 2 2 2 2 3 3 3 2 3 4 4 4 2 5 5 5 1 1 1 1 1 y x x c y x x c A y x x c y x x y x x c b que en formato matricial en lo que sigue representaremos en la forma: A c b, indicando con A la matriz de coeficientes, c el vector de incgnitas y b el vector tØrmino independiente.

Upload: duongtuong

Post on 12-Feb-2018

220 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

71

TEMA 6: APROXIMACIÓN.

6.1.- INTRODUCCIÓN.

Nos ocuparemos en este capítulo del concepto y métodos de la aproximación de funcio-nes, en sus dos modalidades de aproximación discreta y aproximación continua. Se pondrá mayor énfasis en los métodos de aproximación lineal, pero se considerarán también casos característicos de aproximación no lineal, todos ellos enmarcados en el método de los míni-mos cuadrados que protagoniza el desarrollo del capítulo por ser el de mayor interés e impor-tancia para la práctica de la ingeniería.

En muchos problemas de ingeniería es necesario trabajar a menudo con conjuntos de datos experimentales (x1,y1),..., (xN,yN), donde las abscisas {xk} (distintas entre sí) representan la variable independiente, y las ordenadas {yk} la medida realizada. Interesa entonces deter-minar la función y = f (x) que mejor se aproxime a los datos, proceso matemático que se de-nomina aproximación discreta en consonancia con el número finito N de puntos (xi,yi) que se utilizan como datos de partida.

En ocasiones la representación gráfica de los datos puede ser fuente de información que nos permita elegir el tipo de función f que mejor se ajusta a los mismos; pero también puede ocurrir que, conociendo suficientemente el fenómeno físico en estudio, dispongamos de un modelo matemático y de la forma de la función f que lo describe, a falta de mayor concreción en parámetros físicos del modelo o, simplemente, de mayor precisión en las medidas tomadas por limitaciones instrumentales y humanas. En ambos casos, lo que queda es hallar los valores más adecuados de los M parámetros {cj (j = 1,...,M)} que definen la función matemática f (x,c1,...,cM) que mejor aproxima el cumplimiento de las N condiciones estipuladas:

yi = f (xi,c1,...,cM) (i = 1,...,N) (1)

Estas condiciones representan un sistema algebraico de ecuaciones lineales que habrá que resolver para determinar los parámetros {cj (j = 1,...,M)}.

Ejemplo 1:

Se trata de ajustar los 3 coeficientes de la función polinómica de grado 2:

f (x) = c1 + c2x + c3x2

a un conjunto de 5 datos (puntos) disponibles (xi,yi) (i = 1,...,5).

Las ecuaciones (1) indican que la curva y = f (x) debe pasar por los 5 puntos (xi,yi) definidos como datos para este ejemplo. En este caso las ecuaciones (1) se particularizan en el siguiente sistema lineal de 5 ecuaciones y 3 incógnitas {c1, c2, c3}:

211 1

21 22 2

22 33 3

23 44 4

255 5

1

1

1

1

1

yx xc yx xc Ayx xc yx x

yx x

c b

que en formato matricial en lo que sigue representaremos en la forma: A c b, indicando con A la matriz de coeficientes, c el vector de incógnitas y b el vector término independiente.

Page 2: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

72

Obsérvese que el sistema está sobredeterminado porque tiene mayor número de ecua-ciones que de incógnitas; por tanto, en general, no existirá solución, y de ahí el signo utili-zado en lugar del habitual =. Ello quiere decir que resolveremos el sistema rectangular de ecuaciones de manera aproximada buscando el mejor (o menos malo) conjunto de incógnitas {c1, c2, c3}; el significado de mejor y el método de resolución son aspectos a desarrollar a lo largo del capítulo. El significado geométrico de la solución es el adelantado al plantear el pro-blema: al calcular {c1, c2, c3} estaremos definiendo el polinomio de grado 2 que mejor se acerca a los 5 puntos proporcionados como datos.

Una conclusión importante del comentario anterior es que en este capítulo dedicado a la aproximación de funciones, indirectamente también abordamos la resolución, en sentido aproximado, de sistemas lineales de ecuaciones rectangulares para los que en general no exis-te solución; efectivamente, será muy útil en muchas aplicaciones prácticas definir un vector único que verifique un sistema de ecuaciones sobredeterminado de manera aproximada ópti-ma (en el sentido de los mínimos cuadrados, como veremos).

Obsérvese también que de existir sólo 3 puntos como dato, el sistema estaría determina-do y el polinomio calculado pasaría exactamente por los 3 puntos; habríamos resuelto enton-ces un problema de interpolación que está incluido (cuando N = M) en el problema más gene-ral de aproximación discreta. Ello no quiere decir que el problema general de aproximación (N > M) carezca de interés; al contrario, normalmente en los problemas de ajuste de los datos experimentales interesa que N > M para atenuar y filtrar posibles errores o imprecisiones.

La aproximación discreta y la interpolación de funciones son conceptos cercanos pero en el primero no se exige como en el segundo que la función aproximante verifique exacta-mente los datos discretos del problema; esta diferencia evita las dificultades observadas en la interpolación de grandes cantidades de datos, especialmente si éstos muestran algún tipo de ruido o perturbación proveniente de los errores experimentales.

En otras ocasiones puede ser conveniente aproximar en un intervalo dado [a,b] una fun-ción continua f

*(x) en vez de un conjunto discreto de puntos (xi,yi), mediante otra función f (x) de una familia o clase de funciones que comparten alguna característica que facilita el trabajo matemático, por ejemplo polinomios, funciones racionales, polinomios trigonométricos, etc. Estaremos entonces ante el concepto de aproximación continua, que será objeto de estudio en los apartados finales del capítulo.

Común a ambos tipos de aproximación, discreta o continua, es el carácter lineal o no lineal de la misma, que definiremos a continuación, como paso previo al desarrollo del capítu-lo; así, diremos que un método de aproximación es lineal si la función aproximante f (x,c1,...,cM) es lineal en los parámetros {cj (j = 1,...,M)}; y no lineal en el caso contrario.

Ejemplo 2:

El ajuste polinomial mediante la función

f (x) = c1 + c2x + c3x2 + ··· + cnxn1

es un problema de aproximación lineal, porque un polinomio es lineal en sus coeficientes, aunque no lo es en general en la variable independiente x. Sin embargo, el ajuste exponencial mediante la función

22 41 3 2 1( ) nc xc x c x

nf x c e c e c e

es un problema de aproximación no lineal.

Page 3: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

73

6.2.- APROXIMACIÓN DISCRETA.

¿Cómo se determina la mejor aproximación f (x) que pase cerca (no por cada uno) de los N puntos dato (xk,yk)? Para responder esta pregunta hay que considerar los errores (también llamados desviaciones) que se definen a continuación:

ek = f (xk) yk (k 1,...,N)

Hay varias normas (formas de medir estos errores) que podemos usar para medir la dis-tancia entre la curva y = f (x) y los datos. Las más utilizadas son:

Error máximo: 1

( ) max ( )k kk NE f f x y

Error medio: 11

1( ) ( )

N

k kk

E f f x yN

Error cuadrático medio: 2

21

1( ) ( )

N

k kk

E f f x yN

Ejemplo 3:

Vamos a comparar el error máximo, el error medio y el error cuadrático medio de la aproxima-ción lineal y = f (x) = 8.6 1.6 x con respecto al conjunto de datos (1,10), (0,9), (1,7), (2,5), (3,4), (4,3), (5,0) y (6,1).

En la siguiente tabla se representan estos datos, el error absoluto y el error cuadrático en cada punto:

xk yk f (xk) = 8.61.6 xk |ek| ek2

1 0 1 2 3 4 5 6

10.0 9.0 7.0 5.0 4.0 3.0 0.0 1.0

10.2 8.6 7.0 5.4 3.8 2.2 0.6 1.0

0.2 0.4 0.0 0.4 0.2 0.8 0.6 0.0

0.04 0.16 0.00 0.16 0.04 0.64 0.36 0.00

Suma: 2.6 1.40

Los errores se calculan a partir de los valores f (xk) y ek:

E( f ) = max{0.2, 0.4, 0.0, 0.4, 0.2, 0.8, 0.6, 0.0} = 0.8

E1( f ) = 2.6 / 8 = 0.325

E2( f ) = (1.4 / 8)1/2 0.41833

Podemos ver que el error máximo E( f ) es el mayor de los tres. Si el error en un punto es grande, entonces el valor de este error es el que determina E( f ). El error medio E1( f ) es simplemente la media aritmética de los valores absolutos de los errores en los puntos; se usa a menudo porque es fácil de calcular. El error cuadrático medio E2( f ) se usa muy a menudo porque es fácil de mini-mizar y porque considera la naturaleza aleatoria de los errores.

La función mejor aproximación es aquélla que minimiza la función error y, por tanto, dependerá de la norma elegida para la definición del mismo. Con las normas definidas, serían tres las funciones de aproximación óptimas que podríamos calcular, pero la que corresponde a la tercera norma, el error cuadrático medio, es la elección más utilizada en Ingeniería, y se denomina aproximación mínimo-cuadrática.

Page 4: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

74

6.3.- APROXIMACIÓN DISCRETA MÍNIMO-CUADRÁTICA: CASO LINEAL.

Dados N puntos {(xk,yk) (k = 1,...,N)} con abscisas distintas, y M funciones linealmente independientes { fj (x) (j = 1,...,M)}, se trata de encontrar M coeficientes {cj} tales que la fun-ción f (x) definida como la combinación lineal

1

( ) ( )M

j jj

f x c f x

minimice la suma de los cuadrados de los errores cometidos en cada punto:

2

2

1 21 1 1

, , , ( )N N M

M k k j j k kk k j

E c c c f x y c f x y

es decir, E = N [E2( f )]2. Minimizar E es equivalente a minimizar E2( f ), y para que la magni-

tud escalar E alcance un mínimo relativo para un conjunto dado de valores de los parámetros {c1,..., cM}, es necesario que se verifiquen las condiciones E / ci = 0 para i = 1, 2,..., M. Cal-culando estas derivadas e igualando a cero se obtiene un sistema de ecuaciones lineales cuya solución es {cj}. En efecto,

1 1

1 1 1

0 2N M

j j k k i kk ji

N M N

j j k i k k i kk j k

E c f x y f xc

c f x f x y f x

y permutando los signos de sumatorio queda el siguiente sistema de ecuaciones en cj:

1 1 1

( ) ( ) ( ) ( 1, 2, ..., )M N N

j k i k j i k kj k k

f x f x c f x y i M

(2)

que reciben el nombre de ecuaciones normales o ecuaciones normales de Gauss.

A pesar de su carácter aproximado, la solución obtenida mediante mínimos cuadrados alisa (filtra) los errores aleatorios de los datos y permite captar la tendencia de fondo mostrada por el fenómeno medido. Precisamente, el método fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos cuerpos quedan de-terminadas por cinco parámetros, es decir, en principio, por cinco observaciones de su posi-ción. Sin embargo, debido a la imprecisión de los instrumentos de medida y del factor huma-no, el cálculo de una órbita a partir de tan solo 5 observaciones es escasamente fiable, y la solución correcta se obtiene mediante el ajuste por mínimos cuadrados de numerosas observa-ciones.

Obsérvese que hemos pasado del sistema rectangular de ecuaciones (1) de dimensión NM al sistema final cuadrado de dimensiones MM ; todo ello queda mejor reflejado si de manera equivalente reproducimos el proceso seguido en forma matricial como en el Ejem-plo 1. Entonces el sistema de ecuaciones (1) es equivalente a:

1

( )( ) ( 1,..., )

Mij j i

j j i ij i i

a f xc f x y i N A

b y

c b

Page 5: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

75

En la fila genérica i se establece que la función f (x) verifica (aproximadamente) el dato (xi,yi). Las dimensiones de la matriz de coeficientes A y del vector b son NM y N1 respectivamen-te, y estaremos tratando con un sistema lineal de ecuaciones rectangular sobredeterminado si, como ocurre en general, N > M.

Para obtener la solución de mínimos cuadrados del sistema rectangular A c b defini-remos el vector residuo y minimizaremos el cuadrado de su norma euclídea:

2 T T T T T T T

2; ( ) ( ) 2A A A A A A r b c r r r b c b c b b c b c c

anulando las derivadas con respecto a los parámetros c, para obtener:

T T2 2 0A A A b c T TA A Ac b (3)

Éste es un sistema de M ecuaciones con M incógnitas (matriz de coeficientes ATA de dimen-sión MM ) que se conoce como sistema de ecuaciones normales. Si el rango de la matriz A es M (las columnas de A son linealmente independientes), el sistema de ecuaciones obtenido es no singular y tiene solución única.

Efectivamente, entonces A c representa un vector del espacio generado por las columnas de A (dimensión M en general; el plano en la figura) que en el caso habitual del método de los mínimos cuadrados (N > M ) no incluye al vector b de dimensión N. Por tanto en lugar de una solución exacta buscaremos el vector A c (del espacio generado por las columnas de A) más cercano a b (en la norma euclídea); entonces, este vector A c deberá coincidir con la proyec-ción ortogonal de b en el espacio columna de A (el plano), como se muestra en la figura:

A c

b r = b A c

Figura 1.

Por tanto, el vector residuo r = b A c será perpendicular al espacio columna de A, y se verificará la condición de ortogonalidad (producto escalar nulo) de todos los vectores colum-nas de A con el vector (columna) r; en formato matricial:

T T T T0 ( )A A A A A A r b c c b

que es el mismo sistema de ecuaciones normales obtenido anteriormente.

Ejemplo 4:

Resolver numéricamente el Ejemplo 1 (ajuste cuadrático a 5 puntos) con arreglo a los siguientes valores numéricos:

x �1.0 �0.5 0.0 0.5 1.0 y 1.0 0.5 0.0 0.5 2.0

Resolución:

El sistema de ecuaciones sobredeterminado será:

Page 6: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

76

1

2

3

1 1.0 1.0 1.0

1 0.5 0.25 0.5

1 0.0 0.0 0.0

1 0.5 0.25 0.5

1 1.0 1.0 2.0

cA c

c

c b

El sistema de ecuaciones normales: T TA A Ac b

T

1 1.0 1.0

1 1 1 1 1 5.0 0.0 2.51 0.5 0.25

1.0 0.5 0.0 0.5 1.0 0.0 2.5 0.01 0.0 0.0

1.0 0.25 0.0 0.25 1.0 2.5 0.0 2.1251 0.5 0.25

1 1.0 1.0

A A

T

1.0

1 1 1 1 1 4.00.5

1.0 0.5 0.0 0.5 1.0 1.00.0

1.0 0.25 0.0 0.25 1.0 3.250.5

2.0

A

b

Tiene como solución: 0.086

0.40

1.4

c

y por tanto: 2( ) 0.086 0.4 1.4f x x x

6.3.2.- Aproximación polinomial.

Es un caso particular de la aproximación discreta mínimo-cuadrática lineal que ya ha sido tratado en alguno de los ejemplos; veremos aquí su formulación y características especí-ficas. Cuando en el método general descrito se tienen de nuevo N puntos, pero se utilizan M funciones { fj (x) = xj (j = 0,1, .., M1)}, la función aproximante f (x) será un polinomio de gra-do menor o igual que M1:

1

2 10 1 2 1

0

( )M

M jM j

j

f x c c x c x c x c x

Entonces, procediendo análogamente al caso anterior:

2

12

0 11 1 0

( ) ( , ..., )N N M

jk k j k k M

k k j

E f x y c x y E c c

y minimizando E: 1

1 0

0 2N M

j ij k k k

k ji

E c x y xc

1

0 1 1

( 0,1,..., 1)

ij

M N Nj i i

k j k kj k k

a

x c y x i M

(4)

Page 7: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

77

Obsérvese que la matriz de coeficientes de este sistema es simétrica, pues aij = aji; ade-más, aij es cte. para i+j = cte., con lo que también son iguales todos los elementos alineados perpendicularmente a la diagonal principal.

6.3.2.1.- Aproximación polinómica lineal. Determinación de la recta de regresión.

Se trata del caso particular en que el grado del polinomio es 1 y el número de coeficien-tes a determinar es M = 2. La recta de regresión o recta óptima en (el sentido de los) mínimos cuadrados es la de ecuación

y = f (x) = Ax + B

que minimiza el error cuadrático medio E2( f ). Recordemos que la cantidad E2( f ) será mínima si lo es el valor E = N [E2( f )]

2; en este caso:

222

1

[ ( )]N

k kk

E N E f Ax B y

valor que puede visualizarse geométricamente como la suma de los cuadrados de las distan-cias verticales desde los puntos hasta la recta. Particularizando a este caso las fórmulas gene-rales para polinomios (4), los coeficientes de la recta de regresión resultan ser la solución del siguiente sistema lineal de ecuaciones normales:

2

1 1 1

1 1

N N N

k k k kk k k

N N

k kk k

x A x B y x

x A N B y

(5)

Recuérdese que el sistema de ecuaciones normales también puede obtenerse matricial-mente según (3).

6.3.2.2.- Aproximación polinómica cuadrática.

Eligiendo como función de aproximación un polinomio de grado 2, y M = 3 coeficientes a determinar, la parábola óptima en el sentido de los mínimos cuadrados:

y = f (x) = Ax2 + Bx + C

se determina sustituyendo los coeficientes A = c3, B = c2 y C = c1 en el sistema de ecuaciones normales (4):

4 3 2 2

1 1 1 1

3 2

1 1 1 1

2

1 1 1

N N N N

k k k k kk k k k

N N N N

k k k k kk k k k

N N N

k k kk k k

x A x B x C y x

x A x B x C y x

x A x B N C y

(6)

y resolviendo el sistema de 3 ecuaciones para las incógnitas A, B y C. Obsérvense las simetrí-as en la matriz de coeficientes, y recuérdese que el sistema de ecuaciones normales también puede obtenerse matricialmente según (3).

Page 8: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

78

Ejemplo 5:

En el Ejemplo 4 se ha desarrollado en formato matricial un caso de ajuste polinomial de segundo grado a 5 datos determinados; puede ahora repetirse el mismo ejemplo con arreglo a las fórmulas obtenidas en (6) y comprobar la igualdad de los resultados obtenidos.

6.3.2.3.- Inconvenientes de la aproximación polinomial. Ortogonalización.

Si los datos no muestran una naturaleza polinomial, puede ocurrir que la curva resultan-te presente oscilaciones grandes. Este fenómeno, llamado oscilación polinomial, se hace más pronunciado conforme aumenta el grado del polinomio, y por esta razón no se suelen usar polinomios de grado seis o mayor a no ser que se sepa que la función de la que provienen los datos es un polinomio.

Por otra parte el sistema de ecuaciones normales es un sistema mal condicionado, que se ve muy afectado por los errores de redondeo. De hecho, se puede demostrar que, al formar el sistema de ecuaciones normales, el número de condición de la matriz A de coeficientes ori-ginal (que empeora sensiblemente al aumentar el grado del polinomio de aproximación) que-da elevado al cuadrado en la matriz de coeficientes ATA resultante.

T 2cond( ) [cond( )]A A A

6.4.- APROXIMACIÓN DISCRETA MÍNIMO-CUADRÁTICA: CASOS NO LINEALES.

6.4.1.- El ajuste exponencial: Axy Ce .

Lo mismo que en el caso anterior, en muchos procesos, como por ejemplo los de desin-tegración radiactiva, los datos experimentalmente obtenidos siguen exponenciales decrecien-tes. Supongamos de nuevo que queremos aproximar N puntos (xk,yk) mediante una función exponencial de la forma y = CeAx, donde los parámetros a determinar son C y A.

Se trata de una aproximación no lineal en el coeficiente A; el método de los mínimos cuadrados consiste en minimizar la función:

2

1

( , ) k

NAx

kk

E A C Ce y

Para ello hallamos las derivadas parciales de E(A,C) respecto de A y C:

1

1

0 2

0 2

k k

k k

NAx Ax

k kk

NAx Ax

kk

E Ce y Ce xAE Ce y eC

y tras simplificar se obtiene el siguiente sistema de ecuaciones normales:

2

1 1

2

1 1

0

0

k k

k k

N NAx Ax

k k kk k

N NAx Ax

kk k

C x e x y e

C e y e

(7)

Page 9: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

79

que es un sistema algebraico no lineal de ecuaciones cuya resolución no es inmediata como en los casos lineales, sino que se obtiene a través de un proceso iterativo. Para evitar esta dificul-tad se puede utilizar el procedimiento de linealización de los datos que se describe a continua-ción.

6.4.2.- Linealización de los datos.

Muchos casos en los que se desea ajustar los datos a una curva no lineal en sus paráme-tros, pueden transformarse en un problema de aproximación lineal mediante adecuados cam-bios de variable. Veamos a continuación algunos casos.

6.4.2.1.- Linealización de los datos para Axy Ce .

Sean N datos (xk,yk) a los que queremos ajustar una curva exponencial de la forma:

y = CeAx

Tomando logaritmos: ln(y) = ln(C) + A x

Cambio de variable: Y = ln(y), X = x

Ecuación linealizada (B = ln(C)): Y = A X + B

Los datos originales (xk,yk) se han transformado en (Xk,Yk) = (xk,ln(yk)); el problema aho-ra es calcular la recta de regresión de los puntos (Xk,Yk), para lo que planteamos las corres-pondientes ecuaciones normales definidas en (5):

2

1 1 1

1 1

N N N

k k k kk k k

N N

k kk k

X A X B Y X

X A N B Y

Éste es un sistema de ecuaciones lineal más sencillo de resolver que el sistema no lineal correspondiente a los datos iniciales no transformados. Calculados A y B, se obtiene el pará-metro original C = eB, y con ello la función a determinar y = CeAx.

Este procedimiento minimiza el error cuadrático calculado en las variables X, Y (es de-cir, el de la recta Y = A X + B respecto a los puntos (Xk,Yk)), pero, tras deshacer el cambio, el error cuadrático de la exponencial y = CeAx respecto a los datos (xk,yk) originales no es el mí-nimo. No obstante, la diferencia suele ser pequeña, lo cual permite utilizar a menudo el proce-so de linealización por ser computacionalmente más sencillo.

6.4.2.2.- Otros casos de linealización.

La técnica de linealización mostrada en el apartado anterior se puede emplear en otros casos de aproximación no lineal a funciones tales como y = A ln(x) + B o y = A/x + B.

El tipo de función de aproximación se puede elegir a la vista de la representación gráfi-ca del conjunto de datos. Una vez elegida dicha función, si ésta es no lineal en los parámetros que la definen, hay que realizar el cambio de variables adecuado de manera que las nuevas variables se relacionen linealmente. La siguiente tabla muestra algunos de los cambios más utilizados.

Page 10: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

80

Función: y = f (x) Linealización: Y = AX + B Cambios Ay Bx

1y A Bx

1

;X Y yx

Dyx C

1

( )Dy x y

C C

;X x y Y y

1yA x B

1 A x By

1;X x Y

y

xyA x B

1 1A By x

1 1;X Y

x y

ln( )y A x B ln( )y A x B ln( );X x Y y Axy C e ln( ) ln( )y A x C ; ln( )X x Y y

Ejemplo 6:

La siguiente tabla proviene de un aparato de medida que sólo da hasta las centésimas: x 2 2.5 3 3.5 4 y 0.12 0.11 0.09 0.09 0.08

Una teoría física subyacente postula que los datos provienen de una función de la forma:

1

( , ctes.)ln

y A BA x B

Es Vd. el investigador #1 tratando de determinar los coeficientes físicos A, B. Se le pide:

a) Deducir el sistema de ecuaciones normales de la recta de regresión.

b) Linealizar los datos de la tabla mediante un cambio de variables apropiado X = X(x), Y = Y(y).

c) Calcular los coeficientes A1, B1 que minimizan el error cuadrático en los datos linealizados.

d) Calcular dicho error cuadrático EY,1 en los datos linealizados (error cuadrático en Y).

e) Calcular el correspondiente error cuadrático Ey,1 tras deshacer el cambio de variables (en y).

A continuación un segundo investigador, #2, que ha estado trabajando en el mismo problema, lle-ga muy ufano con un papel en la mano:

A2 = 5.80689272067113 ; B2 = 4.19652914545741

Se pide:

f) Antes de hacer ningún cálculo, ¿desecharía Vd. esos coeficientes directamente al ver que no coinciden con los suyos, que ya son óptimos �suponiendo operaciones correctas y sin errores de redondeo�, o por el contrario creería Vd. posible que el otro investigador haya dado con unos co-eficientes A2, B2 aún mejores que los suyos, al menos en algún sentido? Justificar la respuesta. g) Calcular el error cuadrático Ey,2 (en y) análogo a Ey,1 pero usando A2, B2 en lugar de A1, B1, y compararlos. Si Ey,2 < Ey,1 , explicar cómo habrá podido llegar a su resultado el investigador #2 (es decir, qué ecuaciones habrá podido plantear y qué algoritmos habrá podido usar para resolverlas). h) ¿Es posible que venga un tercer investigador con otros parámetros en la mano que reduzcan aún más el error cuadrático en y ? Para responder con solvencia, sustituir A2, B2 en las ecuaciones del apartado g) y ver si las cumplen (ocho cifras significativas serán suficientes).

Resolución:

a) Datos: (xk,yk) (k = 1,...,N)

Recta de regresión: y = A x + B

Page 11: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

81

Error cuadrático: 2

1

( , )N

k kk

E A B A x B y

Para minimizar E:

2

1 1 1 1

1 1 1

2 0

2 0

N N N N

k k k k k k kk k k k

N N N

k k k kk k k

EA x B y x x A x B y x

A

E A x B y x A N B yB

(8)

b) 11 1

ln ;lnln

Y yy A x B Y AX B

X xA x B y

Sumas x 2 2.5 3 3.5 4 15 y 0.12 0.11 0.09 0.09 0.08 0.49

X = ln x 0.69314718 0.91629073 1.0986123 1.252763 1.3862944 5.3471075 Y = 1/y 8.3333333 9.0909091 11.111111 11.111111 12.5 52.146465

X 2 0.48045301 0.83958871 1.206949 1.5694151 1.9218121 6.0182178

X Y 5.7762265 8.3299157 12.206803 13.919589 17.32868 57.561214 (A1X +B1 � Y)2 0.02424175 0.17811472 0.25718904 0.17248452 0.030454874 0.6624849

y1 = 1/(A1ln x+B1) 0.12228473 0.10511991 0.094304276 0.086757179 0.081132698 � y2 = 1/(A2ln x+B2) 0.12163141 0.10507147 0.094553234 0.087174919 0.081655371 �

(y1 � y)2 5.2200053e-06 2.3815252e-05 1.8526793e-05 1.0515889e-05 1.2830058e-06 5.9360944e-05 (y2 � y)2 2.661502e-06 2.4290379e-05 2.073194e-05 7.981082e-06 2.7402544e-06 5.8405157e-05

[1] -1.6729399e-05 4.9856304e-05 -4.4721586e-05 2.6895703e-05 -1.5301021e-05 1.0503209e-19 [2] -2.4135421e-05 5.441101e-05 -4.0707342e-05 2.1469108e-05 -1.1037354e-05 2.3547516e-19 [3] -2.3681293e-05 4.9411822e-05 -4.2054003e-05 3.0577554e-05 -1.0336217e-05 3.9178625e-06 [4] -3.4164884e-05 5.3925921e-05 -3.8279203e-05 2.4408092e-05 -7.4560043e-06 -1.5660787e-06

yex = 1/(6 ln x + 4) 0.1225658 0.10528816 0.094413784 0.08683135 0.081183551 � (y1 � yex)

2 7.8996385e-08 2.8306043e-08 1.1992068e-08 5.5013681e-09 2.5859993e-09 1.2738186e-07 (y2 � yex)

2 8.7307535e-07 4.6951859e-08 1.9446204e-08 1.1803966e-07 2.2261431e-07 1.2801274e-06

c) Sustituyendo en (8) con X, Y en lugar de x, y �tomando los valores en negrita:

1

1

5.98408416.0182178 5.3471075 57.561214

5.3471075 5 52.146465 4.0297847

AA BA B B

d) De la tabla, en la suma de la fila (A1Xk +B1 � Yk)2:

EY,1 = 0.6624849

Este error es mínimo en la variable linealizada Y.

e) De la tabla, en la suma de la fila (y1 � y)2:

Ey,1 = 5.9360944e-05

f) Es posible que los parámetros A2, B2 del otro investigador sean mejores en la variable y (sin li-nealizar), aunque le habrá costado bastante trabajo conseguirlos. Los parámetros A1, B1 minimi-zan el error en Y, pero sólo estarán cerca de minimizar el error en y �que es lo que interesa al fin y al cabo�. g) De la tabla, en la suma de la fila (y2 � y)2:

Ey,2 = 5.8405157e-05

¡El error cuadrático es menor! El investigador #2 habrá empezado también linealizando los datos, y a los valores de A, B los habrá llamado A1, B1; a partir de ahí habrá ido mejorando la aproxima-ción mediante el método de Newton hasta llegar a A2, B2. En concreto habrá intentado minimizar la función e:

Page 12: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

82

5

225 1

51

21

1 ln2 0

ln ln1( , ) min

ln 1 12 0

ln ln

kk

k k kk

k kk

k k k

e xyA A x B A x B

e A B yA x B e

yB A x B A x B

(9)

Éste es un sistema no lineal; el método de Newton requiere entonces, partiendo de A1, B1, calcular analíticamente el jacobiano, que en este caso tiene la forma

2 2

2

2 2

2

e eA A BJe e

A B B

y evaluarlo y utilizarlo reiteradamente para calcular incrementos de A y de B hasta un criterio de parada, que puede ser el cumplimiento de (9) con errores menores que cierta tolerancia, o una di-ferencia entre dos valores consecutivos de e también menor que cierta tolerancia.

h) Si A2, B2 cumplen (9), son la solución óptima en y. Por tanto, rellenando en la tabla la fila [1] según:

2

2 2 2 2

1 ln

ln lnk

kk k

xyA x B A x B

[1]

y su suma a la derecha, y rellenando la fila [2] según

2

2 2 2 2

1 1

ln lnk

k k

yA x B A x B

[2]

y su suma a la derecha, resulta que ambas sumas son prácticamente cero (del orden de 1019). Por tanto no es posible que venga otro investigador con resultados mejores.

Nótese que si hacemos lo mismo con A1, B1 (filas [3] y [3]):

2

1 1 1 1

1 ln

ln lnk

kk k

xyA x B A x B

[3]

2

1 1 1 1

1 1

ln lnk

k k

yA x B A x B

[4]

las sumas, a la derecha, aún distan de ser cero (son del orden de 106).

6.5.- APROXIMACIÓN CONTINUA LINEAL.

Dada la función f *(x) continua en un intervalo [a,b], y dadas M funciones { fj (x), j = 1,...,M} continuas y linealmente independientes en dicho intervalo, se trata de en-contrar M coeficientes {cj} tales que la función f (x) definida como la combinación lineal:

1

( ) ( )M

j jj

f x c f x

(10)

sea la mejor aproximación a la función f *(x), es decir, minimice la función error

e(x) = f *(x) f (x)

La mejor aproximación dependerá de la norma utilizada para medir la función error; las más utilizadas son:

Page 13: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

83

1) La norma infinito (L): max ( )a x b

f f x

y entonces obtendremos la mejor aproximación uniforme, o aproximación minimax.

2) La norma euclídea (L2): 2

2( )

b

af f x dx

y entonces obtendremos la mejor aproximación mínimo cuadrática.

En la práctica de la ingeniería, la importancia de la aproximación continua es menor que la de la aproximación discreta; sin embargo su conocimiento es muy constructivo desde el punto de vista teórico por lo que supone de sistematización en el tratamiento de las funcio-nes y por la interpretación geométrica que conlleva.

Como paso previo, es conveniente reconocer la estructura del proceso de aproximación lineal que nos ocupa; en esta estructura abstracta trataremos a las funciones como vectores. De hecho sabemos que, por ejemplo, un polinomio de grado n puede ser considerado como un vector definido por la lista de sus n+1 coeficientes; y también, en apartados anteriores hemos tratado listas de valores de funciones como vectores.

Si consideramos el conjunto de funciones continuas en un intervalo:

0[ , ] { :[ , ] / es continua}C a b f a b f

es inmediato comprobar que se verifica la siguiente propiedad:

0 0, ,f g C f g C R

que es característica de los espacios vectoriales.

Nota: Recordemos que, en el caso general, para que un conjunto V dotado de la operación interna + y el producto · por un escalar �perteneciente a un cuerpo K� tenga estructura de espacio vecto-rial, es necesario que (V,+) sea un grupo abeliano y que f, g V ; , K se cumpla: a) ·f V ; b) ·( f + g) = · f + ·g ; c) ( ) · f = ·( ·f ) ; y d) 1·f = f. El cumplimiento de todos estos axio-mas se pueden comprobar con detalle en el caso que nos ocupa, de las funciones continuas en un intervalo cerrado [a,b].

El conjunto de funciones continuas en un intervalo es un espacio vectorial, y sus ele-mentos pueden tratarse algebraicamente como vectores. Entonces, el problema de la aproxi-mación lineal de una función continua definido en (10) consiste en encontrar, en el subespa-cio vectorial de C0[a,b] generado por la base { fj (x), j = 1,...,M}, el vector (función) más cer-cano (a menor distancia) al vector (función a aproximar) f * C0[a,b].

En este contexto, observamos que las consideraciones de tipo geométrico asociadas al concepto de espacio vectorial de funciones pueden ser muy útiles para encontrar o recordar resultados importantes de la teoría de aproximación y de otros aspectos de la teoría de funcio-nes.

Volviendo a la utilidad de la aproximación continua, mencionaremos a continuación un ejemplo donde la aproximación continua es más apropiada que la interpolación; se trata del diseño de librerías informáticas para el cálculo de funciones como las suministradas en los lenguajes de programación Fortran o C; en este caso, es importante que la aproximación sea igualmente precisa en todos los puntos del dominio de aproximación (para todos los argumen-tos posibles de la función), pero no es esencial que algunos de los valores aproximados coin-cidan con los valores exactos de la función. Lo más apropiado en esos casos es minimizar la

Page 14: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

84

desviación máxima en el intervalo entre la función y la aproximación, y esto se consigue con la norma infinito, es decir, con la aproximación uniforme o minimax.

Sin embargo, cabe decir que en general la aproximación mínimo cuadrática es la más utilizada en la práctica, y en ella centraremos nuestra atención en lo que queda del capítulo.

6.6.- APROXIMACIÓN CONTINUA MÍNIMO-CUADRÁTICA.

Hasta ahora hemos considerado el conjunto de funciones continuas C0[a,b] como un espacio vectorial de dimensión infinita, y la mejor aproximación a uno cualquiera de sus ele-mentos (funciones) desde un subespacio vectorial de dimensión finita, como el elemento (función) de este último a menor distancia de la función aproximada. Para ello, al concepto de espacio vectorial de funciones hemos añadido el concepto de norma, que nos permite evaluar la distancia entre funciones.

En el método de los mínimos cuadrados utilizamos la norma euclídea para definir la distancia entre elementos a minimizar; está norma está asociada con un producto interno (la norma infinito no lo está) y todo producto interno permite introducir además del concepto de longitud (norma) de un vector, el concepto de ángulo (ortogonalidad) entre vectores.

Definiremos ahora el producto interno o producto escalar de dos funciones f y g como:

( , )= ( ) ( )b

af g f x g x dx (11)

En el caso discreto el producto escalar utilizado ha sido:

1

( , ) ( ) ( )M

i ii

f g f x g x

(12)

A partir del producto escalar (11) se define:

1) La norma euclídea de una función f : 2

,f f f

2) La ortogonalidad de dos funciones f y g cuando se verifica: ( f,g) = 0

Entonces la solución del problema de la aproximación lineal mínimo cuadrática no es más que la generalización del conocido hecho geométrico en 2 ó 3 dimensiones que dice: la distancia más corta desde un punto (extremo del vector y) hasta un subespacio (recta o plano) es la longitud del vector entre el punto y el subespacio, que es perpendicular al subespacio, como se indica en la Figura 2.

x1 f1

error e

f (mejor aproximación a f *)

y f *

x2 f2

Figura 2.

Page 15: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

85

Esto quiere decir que el vector error e = f * f es ortogonal al subespacio generado por la

base { fj (x), j = 1,...,M}; esta sencilla observación geométrica nos permitirá generar las ecua-ciones normales de la aproximación lineal mínimo cuadrática continua. Todo ello queda plasmado en los siguientes puntos:

1) Cuando { fj (x), j = 1,...,M} son linealmente independientes, la aproximación mínimo cua-drática a la función f

* tiene solución única:

1

( ) ( )M

j jj

f x c f x

donde los coeficientes {cj, j = 1,...,M} satisfacen las ecuaciones normales.

2) La solución está caracterizada por que la función error e = f * f es ortogonal a todas las funciones de base { fj (x), j = 1,...,M}. Es decir,

*

1

( ), ( ) ( ) 0 ( 1,..., )M

i j jj

f x c f x f x i M

Desarrollando esta expresión, en virtud de la propiedad de linealidad del producto esca-lar, obtenemos el sistema de ecuaciones normales que debe resolverse para hallar los co-eficientes {cj, j = 1,...,M} de la aproximación:

*1 1 1 1 2 2 1 1

*2 1 1 2 2 2 2 2

*1 1 2 2

( , ) ( , ) ... ( , ) ( , )

( , ) ( , ) ... ( , ) ( , )

...

( , ) ( , ) ... ( , ) ( , )

M M

M M

M M M M M M

f f c f f c f f c f ff f c f f c f f c f f

f f c f f c f f c f f

y de manera más compacta

*

1

( ( ), ( )) ( , ) ( 1,...., )M

i j j ij

f x f x c f f i M

(13)

3) Un caso especial importante ocurre cuando las funciones { fj(x), j = 1,...,M} forman una base ortogonal; entonces el sistema de ecuaciones es diagonal y los coeficientes pueden calcularse con mayor sencillez a través de las fórmulas:

*

*( , )( 1,...., ) ; o bien ( , ) ( 1,...., )

( , )j

j j jj j

f fc j M c f f j M

f f (14)

correspondiendo las segundas al caso de que la base sea ortonormal.

Estos coeficientes se denominan coeficientes ortogonales (Fourier generalizados) y ge-neran la expansión ortogonal (desarrollo en serie de Fourier generalizada) de una función continua g(x) cualquiera:

1

( ) ( , ) ( ) (con base ortogonal)j jj

g x f g f x

que para ciertas bases (infinitas) converge a la función g(x) en el intervalo y en el sentido mínimo cuadrático si g verifica condiciones sencillas de continuidad.

Page 16: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

86

4) Una serie de Fourier truncada 1

( , ) ( )M

j jj

f g f x

es por tanto la mejor aproximación mínimo cuadrática a la función g(x) en el subespacio generado por la base (ortonormal) { fj (x), j = 1,...,M}.

Los sistemas ortogonales son ventajosos no sólo porque simplifican los cálculos, sino fundamentalmente porque evitan los problemas asociados al mal condicionamiento caracterís-tico de las ecuaciones normales asociadas a bases cualesquiera no ortogonales.

Siempre es posible ortogonalizar una base finita cualquiera de un subespacio vectorial; el método más conocido para ello se denomina método de Gram-Schmidt, y tiene una inter-pretación geométrica muy útil para describirlo y recordarlo: supongamos 3 vectores lineal-mente independientes {x1,x2,x3} que no son ortogonales pero constituyen una base del espacio 3D; procederemos en los 3 pasos siguientes:

1) Normalizar el primer vector x1 (dividiendo por su módulo o norma) para obtener el vector unitario 1�x = x1 / ||x1||.

2) Proyectar el segundo vector x2 sobre el primero x1 y restar el vector proyección del propio vector x2, para obtener el vector 2 2 2 1 1� �( , )y x x x x . Este vector y2 es ortogonal al primer

vector x1 por construcción (es la parte del segundo vector x2 ortogonal al primero). Nor-malizaremos ahora el vector y2 para obtener el vector unitario 2�x = y2 / ||y2||, que es orto-

gonal a 1�x .

3) Proyectar el tercer vector x3 sobre el plano formado por 1 2� � y x x (también x1 y x2) y restar

la proyección del propio vector x3 para obtener el vector 3 3 3 1 1 3 2 2� � � �( , ) ( , )y x x x x x x x .

Este vector y3 es ortogonal al plano formado por 1 2� � y x x por construcción (es la parte del tercer vector x3 ortogonal al plano); normalizaremos ahora el vector y3 para obtener el vector unitario 3�x = y3 / ||y3||, que es ortogonal a 1 2� � y x x .

Hemos obtenido así una base ortonormal { 1 2 3� � �, ,x x x } a partir de una base cualquiera

{ x1, x2, x3 }. La generalización de este proceso a una base de dimensión finita cualquiera es inmediata. Si lo aplicamos a la base común del subespacio vectorial de polinomios de grado n, {1, x, x2,..., xn}, obtendremos diversas familias de polinomios ortogonales según el intervalo considerado y la función de peso w(x) del producto escalar.

Si ampliamos la definición del producto escalar:

( , )= ( ) ( ) ( ) ; ( ) 0 [ , ]b

af g w x f x g x dx w x x a b

y aplicamos a {1, x, x2,..., xn} el proceso de ortogonalización de Gram-Schmidt, obtendremos:

Los polinomios de Legendre, si a = 1, b = 1 y w(x) = 1.

Los polinomios de Chebyshev, si a = 1, b = 1, y w(x) = (1x2)1/2.

Los polinomios de Chebyshev de 2ª especie, si a = 1, b = 1 y w(x) = (1x2)1/2.

Los polinomios de Jacobi, si a = 1, b = 1 y w(x) = (1x) (1+x) (, > 1).

Polinomios de Laguerre, si a = 0, b = y w(x) = x ex ( > 1).

Polinomios de Hermite, si a = , b = y 2

( ) xw x e .

Page 17: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

87

Obsérvese para finalizar, que todos los conceptos expuestos en este apartado en relación con la aproximación lineal continua incluyen en una sola teoría a los conceptos desarrollados en apartados anteriores para la aproximación lineal discreta; así, para reproducir los concep-tos del ajuste de funciones a datos experimentales bastará con considerar el producto escalar (12) en vez del producto escalar (11).

Page 18: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

88

6.7.- EJERCICIOS

1.� Hallar el polinomio que mejor se ajuste a los datos de la tabla siguiente utilizando la técnica de mínimos cuadrados.

x 1 2 3 4 5 6 7 y 4 7 9 10 9 7 4

Sol.: p x x x224

7

36

7

9

14( )

2.� Encontrar la recta que mejor se ajusta a los datos de la siguiente tabla

x 0 1 2 3 4 5 6 7 y 2 4 3 6 5 7 9 8

Sol.: p x x1

9

4

13

14( )

3.� Dada la siguiente tabla de datos, obtenida experimentalmente, hallar la constante g que relaciona las variables t y d (d gt2/2).

t 0.2 0.4 0.6 0.8 1.0 d 0.1960 0.7850 1.7665 3.1405 4.9075

Sol.: g 9.8146

4.� Ajustar los datos de la tabla siguiente mediante una parábola por el método de mínimos cuadrados. Determinar el error mínimo cuadrático.

xi 0.00 0.25 0.5 0.75 1.00

yi 1.0000 1.2840 1.6487 2.1170 2.7183

Nota: trabajar con cuatro cifras decimales y redondeo simétrico.

Sol: p2(x) = 1.0052 + 0.8634 x + 0.8446 x2

5.� Dada la siguiente tabla:

x 1 2 3 y 7 9 11

Encontrar una curva por el procedimiento de mínimos cuadrados que se ajuste a los da-tos, de las siguientes formas:

a) y = ax b) y = ax + b

Sol: a) y 4.142857 x b) y 2 x + 5

6.� Dada la tabla

xi 1.00 1.25 1.50 1.75 2.00 yi 5.10 5.79 6.53 7.45 8.46

utilizar la técnica de mínimos cuadrados para obtener un ajuste de estos valores.

Nota: Trabajar con cinco cifras decimales y redondeo simétrico.

Sol: f x e x( ) . . 307243 0 50573

Page 19: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

89

7.� Hallar la parábola que mejor se ajuste a los siguientes datos:

x 1 2 3 4 y 2 4 6 8

Sol: p2(x) = 2x

8.� a) Encontrar una curva de la forma

yA x B

1

por el procedimiento de mínimos cuadrados que se ajuste a los datos de la tabla

xi -1 0 1 2 3 yi 6.62 3.94 2.17 1.35 0.89

b) Obtener el error cuadrático medio cometido por el ajuste anterior al aproximar los valo-res yi por la curva y.

Nota: Trabajar con cuatro cifras decimales y redondeo simétrico.

Sol: yx

1

0 3028 0 2432. .

Error cuadrático medio del ajuste: 4.5622

9.� Repetir el ejercicio anterior, trabajando con dos cifras decimales y redondeo simétrico, para los datos

xi 0 1 2 3 yi 1.01 0.34 0.20 0.14

Nota: Trabajar con 4 cifras decimales y redondeo simétrico para calcular los errores.

Sol: yx

1

0 94 2 05. .

Error cuadrático medio del ajuste: 0.0255

10.� Repetir el ejercicio número 8 trabajando con dos cifras decimales y redondeo simétrico con los datos de la tabla

xi 1 2 3 4 f (xi) 3 20 87 100

Sol: yx

1

0 35 01. .

Error cuadrático medio mínimo: 0.0742

Error cuadrático medio del ajuste: 69.031

11.� Cuando el crecimiento de una población está acotado por un valor constante L sigue una curva logística que tiene la forma

y x LB e Ax( )

1

Se pide:

Page 20: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

90

a) Realizar un cambio de variable que transforme la función y(x) en una expresión lineal en x. (Tener en cuenta que L/y � 1 = B eAx.)

b) Utilizar los datos de una población, dados por la tabla

Año 1800 1850 1900 1950 xk -10 -5 0 5

yk (millones) 5.3 23.2 76.1 152.3

para encontrar una curva logística y(x) correspondiente a L = 800 (millones), aplicando míni-mos cuadrados sobre la función transformada del apartado a). Calcular el error cuadrático medio cometido.

c) Estimar la población en el año 2000.

Nota: trabajar con dos cifras decimales y redondeo simétrico.

12.�Aproximar la función f (x) = ln(x) por una recta en el intervalo [1,2].

Sol: 0.6822-0.6371

13.� Encontrar la aproximación polinómica de mínimos cuadrados de grado 1 de f (x) en el intervalo indicado:

a) f (x) = x3 � 1 en [0,2] b) f (x) = cos( x) en [0,1]

Sol: a) p1(x) = �13/5 + 18x/5 b) p1(x) = 12/2 (1�2x)

Page 21: TEMA 6: APROXIMACIÓN. - ehu. · PDF filePrecisamente, el mØtodo fue desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las órbitas elípticas de estos

Tema 6: Aproximación.

91

TEMA 6: APROXIMACIÓN. 71

6.1.- INTRODUCCIÓN. 71

6.2.- APROXIMACIÓN DISCRETA. 73

6.3.- APROXIMACIÓN DISCRETA MÍNIMO-CUADRÁTICA: CASO LINEAL. 74

6.3.2.- Aproximación polinomial. 76

6.4.- APROXIMACIÓN DISCRETA MÍNIMO-CUADRÁTICA: CASOS NO LINEALES. 78

6.4.1.- El ajuste exponencial: Axy Ce . 78 6.4.2.- Linealización de los datos. 79

6.5.- APROXIMACIÓN CONTINUA LINEAL. 82

6.6.- APROXIMACIÓN CONTINUA MÍNIMO-CUADRÁTICA. 84

6.7.- EJERCICIOS 88