1. series de tiempo 1.1. introducciÓn · 1. series de tiempo 1.1. introducciÓn toda institución,...

33
1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro si ha de sobrevivir y progresar. Hoy en día diversas instituciones requieren conocer el comportamiento futuro de ciertos fenómenos con el fin de planificar, prever o prevenir. La planificación racional exige prever los sucesos del futuro que probablemente vayan a ocurrir. La previsión, a su vez, se suele basar en lo que ha ocurrido en el pasado. Se tiene pues un nuevo tipo de inferencia estadística que se hace acerca del futuro de alguna variable o compuesto de variables basándose en sucesos pasados. La técnica más importante para hacer inferencias sobre el futuro con base en lo ocurrido en el pasado, es el análisis de Series de Tiempo. Son innumerables las aplicaciones que se pueden citar, en distintas áreas del conocimiento, tales como, en economía, física, geofísica, química, electricidad, en demografía, en marketing, en telecomunicaciones, en transporte, etc. Series de Tiempo Ejemplos 1. Series económicas: - Precios de un artículo - Tasas de desempleo - Tasa de inflación - Índice de precios, etc. 2. Series Físicas: - Meteorología - Cantidad de agua caída - Temperatura máxima diaria - Velocidad del viento (energía eólica) - Energía solar, etc. 3. Geofísica: - Series sismologías

Upload: nguyenkhue

Post on 19-Oct-2018

257 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

1. SERIES DE TIEMPO

1.1. INTRODUCCIÓN

Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes

para el futuro si ha de sobrevivir y progresar. Hoy en día diversas instituciones

requieren conocer el comportamiento futuro de ciertos fenómenos con el fin de

planificar, prever o prevenir.

La planificación racional exige prever los sucesos del futuro que probablemente

vayan a ocurrir. La previsión, a su vez, se suele basar en lo que ha ocurrido en el

pasado. Se tiene pues un nuevo tipo de inferencia estadística que se hace acerca

del futuro de alguna variable o compuesto de variables basándose en sucesos

pasados. La técnica más importante para hacer inferencias sobre el futuro con base

en lo ocurrido en el pasado, es el análisis de Series de Tiempo.

Son innumerables las aplicaciones que se pueden citar, en distintas áreas del

conocimiento, tales como, en economía, física, geofísica, química, electricidad, en

demografía, en marketing, en telecomunicaciones, en transporte, etc.

Series de Tiempo

Ejemplos

1. Series económicas:

- Precios de un artículo - Tasas de desempleo - Tasa de inflación - Índice de precios, etc.

2. Series Físicas:

- Meteorología - Cantidad de agua caída - Temperatura máxima diaria - Velocidad del viento (energía eólica) - Energía solar, etc.

3. Geofísica:

- Series sismologías

Page 2: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

4. Series demográficas:

- Tasas de crecimiento de la población - Tasa de natalidad, mortalidad - Resultados de censos poblacionales

5. Series de marketing:

- Series de demanda, gastos, ofertas

6. Series de telecomunicación:

- Análisis de señales

7. Series de transporte:

- Series de tráfico

Uno de los problemas que intenta resolver las Series de Tiempo es el de predicción.

Esto es dado una serie {x(t1),...,x(tn)} nuestros objetivos de interés son describir el

comportamiento de la serie, investigar el mecanismo generador de la serie temporal,

buscar posibles patrones temporales que permitan sobrepasar la incertidumbre del

futuro.

En adelante se estudiará como construir un modelo para explicar la estructura y

prever la evolución de una variable que observamos a lo largo del tiempo. La

variables de interés puede ser macroeconómica (índice de precios al consumo,

demanda de electricidad, series de exportaciones o importaciones, etc.),

microeconómica (ventas de una empresa, existencias en un almacén, gastos en

publicidad de un sector), física (velocidad del viento en una central eólica,

temperatura en un proceso, caudal de un río, concentración en la atmósfera de un

agente contaminante), o social (número de nacimientos, matrimonios, defunciones,

o votos a un partido político). [1]

1.2. DEFINICIÓN

En muchas áreas del conocimiento las observaciones de interés son obtenidas en

instantes sucesivos del tiempo, por ejemplo, a cada hora, durante 24 horas,

Page 3: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

mensuales, trimestrales, semestrales o bien registradas por algún equipo en forma

continua.

Se llama Serie de Tiempo a un conjunto de mediciones de cierto fenómeno o

experimento registradas secuencialmente en el tiempo. Estas observaciones serán

denotadas por {x(t1), x(t2), ..., x(tn)} = {x(t) : t ∈ T ⊆ R} con x(ti) el valor de la variable

x en el instante ti. Si T = Z se dice que la serie de tiempo es discreta y si T = R se

dice que la serie de tiempo es continua. Cuando ti+1 - ti = k para todo i = 1,...,n-1, se

dice que la serie es equiespaciada, en caso contrario será no equiespaciada.

En adelante se trabajará con Series de Tiempo discretas, equiespaciadas en cuyo

caso se asumirá sin perdida de generalidad que: {x(t1), x(t2), ..., x(tn)}= {x(1), x(2),

..., x(n)}. [2]

1.3. OBJETIVO DEL ANÁLISIS DE UNA SERIE DE TIEMPO

Los principales conceptos y características que se tienen en cuenta para el análisis

de una serie de tiempo son:

1. Obtener modelos estadísticos que describen la estructura pasada de las

observaciones que generan la serie; y/o estudiar modelos que explican la

variación de una serie en términos de series (explicativas) conocidas.

2. Suponer que la estructura pasada de la serie de interés o de las series

explicativas se conserva y bajo este supuesto, pronosticar valores futuros de

la serie bajo estudio.

3. Analizar la significancia de los efectos que políticas o intervenciones

pasadas causaron en la estructura de la serie.

Page 4: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

4. Simular valores futuros de la serie, bajo condiciones o restricciones

definidas por políticas o criterios nuevos, para así supervisar y controlar los

cambios que se producen en la serie. [4]

Para una mayor comprensión de la estructura, el comportamiento y el análisis de

una serie de tiempo se debe tener en cuenta como primera medida conocer y

entender algunos términos que se describirán a continuación.

1.4. TERMINOS RELACIONADOS AL ANÁLISIS DE UNA SERIE DE TIEMPO

1.4.1. VARIABLE ALEATORIA

En estadística y teoría de probabilidad una variable aleatoria se define como el

resultado numérico de un experimento aleatorio. Matemáticamente, es una

aplicación que da un valor numérico a cada suceso en el espacio O de los

resultados posibles del experimento.

Se distinguen entre

• variables aleatorias discretas

• variables aleatorias continuas.

Dado una variable aleatoria X se pueden calcular estimadores estadísticos diferentes

como la media (Media aritmética, Media geométrica, Media ponderada) y valor

esperado y varianza de la distribución de probabilidad de X.

Para las variables aleatorias continuas

• El valor esperado E[X] se calcula así

E[X] = integral {xf(x)dx}

Page 5: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

• La varianza xV (X) es

xV [X] = E[X2] - (E[X])2

Donde

E(X2) = integral {x2f(x)dx}

[6] [7]

1.4.2. PROCESOS ESTOCÁSTICOS Un proceso estocástico es una sucesión de variables aleatorias }{ Ζ⊆∈ TtZt / .

El subíndice que indica como varia t es el índice (puede variar en un subconjunto de

los reales, generando así procesos continuos. Aquí solo se consideran procesos

estocásticos discretos, cuando el índice varía en los enteros.

La relación de un proceso estocástico con una serie de tiempo radica en que una

Serie de Tiempo es una sucesión tz , generada al obtener una y solo una

observación de cada una de las variables aleatorias que definen un proceso

estocástico. Las observaciones son tomadas a intervalos de tiempo o distancia

iguales, según lo indica el índice t que genera la sucesión. En este sentido, la

serie es una realización de un proceso estocástico.

Luego entonces un pronostico es la predicción de un valor o una variable

aleatoria, l+nZ , en un proceso estocástico. n es el origen del pronostico y l la

posición relativa de la variable a pronosticar con respecto a n.

Cuando se habla de la actualización de un pronóstico se refiere a re-estimar los

parámetros del modelo de predicción, incluyendo las nuevas observaciones, y con

ellas pronosticar los valores futuros estipulados en el horizonte del pronóstico. [3]

Page 6: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

1.4.3. OPERADORES

1.4.3.1. OPERADOR DE REZAGO

En el análisis de series de tiempo es una herramienta útil el operador de rezago,

denotado L . Que sirve para expresar ecuaciones en diferencia, que es la forma

típica de las series de tiempo y para encontrar su solución particular (estado

estable). Se define como:

ττ

−= txxL 1

Donde τ es el rezago (positivo o negativo) que se desea introducir en la variable

tx por ejemplo:

33

−= tt xxL

22

+− = tt xxL

cLc =

Donde c es una constante. La propiedad más útil del operador de rezago es:

( ) ( )[ ].......11

1 32 ++++= LLLL

αααα

para 1<α [3]

1.4.3.1. OPERADOR DE DIFERENCIA

Otro operador conveniente y además muy útil para expresar series de tiempo es el

operador de diferencia tx∆ definido como:

tttt xLxxx )1(1 −=−=∆ −

Page 7: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

El cual consiste en tomar una observación y restarle la observación inmediatamente

anterior. También puede aplicarse de manera repetitiva. Por ejemplo

)()( 21112

−−−− −−−=−∆=∆∆=∆ tttttttt xxxxxxxx

21211 2 −−−−− +−=+−−= ttttttt xxxxxxx [3]

1.4.4. MEDIA

La media aritmética o promedio de una cantidad finita de números es igual a la

suma de todos ellos dividida entre el número de sumandos.

Así, dados los números a1,a2, ... , an, la media aritmética será igual a:

Por ejemplo, la media aritmética de 8, 5 y -1 es igual a (8 + 5 + (-1)) / 3 = 4.

El símbolo µ (mu) es usado para la media aritmética de una población. Se usa X,

con una barra horizontal sobre el símbolo para medias de una muestra: . [6]

1.4.5. VARIANZA

En teoría de probabilidad y estadística la varianza es un estimador de la divergencia

de una variable aleatoria X de su valor esperado1 E[X]. También se utilizan la

desviación estándar, la raíz de la varianza.

La varianza V[X] de una variable aleatoria X para el caso discreto se define como

1 El valor esperado o esperanza matemática de una variable aleatoria es la suma de la probabilidad de cada suceso multiplicado por su valor.

Page 8: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

También se expresa como la diferencia entre el momento de orden 2 y el cuadrado

del valor esperado:

[ ] [ ]xExExV −= 2)( [6]

1.4.6. COVARIANZA

En teoría de probabilidad y estadística la covarianza es un estimador de la

dependencia lineal de dos variables aleatorias.

La covarianza C(X,Y) de dos variable aleatorias X y Y se define como

Para dos variables aleatorias independientes2 la covarianza es cero. La covarianza

de una variable aleatoria consigo misma es su varianza. [6]

1.4.7. FUNCIÓN DE CORRELACIÓN

La correlación entre dos variables aleatorias Y y Z mide el grado al cual tienden a

moverse conjuntamente, es una medición sobre el co-movimiento que manifiestan.

kY =

z

z

y

y ZyE

σµ

σ

µ, [9]

2 Dos variables aleatorias son independientes si su probabilidad conjunta es igual al producto de las marginales

Page 9: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

1.4.8. FUNCIONES DE AUTOCOVARIANZA

Sea { }Ζ⊂Ι∈tZt / proceso estacionario en covarianza. Como la covarianza entre

dos variables de un proceso estacionario(explicado con detalle más adelante en la

sección de estacionariedad) solo depende de la distancia que los separa, la

siguiente expresión define la función de autocovarianza.

( ) ( )[ ] .,2,1,0,,, L=−== ++ kZEZZCY ktkttxyk µ

Si ( )kttxy ZZC +, representa la covarianza entre la variable tZ y la variable futura

⋅+ ktZ . En cambio, ( )tktxy ZZC ,+ representa la covarianza entre la variable ktZ + y la

variable pasada tZ . Estas dos covarianzas son iguales por propiedades de la

covarianza y porque la distancia entre las variables que las definen es k. Luego si

se considera en t un sentido de desplazamiento, la definición puede generalizarse

para k en los enteros, así, cuando k es positivo, kY mide la covarianza de tZ con

una variable futura, y cuando k es negativo mide la covarianza con respecto a una

variable pasada. Esta generalización queda consignada en la siguiente expresión.

:kY [ ] ( )( )[ ]ℜ→Ζ

−−==Υ→ ++ µµ kttkttk ZZEZZk ,cov Z: los enteros R: los reales [10]

1.4.9. FUNCIÓN DE AUTOCORRELACIÓN

La correlación es la covarianza con los datos centrados y ajustados por la

dispersión. Por lo que ambos conceptos miden el grado de enlace lineal entre Y y Z.

Interesa aplicar esta medida para una variable con su pasado, se estudia el

comportamiento de las observaciones con su historia, esto mide la tendencia de la

serie a comportarse como antes lo hizo, para llevarlo a cabo se toma el par ktt ZZ −,

y se fija en su enlace lineal a k periodos de distancia. Como el valor de k es variable

llegamos a una correspondencia; a cada k le asocia el enlace que presenta el par

( ktt ZZ −, ).

Page 10: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

La función de autocorrelación es definida como:

( )( )

( )K,2,1,0,ˆ

ˆ

1

2

1 =−

−−==

=

=

+

kZZ

ZZZZ

Y

YP n

t

t

kn

t

ktt

o

kk

Para procesos estacionarios de segundo orden la media es constante y por lo tanto

YZEZE ktt == + ][][ y la varianza también es constante, esto es:

)()(2ktxtx ZVZV +==σ para todo valor de k.

El símbolo Y(k) denota a la función de autocorrelación, ya que su labor es medir la

correlación de la serie consigo misma a distancia k, esta función no depende del

punto en el tiempo de referencia solo depende de la distancia que separa a las

observaciones, (no afecta t pero si influye k) ya que si se cambia de t a s queda que:

)(kρ = =Γ + ),( ktt ZZ

− −

σµ

σµ kss zz

E ,

La autocorrelación tiene tres propiedades importantes:

A) 1)( =kρ

La autocorrelación de una variable a tiempo presente es igual a uno ya que el grado

de asociación es perfecto.

B) 1)(1 ≤≤− kρ

Indica el grado de tendencia a comportarse similarmente ),( ktt ZZ + en el caso de

que sea una autocorrelación positiva, 1)(0 ≤≤ kρ , O a moverse en la dirección

opuesta, bajo autocorrelación negativa 0)(1 ≤≤− kρ .

C) )()( kk −= ρρ

Page 11: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

Indica que con tabular los valores positivos de k se obtiene toda la información que

es requerida.

Esta última relación se obtiene de observar las igualdades:

)(),(),()( kZZZZk tktktt −=Γ=Γ= −+ ρρ

Su gráfica se obtiene poniendo en el eje horizontal los valores de k, mientras que en

el eje vertical la autocorrelación. [4]

1.4.10. FUNCIÓN DE AUTOCORRELACIÓN PARCIAL

Se puede decir que el último parámetro de la autoregresión (la variable contra su

pasado) nos da el valor de la autocorrelación parcial de orden k.

La autocorrelación parcial de orden k denotada por kφ , mide la correlación que

existe entre tZ y ktZ + después de que ha sido removida la dependencia lineal de las

componentes intermedias, 12321 ,,.....,,, −+−++++ ktktttt ZZZZZ o sea, mide la

contribución que se logra al agregar tZ para explicar ktZ + .

Se define como la correlación condicional:

],,....,,,|,[ 12321 −+−+++++Γ= ktkttttkttk ZZZZZZZP

Donde tZ es una serie de media cero E[ tZ ] = 0. Un resultado interesante de la

teoría es hacer ver que es posible obtener la autocorrelación parcial por medio de

una regresión como sigue:

kttkktkkktkktkktkkt ZZZZZZ +−−−+−+−++ ++++++= εφφφφφ 11332211 .....

Page 12: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

Ya que kkkP φ= es la autocorrelación parcial.

El término kP se obtienen de la última coordenada de la regresión con k términos sin

constante, (los datos ya han sido centrados). Esta será la ruta a seguir en adelante

para estimar la autocorrelación parcial siempre se tomara el último coeficiente en

una autoregresión. [4]

1.4.11. ESTACIONARIEDAD

Un proceso estocástico ( )Ζ⊂Ι∈tZt / es estacionario en covarianza o débilmente

estacionario de orden 2 si:

i. Para todo Ι∈t , la media y varianza existen y son constantes

[ ] [ ]

== 2, ztyt ZVarZE σµ ;

ii. Si para cualquier ( )jZZCovji ,,, 1Ι∈ depende únicamente del número de

períodos que separa las variables, es decir, de ij − , que se denotará k:

número de rezagos.

Sea { }nZZZZ L,,, 321 una serie de tiempo estacionaria. Las siguientes expresiones

definen estimadores de la función de autocovarianza y autocorrelación

respectivamente:

( )( ) K,2,1,0,1ˆ1

=−−= +

=∑ kZZZZ

nY kt

kn

t

tk

( )( )

( )K,2,1,0,

ˆˆˆ

1

2

1 =−

−−==

=

=

+

kZZ

ZZZZ

YYP

n

t

t

kn

t

ktt

o

kk [3]

Un proceso es estacionario de forma estricta cuando los distintos valores

estadísticos no dependen del instante en que se calculan:

Page 13: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

)]([)]([ 21 txEtxE ==

)()( ktZtZ ZfZfktt ++

=

1.4.12. ERGODICIDAD

Sea tZ un proceso estocástico estacionario en covarianza.

i. Se dice que el proceso tZ es ergódico con respecto a la media si satisface la

siguiente condición:

∑−

=

=∞→

kn

t

tZnn 1

1limµ

ii. Se dice que el proceso tZ es ergódico con respecto a la autocovarianza si

satisface que:

( )( ) k

kn

t

kttk YZZZZnn

Yn

=−−∞→

=∞→ ∑

=

+

1

1limˆlim k=0,1,2,…

Note que si el proceso es ergódico con respecto a la autocovarianza, lo es con

respecto a la varianza y a la autocorrelación pues 0Y y kP están definidos.

El proceso es ergódico si estos valores coinciden con los de cualquier registro:

)()]([ ji xmtxE == [3]

1.4.13. CORRELOGRAMA

Como la varianza de la media muestral tiende a cero, para muestras grandes puede

ser ignorado este termino, con lo cual se ve que el primer estimador tiene un mayor

sesgo que el segundo, note que si desea mantener acotado este sesgo se debe

tomar k< T/4

Page 14: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

En resumen para la práctica se utiliza la función de autocorrelación muestral a partir

de una muestra de tamaño T, con esta se calculan las covarianzas muéstrales.

La suma va desde 1 hasta T-k, Y se pasa a la función de autocorrelación muestral:

Se debe recordar que se buscan "picos" en la función de autocorrelación muestral,

ya que estos exhiben una alta correlación entre observaciones k periodos aparte; se

define como pico un valor de la autocorrelación que esta afuera de esta banda.

La gráfica de la función de autocorrelación muestral se le llama el correlograma, en

esta a cada valor de k le asocia la correlación revelada en la muestra entre la

variable y su pasado a distancia k. En otras palabras los picos revelan un co-

movimiento significativo.

Page 15: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

Interesa mirar los picos, donde la autocorrelación muestral se sale de la banda,

cuando uno mira el correlograma.

En el dibujo se tienen picos o sea valores elevados para k = 1, 2, 3 y 5, 6 esto

significa que las correlaciones entre

)(),(),(),(),(),( 654321 −−−−−− tttttttttttt yZZyZZyZZyZZyZZyZZ muestran

significativas, mientras que el valor de k = 4, 7, 8, 9,… tienen una correlación baja.

Para localizar los picos en la función de autocorrelación uno puede tomar las

primeras 20 autocorrelaciones.

Note que la función de autocorrelación muestral es también una función simétrica

alrededor del origen:

Ya que la autocovarianza muestral es simétrica:

Tiene una consecuencia práctica importante en lugar de perder las ultimas k

observaciones, tomar los datos desde t = 1, hasta T - k. Es mejor se gastan las

primeras k observaciones en los retrasos y se toman los datos desde t = k + 1, hasta

T. [8]

1.4.14. RUIDO BLANCO

Un proceso estocástico { }K,2,1/ =tZt , es un Ruido Blanco si la sucesión de

variables aleatorias que lo forman provienen de una misma distribución,

generalmente normal, y cumple:

Page 16: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

i. [ ] 0=tZE

ii. [ ] 2σ=tZVar

iii. [ ] [ ] 0, === ++ kttkttk ZZEZZY para todo 0≠k

Conclusión: Los errores de un modelo de regresión deben ser ruido blanco. En

series de tiempo los errores se llaman ruido blanco.

Sea tZ un proceso de ruido blanco. Luego reemplazando teniendo en cuenta la

definición de ruido blanco se obtiene: [4]

( )[ ] [ ]ktttk ZZEZEY +=−= µ luego;

0=k [ ] [ ] 2σ=== ttto ZVarZZEY definición, ii

0≠k [ ] 0== + kttk ZZEY definición, iii

Función de autocovarianza teórica

Ruido Blanco

Ζ=

=

00

02

ksi

kksi

Yk εσ

Gráfica G1- 1a

Función de autocovarianzas teórica

0

0,25

0,5

0,75

1

0 2 4 6 8 10 12

k (rezago)

FAO

Ruido Blanco

FAC teórica

Ruido blanco

Ζ=

=

00

01

ksi

kksi

Pk ε

Gráfica G1-1b

Función de autocovarianzas teórica

0

1

2

3

4

0 2 4 6 8 10 12

k (rezago)

FOV

Ruido Blanco devarianza 4

Page 17: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

1.5. COMPONENTES DE UNA SERIE DE TIEMPO

Una Serie de Tiempo puede tener las siguientes componentes:

1. Tendencia: Esta componente representa la trayectoria suavizada que define la

serie en el rango de variación del índice y se halla observando la forma funcional

de la grafica de la serie )( tvszt a lo largo del tiempo. La tendencia puede ser:

constante, línea, cuadrática, exponencial, etc.…

2. Componente Estacional: Esta componente se presenta cuando la serie tiene

patrones estaciónales que se repiten con una frecuencia constante, produciendo

en su grafica un efecto periódico.

Los patrones estaciónales se presentan por fenómenos climáticos, recurrencia

en los pagos, costumbres y/o agrupamiento, afectan las observaciones que

generan la serie.

3. Componente Aleatoria: Esta componente se representa los cambios que sufre la

serie ocasionados por fenómenos externos no controlables.

4. Componente Cíclica: Esta componente se presenta en series que son afectadas

por fenómenos físicos o económicos que ocurren con una periodicidad variable.

[1]

1.6. ANÁLISIS DESCRIPTIVO DE UNA SERIE DE TIEMPO

El análisis descriptivo de una serie comprende: la estimación de los estadísticos básicos de la serie y el análisis en el grafico de tVszt (o el índice) de los

siguientes aspectos:

Page 18: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

a) Detectar Outlier: se refiere a puntos de la serie que se escapan de lo normal.

Un outliers es una observación de la serie que corresponde a un comportamiento

anormal del fenómeno (sin incidencias futuras) o a un error de medición.

Se debe determinar desde fuera si un punto dado es outlier o no. Si se concluye

que lo es, se debe omitir o reemplazar por otro valor antes de analizar la serie.

Por ejemplo, en un estudio de la producción diaria en una fabrica se presentó la

siguiente situación:

Figura 1.1

Los dos puntos enmarcados en un círculo parecen corresponder a un

comportamiento anormal de la serie. Al investigar estos dos puntos se vio que

correspondían a dos días de paro, lo que naturalmente afectó la producción en esos

días. El problema fue solucionado eliminando las observaciones e interpolando.

b) Permite detectar tendencia: la tendencia representa el comportamiento

predominante de la serie. Esta puede ser definida vagamente como el cambio de la

media a lo largo de un periodo.

Page 19: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

Figura 1.2

c) Variación estacional: la variación estacional representa un movimiento periódico

de la serie de tiempo. La duración de la unidad del periodo es generalmente menor

que un año. Puede ser un trimestre, un mes o un día, etc.

Matemáticamente, podemos decir que la serie representa variación estacional si

existe un número s tal que x(t) = x(t + k ⋅s).

Las principales fuerzas que causan una variación estacional son las condiciones del

tiempo, como por ejemplo:

1) en invierno las ventas de helado

2) en verano la venta de lana

3) exportación de fruta en marzo.

Todos estos fenómenos presentan un comportamiento estacional (anual, semanal,

etc.)

Figura 1.3

Page 20: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

d) Variaciones irregulares (componente aleatoria): los movimientos irregulares

(al azar) representan todos los tipos de movimientos de una serie de tiempo que no

sea tendencia, variaciones estacionales y fluctuaciones cíclicas. [1]

1.7. MÉTODOS DE PRONÓSTICO

En un pronóstico siempre está latente la incertidumbre causada por el futuro, que

se refleja en un incremento en el error de predicción. Por este motivo, otro de los

objetivos del estudio de las Series de Tiempo es buscar métodos que reduzcan al

máximo el error de predicción.

Se concluye, entonces que un sistema de pronósticos además de predecir un valor

futuro de una variable aleatoria debe estimar su error e idealmente su distribución,

lo cual permitirá cuantificar el riesgo en la toma de las decisiones.

1.7.1. CONSIDERACIONES PRELIMINARES

La siguiente información debe estar claramente definida antes de empezar a

estudiar las diferentes alternativas que brindan los métodos utilizados para

pronosticar una Serie de Tiempo.

1. Las variables aleatorias a pronosticar, completamente definidas. En este

punto es bueno notar que hay casos en los cuales es más útil pronosticar

los cambios que sufre una variable en su diferencia, que su valor, como

ocurre en procesos de control, donde se predice cuando el sistemas esta

funcionando mal.

2. Los siguientes tiempos deben especificarse y confrontarse con la

información disponible.

Page 21: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

a) Periodo de la serie (o de pronóstico). Es la unidad de tiempo (de

espacio, o del índice) que indica la frecuencia de lectura de las

observaciones que generan la serie. Por ejemplo si se desea

pronosticar la demanda semanal de un artículo, el periodo de la serie

es una semana y para estimar las ventas futuras se requiere conocer

las ventas semanales del artículo en algunas semanas anteriores.

b) Horizonte del pronostico (H). Es el número de periodos que debe

cubrir el sistema de pronósticos cada vez que se utiliza, e indica

cuanto se penetra en el futuro; su valor depende de la naturaleza de

lo que se planea.

c) Intervalo de pronostico (IP). Es la frecuencia con la cual se calculan

o actualizan los pronósticos existentes.

3. Datos históricos además de las observaciones pasadas del proceso o de la

variable de interés, deben precisarse, cuando es posible, los puntos y/o

los intervalos de tiempo o del índice en los cuales la evolución de la variable

fue afectada por factores externos o internos, que se cree modificaron

algunas observaciones o la estructura de correlación de la serie, para

cuantificar sus efectos o simplemente para eliminar perturbaciones en los

pronósticos.

4. La precisión requerida de los pronósticos.

5. Recursos disponibles para implementar el sistema de pronósticos.

Los métodos de pronóstico pueden clasificarse en dos grande bloques:

• Métodos cualitativos o subjetivos

• Métodos cuantitativos

1.7.2. MÉTODOS CUALITATIVOS O SUBJETIVOS

Page 22: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

Los métodos cualitativos son procedimientos que estiman los pronósticos

basándose en juicios de expertos, se utilizan la experiencia, intuición, habilidad y

sentido común de personas entrenadas para enfrentar este tipo de problemas. Por

ende, las técnicas estadísticas no juegan papel importante en su implementación.

Los Exploratorios se caracterizan porque partiendo del pasado y del presente se

desplazan hacia el futuro heurísticamente, buscando y analizando las alternativas

factibles.

Los Normativos, en cambio, parten del futuro estableciéndolos objetivos que se

pretenden alcanzar y luego se devuelven hacia el presente para determinar si con

los recursos y tecnología existente pueden alcanzarse los fines inicialmente

planteados.

Estos métodos se utilizan para pronosticar productos nuevos del mercado o

procesos de los cuales se tiene poca información pasad, por que su

implementación no requiere conocer datos pasados de la serie.

1.7.3. MÉTODOS CUANTITATIVOS

Los métodos cuantitativos son basados en modelos estadísticos o matemáticos y se

caracterizan por que una vez elegido un modelo o una técnica de pronóstico, es

posible obtener nuevos pronósticos automáticamente. Se clasifican en modelos uní

variados y causales.

Los modelos uní variados se basan únicamente en las observaciones pasadas de la

serie para predecir valores futuros. Los métodos de descomposición, los de

suavizamiento y los modelos (ARIMA) en el dominio del tiempo o el dominio de la

frecuencia, son considerados métodos uní variados.

Los modelos causales estiman las predicciones futuras de un proceso determinando

la relación existente entre la variable que define la serie y otras variables (otras

series explicativas) que explican su variación. En algunos de estos modelos, para

pronosticar valores futuros de la serie es necesario pronosticar primero las

Page 23: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

variables o series explicativa. Los modelos de regresión, de funciones de

transferencia (regresión dinámica) y otros modelos econométricos, son

considerados modelos causales.

1.7.4. MÉTODOS DE DESCOMPOSICIÓN

Estos métodos para pronosticar valores futuros de una Serie de Tiempo, primero

estiman los componentes d la serie (los parámetros que definen la tendencia y cada

uno de los términos que caracterizan una estación completa) con las observaciones

conocidas, y luego extrapolan o proyectan estas componentes a tiempos futuros.

Además estiman la varianza de la componente aleatoria para calcular los intervalos

de predicción. Su implementación requiere de un buen número de observaciones.

Algunos de estos métodos evalúan la componente cíclica de la serie. Entre estos

métodos de descomposición se encuentran x-11 y el x-11 ARIMA, construidos y

utilizados por la oficina de censos de USA.

1.7.5. MÉTODOS DE SUAVIZAMIENTO

Estos métodos estiman valores futuros de una serie basándose en la forma

funcional, que el modelador supone, describen las observaciones conocidas de la

serie, y la eliminación de la componente aleatoria mediante ponderaciones que

actuando sobre la las observaciones suavizan la trayectoria (forma funcional) de la

serie, alterada por la acción de la componente aleatoria. Las ponderaciones

pueden ser iguales para todas las observaciones o pueden depender de la distancia

de la observación al origen del pronóstico, según el método de suavizamiento

empleado.

En cada actualización de los pronósticos se estiman los paramentos requeridos por

la forma funcional (tendencia y estacionalidad) y con ellos se evalúa la función para

los valores futuros de t que indica el horizonte del pronóstico. Por esta razón

algunos autores los denominan métodos localmente constantes.

Entre los métodos de suavizamiento se encuentran:

Page 24: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

a. Promedios móviles o medias móviles simples: Utilizado con Series de

Tiempo cuya forma funcional es constante, la grafica de la serie oscila

alrededor de un valor medio.

b. Promedios móviles o medias móviles dobles: Empleado con Series de

Tiempo que se supone presentan una tendencia lineal.

c. Suavizamiento exponencial simple (SES): Para modelar series que

presentan tendencia constante y componente aleatoria.

d. Suavizamiento exponencial doble (SED): Para modelar series que

presentan tendencia lineal y componente aleatoria.

e. Suavizamiento exponencial triple (SET): Para modelar series que

presentan tendencia cuadrática y componente aleatoria.

f. Winter aditivo y Winter multiplicativo: Para modelar series que presentan

tendencia, componente estacional aditiva o multiplicativa según el caso y

componente aleatoria.

g. Mínimos cuadrados descontados: para modelar series que presentan

tendencia, componente estacional aditiva o multiplicativa y componente

aleatoria. [1]

1.8. MODELOS AUTORREGRESIVOS

1.8.1. AR(1)

Veamos primero el más sencillo de los modelos autorregresivos, el AR(1), que tiene

un solo rezago y se escribe,

ttt axx ε+= − 1

O también, empleado el operador de rezago, como ( ) ttxaL ε=−1

Este modelo podría representar, por ejemplo, los desempleados en el mes como

una proporción fija a de aquellos desempleados en el mes t – i habiendo la otra

proporción 1 – a conseguido empleo, más un nuevo grupo ε que busca trabajo,

donde estas adiciones 01 >ε son ruido blanco.

( ) ( ) ( ) ( )11 ε+−= txadt

tdx

Page 25: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

En sentido estricto, no puede existir un proceso puramente aleatorio en tiempo

continuo, ( )tε , ya que los cambios abruptos en períodos infinitesimales de este

proceso requerirían cero inercia o energía infinita.

1.8.2. AR(P)

Este es quizás el modelo más popular para series de tiempo univariadas. Expresa

el valor actual de una serie estacionaria tx en función de su propio pasado, o sea

de sus rezagos ,1 ,, ptt xx −− K . Un autorregresivo tiene la siguiente expresión

algebráica.

cxaxaxax tptptt +=++++ −−− εK22111

Donde, si se quiere, se puede despejar tx , y donde c es una constante, p es el

número de rezagos, y tε es ruido blanco con media cero y varianza constante 2tσ .

En la literatura de series de tiempo, la secuencia { }tε se conoce indistintamente

como ruido, error, residuos, innovaciones o shocks.

La expresión del autorregresivo de orden p, omitiendo al constante sin pérdida de

generalidad, se puede escribir en términos del operador de rezago como

( ) tpp xLaLaLa ++++ K2211

( ) ttxLa ε==

( ) ( ) ( ) tptpttt xaxaxax εµµµµ +−++−+−=− −−− K2211

( ) tptpttpt xaxaxaaaax εµµµµ +++++−−−−= −−− KK 221121

( ) tptpttpt xaxaxaaaax εµ +++++−−−= −−− KK 2211211

tptpttt xaxaxacx ε+++++= −−− K2211

Al estimar el modelo se puede incluir una constante si la serie no está en

desviaciones, o se puede restar la media a todas las observaciones y no incluir la

constante. Algunos programas reportan estimativos para la media µ y la constante

c por separado con base en la expresión anterior. [3] [4]

Page 26: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

1.9. MODELOS DE PROMEDIO MÓVIL

1.9.1. MA(Q)

El segundo modelo dentro de la metodología Box-Jenkis es el de promedio móvil.

Este expresa la serie x, en función del presente y el pasado de una serie de ruido

blanco { }tε con media cero.

∑ −−−− =+++++=q

stsqtqtttt cx0

22110 εβεβεβεβεβ K

Donde los coeficientes β no tienen restricciones en cuanto a la estabilidad de la

serie porque una suma finita de términos con varianza finita, como lo son los tε , no

puede ser explosiva. Se ve fácilmente que 0=Ε tx porque 0=Ε tε .

Como se mencionó antes, en el contexto de series de tiempo, y especialmente en el

caso de los modelos de promedio móvil, la secuencia { }tε también se conoce como

innovaciones, en el sentido de ser información nueve que llega al sistema.

1.9.2. MA(1)

El modelo MA(q) más sencillo es el que tiene un solo rezago de tε . Este se denota

MA(l) y su expresión es

110 −+= tttx εβεβ

Es evidente que 0=Ε tx . La función de para un MA(l) se encuentra

multiplicando la ecuación anterior por la misma ecuación rezagada, y tomando

expectativas.

De manera que r(l) máximo será

( )21

111

1 12

1max ±=

+±=

+=

ββlr

Positivo o negativo dependiendo del signo de 1β . [3][4]

Page 27: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

1.10. MODELO AUTORREGRESIVO CON PROMEDIO MÓVIL

Modelos ARIMA Estos métodos modelan las Series de Tiempo estudiando la

estructura de la correlación que el tiempo, el índice, o la distancia induce en las

variables aleatorias que originan la serie.

El plan de trabajo de estos modelos es:

I. Por medio de transformaciones y/o diferencias se estabiliza la varianza, y se

eliminan la tendencia y la estacionalidad de la serie; obteniéndose así, una serie

estacionaria.

II. Para la serie estacionaria obtenida se identifica y se estima un modelo que

explica la estructura de correlación de la serie con el tiempo.

III. Al modelo hallado en II. Se aplican transformaciones inversas que permitan

reestablecer la variabilidad, la tendencia y la estacionalidad de la serie original.

Este modelo integrado se usa para pronosticar.

Para explicar la estructura de correlación entre las observaciones de una serie

estacionaria se consideran básicamente dos modelos:

tjtj

jt aZZ += −

∑01

π Modelo auto-regresivo (AR).

jtj

jt aZ −

∑+=01

ψµ Modelo de media móvil (MA).

Un hecho común a muchos fenómenos es que el comportamiento pasado provee

información sobre el comportamiento futuro; esto es especialmente cierto en series

de tiempo. El pasado de una serie suele incorporar, y de esa manera reemplazar, la

información de otras variables que pudieran intervenir en el proceso. La

especificación relativamente sencilla, pero efectiva, que resulta de expresar una

variable de función de su propio pasado es conocida como autorregresiva o, en

general, como modelaje Box-Jenkins. Las dos especificaciones principales de esta

Page 28: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

metodología son los modelos autorregresivos AR(p) y los modelos de promedio

móvil MA(q), que describiremos a continuación.

1.11. MODELO ARMA (P,Q)

La combinación de los dos modelos anteriores, el AR(p) y el MA(q), junto con el

hecho de que uno se puede convertir en el otro y viceversa, da origen al modelo

ARMA(p,q). Su ventaja es que, al combinar elementos de ambos, puede ofrecer

mayor parsimonia, esto es, usar menos términos. Su expresión será

qtqtttptpttt xaxaxax −−−−−− ++++++++= εβεβεβεβ KK 221102211

o también

∑ ∑= =

−− +=p

j

q

j

jtjjtjt xax1 0

εβ

ttt kzaz += − 22 [3]

1.11. CRITERIOS DE EVALUACIÓN DE PREDICCIONES

Las medidas de precisión del pronóstico se usan para determinar que tan eficaz es

un pronóstico a través del cálculo de su precisión con respecto a los valores reales,

es decir, buscan obtener una medida de que tan lejos se encuentran los valores

pronosticados de los obtenidos en la realidad. En las siguientes medidas del error,

Xt es el valor de la serie de tiempo en el momento t y Pt es el pronóstico para ese

mismo momento. [11]

Estos son algunos de los indicadores comúnmente utilizados para evaluar

predicciones.

Error

Page 29: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

Error Medio

Error Medio Absoluto

Suma de Cuadrados del Error

Suma de Cuadrados del Error Media o Error Cuadrático Medio

Desviación Estándar del Error

Nótese que Pt no es la media de las estimaciones o valores pronosticados como se

podría pensar. Esto significa que la desviación no se mide respecto de la media,

sino que se promedian las desviaciones de las estimaciones respecto a los valores

reales.

Page 30: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

Error Porcentual

Error Porcentual Medio

Error Porcentual Medio Absoluto

Error Porcentual Medio Cuadrático

1.12. OTROS MÉTODOS NO CONVENCIONALES

En el afán del hombre por disminuir la incertidumbre y aumentar el conocimiento

sobre el comportamiento de las cosas que parecen aleatorias ha desarrollado otros

métodos no convencionales para la predicción y la disminución de esta

incertidumbre. Dichos métodos presentan un nivel mucho más alto de complejidad,

en su mayoría surgieron de la imitación de procesos de la naturaleza. Algunos de

estos métodos no convencionales de predicción son: Redes neuronales Artificiales,

Support vector machine, La Programación genética y filtro kalman.

Page 31: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

Redes neuronales Artificiales (RNA) que son dispositivos o software programado de

manera tal que funcionen como las neuronas biológicas de los seres vivos. (Estas

sus características, usos y funcionamiento serán profundizados en el siguiente

capitulo).

Maquina de soporte vectorial del ingles Support vector machine La SVM fue ideada

originalmente para la resolución de problemas de clasificación binarios en los que

las clases eran linealmente separables (Vapnik y Lerner, 1965). Por este motivo se

conocía también como «hiperplano3 óptimo de decisión» ya que la solución

proporcionada es aquella en la que se clasifican correctamente todas las muestras

disponibles, colocando el hiperplano de separación lo más lejos posible de todas

ellas. Las muestras más próximas al hiperplano óptimo de separación son

conocidas como muestras críticas o «vectores soporte», que es lo que da nombre a

la SVM. [10]

La Programación genética en cuyos algoritmos hace evolucionar una población

sometiéndola a acciones aleatorias semejantes a las que actúan en la evolución

biológica (mutaciones y recombinación genética), así como también a una selección

de acuerdo con algún criterio, en función del cual se decide cuáles son los

individuos más adaptados, que sobreviven, y cuáles los menos aptos, que son

descartados. ha tenido gran parte de su utilización para resolver este tipo de

problemas de predicción de eventos.

Filtro kalman (kalman filter) Algoritmo recursivo que se utiliza en ARIMA para

generar valores ajustados y residuos para una serie.

3 Las variedades afines de dimensión 0 en son los subconjuntos de reducidos a un punto. Las de dimensión 1 se llaman RECTAS. Las de dimensión 2 se llaman PLANOS. Una variedad afín se llama HIPERPLANO si su dirección es un subespacio maximal en , es decir, y el único subespacio de que contiene a propiamente es entero.

Page 32: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

1.13. APLICACIONES DE LAS SERIES DE TIEMPO

El estudio de las Series de Tiempo tiene como objetivo central desarrollar modelos

estadísticos que expliquen el comportamiento de una variable aleatoria que varia

con el tiempo, o con la distancia, o según un índice; y que permitan estimar

pronósticos futuros de dicha variable aleatoria.

Por ello, el manejo de las Series de Tiempo es de vital importancia en una

planeación y en mareas del conocimiento donde evaluar el efecto de una política

pasada sobre una variable, y/o conocer predicciones de sus valores futuros,

aportan criterios que disminuyen el riesgo en la toma de decisiones o en la

implementación de políticas futuras.

En el contexto de las Series de Tiempo, pronosticar significa predecir valores

futuros de una variable aleatoria basándose en el estudio de la estructura definida

por las observaciones pasadas de la variable, o en el análisis de observaciones

pasadas de variables que explican su variación, suponiendo que la estructura del

pasado se conserva en el futuro.

La existencia del intervalo de tiempo comprendido entre presente y el momento en

el cual ocurrirá el suceso o evento de interés, llamado tiempote previsión oleading

time, origina la necesidad de conocer un pronostico del evento; para así, poder

planear y ejecutar acciones que contrarresten o controlen los efectos que dicho

suceso producirá. La longitud de este intervalo de tiempo da origen a la planeación;

si no existiera o fuera muy pequeño, se estaría enfrentando a situaciones concretas

que deben resolverse mediante acciones inmediatas, más no planearse.

En consecuencia, cuando el tiempo de previsión es apropiado y el resultado final

del evento de interés esta condicionado por factores identificables, la planeación

adquiere sentido y el conocimiento del pronostico del evento permite tomar

decisiones sobre acciones a ejecutar o a controlar para que los resultados finales

estén acordes con la política general de la empresa.

Page 33: 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN · 1. SERIES DE TIEMPO 1.1. INTRODUCCIÓN Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes para el futuro

Es importante anotar que existen factores o eventos que influyen en la calidad de un

pronóstico. Estos factores pueden ser internos o controlables y externos o

incontables. [4]