1. series de tiempo 1.1. introducciÓn · 1. series de tiempo 1.1. introducciÓn toda institución,...
TRANSCRIPT
1. SERIES DE TIEMPO
1.1. INTRODUCCIÓN
Toda institución, ya sea la familia, la empresa o el gobierno, tiene que hacer planes
para el futuro si ha de sobrevivir y progresar. Hoy en día diversas instituciones
requieren conocer el comportamiento futuro de ciertos fenómenos con el fin de
planificar, prever o prevenir.
La planificación racional exige prever los sucesos del futuro que probablemente
vayan a ocurrir. La previsión, a su vez, se suele basar en lo que ha ocurrido en el
pasado. Se tiene pues un nuevo tipo de inferencia estadística que se hace acerca
del futuro de alguna variable o compuesto de variables basándose en sucesos
pasados. La técnica más importante para hacer inferencias sobre el futuro con base
en lo ocurrido en el pasado, es el análisis de Series de Tiempo.
Son innumerables las aplicaciones que se pueden citar, en distintas áreas del
conocimiento, tales como, en economía, física, geofísica, química, electricidad, en
demografía, en marketing, en telecomunicaciones, en transporte, etc.
Series de Tiempo
Ejemplos
1. Series económicas:
- Precios de un artículo - Tasas de desempleo - Tasa de inflación - Índice de precios, etc.
2. Series Físicas:
- Meteorología - Cantidad de agua caída - Temperatura máxima diaria - Velocidad del viento (energía eólica) - Energía solar, etc.
3. Geofísica:
- Series sismologías
4. Series demográficas:
- Tasas de crecimiento de la población - Tasa de natalidad, mortalidad - Resultados de censos poblacionales
5. Series de marketing:
- Series de demanda, gastos, ofertas
6. Series de telecomunicación:
- Análisis de señales
7. Series de transporte:
- Series de tráfico
Uno de los problemas que intenta resolver las Series de Tiempo es el de predicción.
Esto es dado una serie {x(t1),...,x(tn)} nuestros objetivos de interés son describir el
comportamiento de la serie, investigar el mecanismo generador de la serie temporal,
buscar posibles patrones temporales que permitan sobrepasar la incertidumbre del
futuro.
En adelante se estudiará como construir un modelo para explicar la estructura y
prever la evolución de una variable que observamos a lo largo del tiempo. La
variables de interés puede ser macroeconómica (índice de precios al consumo,
demanda de electricidad, series de exportaciones o importaciones, etc.),
microeconómica (ventas de una empresa, existencias en un almacén, gastos en
publicidad de un sector), física (velocidad del viento en una central eólica,
temperatura en un proceso, caudal de un río, concentración en la atmósfera de un
agente contaminante), o social (número de nacimientos, matrimonios, defunciones,
o votos a un partido político). [1]
1.2. DEFINICIÓN
En muchas áreas del conocimiento las observaciones de interés son obtenidas en
instantes sucesivos del tiempo, por ejemplo, a cada hora, durante 24 horas,
mensuales, trimestrales, semestrales o bien registradas por algún equipo en forma
continua.
Se llama Serie de Tiempo a un conjunto de mediciones de cierto fenómeno o
experimento registradas secuencialmente en el tiempo. Estas observaciones serán
denotadas por {x(t1), x(t2), ..., x(tn)} = {x(t) : t ∈ T ⊆ R} con x(ti) el valor de la variable
x en el instante ti. Si T = Z se dice que la serie de tiempo es discreta y si T = R se
dice que la serie de tiempo es continua. Cuando ti+1 - ti = k para todo i = 1,...,n-1, se
dice que la serie es equiespaciada, en caso contrario será no equiespaciada.
En adelante se trabajará con Series de Tiempo discretas, equiespaciadas en cuyo
caso se asumirá sin perdida de generalidad que: {x(t1), x(t2), ..., x(tn)}= {x(1), x(2),
..., x(n)}. [2]
1.3. OBJETIVO DEL ANÁLISIS DE UNA SERIE DE TIEMPO
Los principales conceptos y características que se tienen en cuenta para el análisis
de una serie de tiempo son:
1. Obtener modelos estadísticos que describen la estructura pasada de las
observaciones que generan la serie; y/o estudiar modelos que explican la
variación de una serie en términos de series (explicativas) conocidas.
2. Suponer que la estructura pasada de la serie de interés o de las series
explicativas se conserva y bajo este supuesto, pronosticar valores futuros de
la serie bajo estudio.
3. Analizar la significancia de los efectos que políticas o intervenciones
pasadas causaron en la estructura de la serie.
4. Simular valores futuros de la serie, bajo condiciones o restricciones
definidas por políticas o criterios nuevos, para así supervisar y controlar los
cambios que se producen en la serie. [4]
Para una mayor comprensión de la estructura, el comportamiento y el análisis de
una serie de tiempo se debe tener en cuenta como primera medida conocer y
entender algunos términos que se describirán a continuación.
1.4. TERMINOS RELACIONADOS AL ANÁLISIS DE UNA SERIE DE TIEMPO
1.4.1. VARIABLE ALEATORIA
En estadística y teoría de probabilidad una variable aleatoria se define como el
resultado numérico de un experimento aleatorio. Matemáticamente, es una
aplicación que da un valor numérico a cada suceso en el espacio O de los
resultados posibles del experimento.
Se distinguen entre
• variables aleatorias discretas
• variables aleatorias continuas.
Dado una variable aleatoria X se pueden calcular estimadores estadísticos diferentes
como la media (Media aritmética, Media geométrica, Media ponderada) y valor
esperado y varianza de la distribución de probabilidad de X.
Para las variables aleatorias continuas
• El valor esperado E[X] se calcula así
E[X] = integral {xf(x)dx}
• La varianza xV (X) es
xV [X] = E[X2] - (E[X])2
Donde
E(X2) = integral {x2f(x)dx}
[6] [7]
1.4.2. PROCESOS ESTOCÁSTICOS Un proceso estocástico es una sucesión de variables aleatorias }{ Ζ⊆∈ TtZt / .
El subíndice que indica como varia t es el índice (puede variar en un subconjunto de
los reales, generando así procesos continuos. Aquí solo se consideran procesos
estocásticos discretos, cuando el índice varía en los enteros.
La relación de un proceso estocástico con una serie de tiempo radica en que una
Serie de Tiempo es una sucesión tz , generada al obtener una y solo una
observación de cada una de las variables aleatorias que definen un proceso
estocástico. Las observaciones son tomadas a intervalos de tiempo o distancia
iguales, según lo indica el índice t que genera la sucesión. En este sentido, la
serie es una realización de un proceso estocástico.
Luego entonces un pronostico es la predicción de un valor o una variable
aleatoria, l+nZ , en un proceso estocástico. n es el origen del pronostico y l la
posición relativa de la variable a pronosticar con respecto a n.
Cuando se habla de la actualización de un pronóstico se refiere a re-estimar los
parámetros del modelo de predicción, incluyendo las nuevas observaciones, y con
ellas pronosticar los valores futuros estipulados en el horizonte del pronóstico. [3]
1.4.3. OPERADORES
1.4.3.1. OPERADOR DE REZAGO
En el análisis de series de tiempo es una herramienta útil el operador de rezago,
denotado L . Que sirve para expresar ecuaciones en diferencia, que es la forma
típica de las series de tiempo y para encontrar su solución particular (estado
estable). Se define como:
ττ
−= txxL 1
Donde τ es el rezago (positivo o negativo) que se desea introducir en la variable
tx por ejemplo:
33
−= tt xxL
22
+− = tt xxL
cLc =
Donde c es una constante. La propiedad más útil del operador de rezago es:
( ) ( )[ ].......11
1 32 ++++= LLLL
αααα
para 1<α [3]
1.4.3.1. OPERADOR DE DIFERENCIA
Otro operador conveniente y además muy útil para expresar series de tiempo es el
operador de diferencia tx∆ definido como:
tttt xLxxx )1(1 −=−=∆ −
El cual consiste en tomar una observación y restarle la observación inmediatamente
anterior. También puede aplicarse de manera repetitiva. Por ejemplo
)()( 21112
−−−− −−−=−∆=∆∆=∆ tttttttt xxxxxxxx
21211 2 −−−−− +−=+−−= ttttttt xxxxxxx [3]
1.4.4. MEDIA
La media aritmética o promedio de una cantidad finita de números es igual a la
suma de todos ellos dividida entre el número de sumandos.
Así, dados los números a1,a2, ... , an, la media aritmética será igual a:
Por ejemplo, la media aritmética de 8, 5 y -1 es igual a (8 + 5 + (-1)) / 3 = 4.
El símbolo µ (mu) es usado para la media aritmética de una población. Se usa X,
con una barra horizontal sobre el símbolo para medias de una muestra: . [6]
1.4.5. VARIANZA
En teoría de probabilidad y estadística la varianza es un estimador de la divergencia
de una variable aleatoria X de su valor esperado1 E[X]. También se utilizan la
desviación estándar, la raíz de la varianza.
La varianza V[X] de una variable aleatoria X para el caso discreto se define como
1 El valor esperado o esperanza matemática de una variable aleatoria es la suma de la probabilidad de cada suceso multiplicado por su valor.
También se expresa como la diferencia entre el momento de orden 2 y el cuadrado
del valor esperado:
[ ] [ ]xExExV −= 2)( [6]
1.4.6. COVARIANZA
En teoría de probabilidad y estadística la covarianza es un estimador de la
dependencia lineal de dos variables aleatorias.
La covarianza C(X,Y) de dos variable aleatorias X y Y se define como
Para dos variables aleatorias independientes2 la covarianza es cero. La covarianza
de una variable aleatoria consigo misma es su varianza. [6]
1.4.7. FUNCIÓN DE CORRELACIÓN
La correlación entre dos variables aleatorias Y y Z mide el grado al cual tienden a
moverse conjuntamente, es una medición sobre el co-movimiento que manifiestan.
kY =
−
−
z
z
y
y ZyE
σµ
σ
µ, [9]
2 Dos variables aleatorias son independientes si su probabilidad conjunta es igual al producto de las marginales
1.4.8. FUNCIONES DE AUTOCOVARIANZA
Sea { }Ζ⊂Ι∈tZt / proceso estacionario en covarianza. Como la covarianza entre
dos variables de un proceso estacionario(explicado con detalle más adelante en la
sección de estacionariedad) solo depende de la distancia que los separa, la
siguiente expresión define la función de autocovarianza.
( ) ( )[ ] .,2,1,0,,, L=−== ++ kZEZZCY ktkttxyk µ
Si ( )kttxy ZZC +, representa la covarianza entre la variable tZ y la variable futura
⋅+ ktZ . En cambio, ( )tktxy ZZC ,+ representa la covarianza entre la variable ktZ + y la
variable pasada tZ . Estas dos covarianzas son iguales por propiedades de la
covarianza y porque la distancia entre las variables que las definen es k. Luego si
se considera en t un sentido de desplazamiento, la definición puede generalizarse
para k en los enteros, así, cuando k es positivo, kY mide la covarianza de tZ con
una variable futura, y cuando k es negativo mide la covarianza con respecto a una
variable pasada. Esta generalización queda consignada en la siguiente expresión.
:kY [ ] ( )( )[ ]ℜ→Ζ
−−==Υ→ ++ µµ kttkttk ZZEZZk ,cov Z: los enteros R: los reales [10]
1.4.9. FUNCIÓN DE AUTOCORRELACIÓN
La correlación es la covarianza con los datos centrados y ajustados por la
dispersión. Por lo que ambos conceptos miden el grado de enlace lineal entre Y y Z.
Interesa aplicar esta medida para una variable con su pasado, se estudia el
comportamiento de las observaciones con su historia, esto mide la tendencia de la
serie a comportarse como antes lo hizo, para llevarlo a cabo se toma el par ktt ZZ −,
y se fija en su enlace lineal a k periodos de distancia. Como el valor de k es variable
llegamos a una correspondencia; a cada k le asocia el enlace que presenta el par
( ktt ZZ −, ).
La función de autocorrelación es definida como:
( )( )
( )K,2,1,0,ˆ
ˆ
1
2
1 =−
−−==
∑
∑
=
−
=
+
kZZ
ZZZZ
Y
YP n
t
t
kn
t
ktt
o
kk
Para procesos estacionarios de segundo orden la media es constante y por lo tanto
YZEZE ktt == + ][][ y la varianza también es constante, esto es:
)()(2ktxtx ZVZV +==σ para todo valor de k.
El símbolo Y(k) denota a la función de autocorrelación, ya que su labor es medir la
correlación de la serie consigo misma a distancia k, esta función no depende del
punto en el tiempo de referencia solo depende de la distancia que separa a las
observaciones, (no afecta t pero si influye k) ya que si se cambia de t a s queda que:
)(kρ = =Γ + ),( ktt ZZ
−
− −
σµ
σµ kss zz
E ,
La autocorrelación tiene tres propiedades importantes:
A) 1)( =kρ
La autocorrelación de una variable a tiempo presente es igual a uno ya que el grado
de asociación es perfecto.
B) 1)(1 ≤≤− kρ
Indica el grado de tendencia a comportarse similarmente ),( ktt ZZ + en el caso de
que sea una autocorrelación positiva, 1)(0 ≤≤ kρ , O a moverse en la dirección
opuesta, bajo autocorrelación negativa 0)(1 ≤≤− kρ .
C) )()( kk −= ρρ
Indica que con tabular los valores positivos de k se obtiene toda la información que
es requerida.
Esta última relación se obtiene de observar las igualdades:
)(),(),()( kZZZZk tktktt −=Γ=Γ= −+ ρρ
Su gráfica se obtiene poniendo en el eje horizontal los valores de k, mientras que en
el eje vertical la autocorrelación. [4]
1.4.10. FUNCIÓN DE AUTOCORRELACIÓN PARCIAL
Se puede decir que el último parámetro de la autoregresión (la variable contra su
pasado) nos da el valor de la autocorrelación parcial de orden k.
La autocorrelación parcial de orden k denotada por kφ , mide la correlación que
existe entre tZ y ktZ + después de que ha sido removida la dependencia lineal de las
componentes intermedias, 12321 ,,.....,,, −+−++++ ktktttt ZZZZZ o sea, mide la
contribución que se logra al agregar tZ para explicar ktZ + .
Se define como la correlación condicional:
],,....,,,|,[ 12321 −+−+++++Γ= ktkttttkttk ZZZZZZZP
Donde tZ es una serie de media cero E[ tZ ] = 0. Un resultado interesante de la
teoría es hacer ver que es posible obtener la autocorrelación parcial por medio de
una regresión como sigue:
kttkktkkktkktkktkkt ZZZZZZ +−−−+−+−++ ++++++= εφφφφφ 11332211 .....
Ya que kkkP φ= es la autocorrelación parcial.
El término kP se obtienen de la última coordenada de la regresión con k términos sin
constante, (los datos ya han sido centrados). Esta será la ruta a seguir en adelante
para estimar la autocorrelación parcial siempre se tomara el último coeficiente en
una autoregresión. [4]
1.4.11. ESTACIONARIEDAD
Un proceso estocástico ( )Ζ⊂Ι∈tZt / es estacionario en covarianza o débilmente
estacionario de orden 2 si:
i. Para todo Ι∈t , la media y varianza existen y son constantes
[ ] [ ]
== 2, ztyt ZVarZE σµ ;
ii. Si para cualquier ( )jZZCovji ,,, 1Ι∈ depende únicamente del número de
períodos que separa las variables, es decir, de ij − , que se denotará k:
número de rezagos.
Sea { }nZZZZ L,,, 321 una serie de tiempo estacionaria. Las siguientes expresiones
definen estimadores de la función de autocovarianza y autocorrelación
respectivamente:
( )( ) K,2,1,0,1ˆ1
=−−= +
−
=∑ kZZZZ
nY kt
kn
t
tk
( )( )
( )K,2,1,0,
ˆˆˆ
1
2
1 =−
−−==
∑
∑
=
−
=
+
kZZ
ZZZZ
YYP
n
t
t
kn
t
ktt
o
kk [3]
Un proceso es estacionario de forma estricta cuando los distintos valores
estadísticos no dependen del instante en que se calculan:
)]([)]([ 21 txEtxE ==
)()( ktZtZ ZfZfktt ++
=
1.4.12. ERGODICIDAD
Sea tZ un proceso estocástico estacionario en covarianza.
i. Se dice que el proceso tZ es ergódico con respecto a la media si satisface la
siguiente condición:
∑−
=
=∞→
kn
t
tZnn 1
1limµ
ii. Se dice que el proceso tZ es ergódico con respecto a la autocovarianza si
satisface que:
( )( ) k
kn
t
kttk YZZZZnn
Yn
=−−∞→
=∞→ ∑
−
=
+
1
1limˆlim k=0,1,2,…
Note que si el proceso es ergódico con respecto a la autocovarianza, lo es con
respecto a la varianza y a la autocorrelación pues 0Y y kP están definidos.
El proceso es ergódico si estos valores coinciden con los de cualquier registro:
)()]([ ji xmtxE == [3]
1.4.13. CORRELOGRAMA
Como la varianza de la media muestral tiende a cero, para muestras grandes puede
ser ignorado este termino, con lo cual se ve que el primer estimador tiene un mayor
sesgo que el segundo, note que si desea mantener acotado este sesgo se debe
tomar k< T/4
En resumen para la práctica se utiliza la función de autocorrelación muestral a partir
de una muestra de tamaño T, con esta se calculan las covarianzas muéstrales.
La suma va desde 1 hasta T-k, Y se pasa a la función de autocorrelación muestral:
Se debe recordar que se buscan "picos" en la función de autocorrelación muestral,
ya que estos exhiben una alta correlación entre observaciones k periodos aparte; se
define como pico un valor de la autocorrelación que esta afuera de esta banda.
La gráfica de la función de autocorrelación muestral se le llama el correlograma, en
esta a cada valor de k le asocia la correlación revelada en la muestra entre la
variable y su pasado a distancia k. En otras palabras los picos revelan un co-
movimiento significativo.
Interesa mirar los picos, donde la autocorrelación muestral se sale de la banda,
cuando uno mira el correlograma.
En el dibujo se tienen picos o sea valores elevados para k = 1, 2, 3 y 5, 6 esto
significa que las correlaciones entre
)(),(),(),(),(),( 654321 −−−−−− tttttttttttt yZZyZZyZZyZZyZZyZZ muestran
significativas, mientras que el valor de k = 4, 7, 8, 9,… tienen una correlación baja.
Para localizar los picos en la función de autocorrelación uno puede tomar las
primeras 20 autocorrelaciones.
Note que la función de autocorrelación muestral es también una función simétrica
alrededor del origen:
Ya que la autocovarianza muestral es simétrica:
Tiene una consecuencia práctica importante en lugar de perder las ultimas k
observaciones, tomar los datos desde t = 1, hasta T - k. Es mejor se gastan las
primeras k observaciones en los retrasos y se toman los datos desde t = k + 1, hasta
T. [8]
1.4.14. RUIDO BLANCO
Un proceso estocástico { }K,2,1/ =tZt , es un Ruido Blanco si la sucesión de
variables aleatorias que lo forman provienen de una misma distribución,
generalmente normal, y cumple:
i. [ ] 0=tZE
ii. [ ] 2σ=tZVar
iii. [ ] [ ] 0, === ++ kttkttk ZZEZZY para todo 0≠k
Conclusión: Los errores de un modelo de regresión deben ser ruido blanco. En
series de tiempo los errores se llaman ruido blanco.
Sea tZ un proceso de ruido blanco. Luego reemplazando teniendo en cuenta la
definición de ruido blanco se obtiene: [4]
( )[ ] [ ]ktttk ZZEZEY +=−= µ luego;
0=k [ ] [ ] 2σ=== ttto ZVarZZEY definición, ii
0≠k [ ] 0== + kttk ZZEY definición, iii
Función de autocovarianza teórica
Ruido Blanco
≠
Ζ=
=
00
02
ksi
kksi
Yk εσ
Gráfica G1- 1a
Función de autocovarianzas teórica
0
0,25
0,5
0,75
1
0 2 4 6 8 10 12
k (rezago)
FAO
Ruido Blanco
FAC teórica
Ruido blanco
≠
Ζ=
=
00
01
ksi
kksi
Pk ε
Gráfica G1-1b
Función de autocovarianzas teórica
0
1
2
3
4
0 2 4 6 8 10 12
k (rezago)
FOV
Ruido Blanco devarianza 4
1.5. COMPONENTES DE UNA SERIE DE TIEMPO
Una Serie de Tiempo puede tener las siguientes componentes:
1. Tendencia: Esta componente representa la trayectoria suavizada que define la
serie en el rango de variación del índice y se halla observando la forma funcional
de la grafica de la serie )( tvszt a lo largo del tiempo. La tendencia puede ser:
constante, línea, cuadrática, exponencial, etc.…
2. Componente Estacional: Esta componente se presenta cuando la serie tiene
patrones estaciónales que se repiten con una frecuencia constante, produciendo
en su grafica un efecto periódico.
Los patrones estaciónales se presentan por fenómenos climáticos, recurrencia
en los pagos, costumbres y/o agrupamiento, afectan las observaciones que
generan la serie.
3. Componente Aleatoria: Esta componente se representa los cambios que sufre la
serie ocasionados por fenómenos externos no controlables.
4. Componente Cíclica: Esta componente se presenta en series que son afectadas
por fenómenos físicos o económicos que ocurren con una periodicidad variable.
[1]
1.6. ANÁLISIS DESCRIPTIVO DE UNA SERIE DE TIEMPO
El análisis descriptivo de una serie comprende: la estimación de los estadísticos básicos de la serie y el análisis en el grafico de tVszt (o el índice) de los
siguientes aspectos:
a) Detectar Outlier: se refiere a puntos de la serie que se escapan de lo normal.
Un outliers es una observación de la serie que corresponde a un comportamiento
anormal del fenómeno (sin incidencias futuras) o a un error de medición.
Se debe determinar desde fuera si un punto dado es outlier o no. Si se concluye
que lo es, se debe omitir o reemplazar por otro valor antes de analizar la serie.
Por ejemplo, en un estudio de la producción diaria en una fabrica se presentó la
siguiente situación:
Figura 1.1
Los dos puntos enmarcados en un círculo parecen corresponder a un
comportamiento anormal de la serie. Al investigar estos dos puntos se vio que
correspondían a dos días de paro, lo que naturalmente afectó la producción en esos
días. El problema fue solucionado eliminando las observaciones e interpolando.
b) Permite detectar tendencia: la tendencia representa el comportamiento
predominante de la serie. Esta puede ser definida vagamente como el cambio de la
media a lo largo de un periodo.
Figura 1.2
c) Variación estacional: la variación estacional representa un movimiento periódico
de la serie de tiempo. La duración de la unidad del periodo es generalmente menor
que un año. Puede ser un trimestre, un mes o un día, etc.
Matemáticamente, podemos decir que la serie representa variación estacional si
existe un número s tal que x(t) = x(t + k ⋅s).
Las principales fuerzas que causan una variación estacional son las condiciones del
tiempo, como por ejemplo:
1) en invierno las ventas de helado
2) en verano la venta de lana
3) exportación de fruta en marzo.
Todos estos fenómenos presentan un comportamiento estacional (anual, semanal,
etc.)
Figura 1.3
d) Variaciones irregulares (componente aleatoria): los movimientos irregulares
(al azar) representan todos los tipos de movimientos de una serie de tiempo que no
sea tendencia, variaciones estacionales y fluctuaciones cíclicas. [1]
1.7. MÉTODOS DE PRONÓSTICO
En un pronóstico siempre está latente la incertidumbre causada por el futuro, que
se refleja en un incremento en el error de predicción. Por este motivo, otro de los
objetivos del estudio de las Series de Tiempo es buscar métodos que reduzcan al
máximo el error de predicción.
Se concluye, entonces que un sistema de pronósticos además de predecir un valor
futuro de una variable aleatoria debe estimar su error e idealmente su distribución,
lo cual permitirá cuantificar el riesgo en la toma de las decisiones.
1.7.1. CONSIDERACIONES PRELIMINARES
La siguiente información debe estar claramente definida antes de empezar a
estudiar las diferentes alternativas que brindan los métodos utilizados para
pronosticar una Serie de Tiempo.
1. Las variables aleatorias a pronosticar, completamente definidas. En este
punto es bueno notar que hay casos en los cuales es más útil pronosticar
los cambios que sufre una variable en su diferencia, que su valor, como
ocurre en procesos de control, donde se predice cuando el sistemas esta
funcionando mal.
2. Los siguientes tiempos deben especificarse y confrontarse con la
información disponible.
a) Periodo de la serie (o de pronóstico). Es la unidad de tiempo (de
espacio, o del índice) que indica la frecuencia de lectura de las
observaciones que generan la serie. Por ejemplo si se desea
pronosticar la demanda semanal de un artículo, el periodo de la serie
es una semana y para estimar las ventas futuras se requiere conocer
las ventas semanales del artículo en algunas semanas anteriores.
b) Horizonte del pronostico (H). Es el número de periodos que debe
cubrir el sistema de pronósticos cada vez que se utiliza, e indica
cuanto se penetra en el futuro; su valor depende de la naturaleza de
lo que se planea.
c) Intervalo de pronostico (IP). Es la frecuencia con la cual se calculan
o actualizan los pronósticos existentes.
3. Datos históricos además de las observaciones pasadas del proceso o de la
variable de interés, deben precisarse, cuando es posible, los puntos y/o
los intervalos de tiempo o del índice en los cuales la evolución de la variable
fue afectada por factores externos o internos, que se cree modificaron
algunas observaciones o la estructura de correlación de la serie, para
cuantificar sus efectos o simplemente para eliminar perturbaciones en los
pronósticos.
4. La precisión requerida de los pronósticos.
5. Recursos disponibles para implementar el sistema de pronósticos.
Los métodos de pronóstico pueden clasificarse en dos grande bloques:
• Métodos cualitativos o subjetivos
• Métodos cuantitativos
1.7.2. MÉTODOS CUALITATIVOS O SUBJETIVOS
Los métodos cualitativos son procedimientos que estiman los pronósticos
basándose en juicios de expertos, se utilizan la experiencia, intuición, habilidad y
sentido común de personas entrenadas para enfrentar este tipo de problemas. Por
ende, las técnicas estadísticas no juegan papel importante en su implementación.
Los Exploratorios se caracterizan porque partiendo del pasado y del presente se
desplazan hacia el futuro heurísticamente, buscando y analizando las alternativas
factibles.
Los Normativos, en cambio, parten del futuro estableciéndolos objetivos que se
pretenden alcanzar y luego se devuelven hacia el presente para determinar si con
los recursos y tecnología existente pueden alcanzarse los fines inicialmente
planteados.
Estos métodos se utilizan para pronosticar productos nuevos del mercado o
procesos de los cuales se tiene poca información pasad, por que su
implementación no requiere conocer datos pasados de la serie.
1.7.3. MÉTODOS CUANTITATIVOS
Los métodos cuantitativos son basados en modelos estadísticos o matemáticos y se
caracterizan por que una vez elegido un modelo o una técnica de pronóstico, es
posible obtener nuevos pronósticos automáticamente. Se clasifican en modelos uní
variados y causales.
Los modelos uní variados se basan únicamente en las observaciones pasadas de la
serie para predecir valores futuros. Los métodos de descomposición, los de
suavizamiento y los modelos (ARIMA) en el dominio del tiempo o el dominio de la
frecuencia, son considerados métodos uní variados.
Los modelos causales estiman las predicciones futuras de un proceso determinando
la relación existente entre la variable que define la serie y otras variables (otras
series explicativas) que explican su variación. En algunos de estos modelos, para
pronosticar valores futuros de la serie es necesario pronosticar primero las
variables o series explicativa. Los modelos de regresión, de funciones de
transferencia (regresión dinámica) y otros modelos econométricos, son
considerados modelos causales.
1.7.4. MÉTODOS DE DESCOMPOSICIÓN
Estos métodos para pronosticar valores futuros de una Serie de Tiempo, primero
estiman los componentes d la serie (los parámetros que definen la tendencia y cada
uno de los términos que caracterizan una estación completa) con las observaciones
conocidas, y luego extrapolan o proyectan estas componentes a tiempos futuros.
Además estiman la varianza de la componente aleatoria para calcular los intervalos
de predicción. Su implementación requiere de un buen número de observaciones.
Algunos de estos métodos evalúan la componente cíclica de la serie. Entre estos
métodos de descomposición se encuentran x-11 y el x-11 ARIMA, construidos y
utilizados por la oficina de censos de USA.
1.7.5. MÉTODOS DE SUAVIZAMIENTO
Estos métodos estiman valores futuros de una serie basándose en la forma
funcional, que el modelador supone, describen las observaciones conocidas de la
serie, y la eliminación de la componente aleatoria mediante ponderaciones que
actuando sobre la las observaciones suavizan la trayectoria (forma funcional) de la
serie, alterada por la acción de la componente aleatoria. Las ponderaciones
pueden ser iguales para todas las observaciones o pueden depender de la distancia
de la observación al origen del pronóstico, según el método de suavizamiento
empleado.
En cada actualización de los pronósticos se estiman los paramentos requeridos por
la forma funcional (tendencia y estacionalidad) y con ellos se evalúa la función para
los valores futuros de t que indica el horizonte del pronóstico. Por esta razón
algunos autores los denominan métodos localmente constantes.
Entre los métodos de suavizamiento se encuentran:
a. Promedios móviles o medias móviles simples: Utilizado con Series de
Tiempo cuya forma funcional es constante, la grafica de la serie oscila
alrededor de un valor medio.
b. Promedios móviles o medias móviles dobles: Empleado con Series de
Tiempo que se supone presentan una tendencia lineal.
c. Suavizamiento exponencial simple (SES): Para modelar series que
presentan tendencia constante y componente aleatoria.
d. Suavizamiento exponencial doble (SED): Para modelar series que
presentan tendencia lineal y componente aleatoria.
e. Suavizamiento exponencial triple (SET): Para modelar series que
presentan tendencia cuadrática y componente aleatoria.
f. Winter aditivo y Winter multiplicativo: Para modelar series que presentan
tendencia, componente estacional aditiva o multiplicativa según el caso y
componente aleatoria.
g. Mínimos cuadrados descontados: para modelar series que presentan
tendencia, componente estacional aditiva o multiplicativa y componente
aleatoria. [1]
1.8. MODELOS AUTORREGRESIVOS
1.8.1. AR(1)
Veamos primero el más sencillo de los modelos autorregresivos, el AR(1), que tiene
un solo rezago y se escribe,
ttt axx ε+= − 1
O también, empleado el operador de rezago, como ( ) ttxaL ε=−1
Este modelo podría representar, por ejemplo, los desempleados en el mes como
una proporción fija a de aquellos desempleados en el mes t – i habiendo la otra
proporción 1 – a conseguido empleo, más un nuevo grupo ε que busca trabajo,
donde estas adiciones 01 >ε son ruido blanco.
( ) ( ) ( ) ( )11 ε+−= txadt
tdx
En sentido estricto, no puede existir un proceso puramente aleatorio en tiempo
continuo, ( )tε , ya que los cambios abruptos en períodos infinitesimales de este
proceso requerirían cero inercia o energía infinita.
1.8.2. AR(P)
Este es quizás el modelo más popular para series de tiempo univariadas. Expresa
el valor actual de una serie estacionaria tx en función de su propio pasado, o sea
de sus rezagos ,1 ,, ptt xx −− K . Un autorregresivo tiene la siguiente expresión
algebráica.
cxaxaxax tptptt +=++++ −−− εK22111
Donde, si se quiere, se puede despejar tx , y donde c es una constante, p es el
número de rezagos, y tε es ruido blanco con media cero y varianza constante 2tσ .
En la literatura de series de tiempo, la secuencia { }tε se conoce indistintamente
como ruido, error, residuos, innovaciones o shocks.
La expresión del autorregresivo de orden p, omitiendo al constante sin pérdida de
generalidad, se puede escribir en términos del operador de rezago como
( ) tpp xLaLaLa ++++ K2211
( ) ttxLa ε==
( ) ( ) ( ) tptpttt xaxaxax εµµµµ +−++−+−=− −−− K2211
( ) tptpttpt xaxaxaaaax εµµµµ +++++−−−−= −−− KK 221121
( ) tptpttpt xaxaxaaaax εµ +++++−−−= −−− KK 2211211
tptpttt xaxaxacx ε+++++= −−− K2211
Al estimar el modelo se puede incluir una constante si la serie no está en
desviaciones, o se puede restar la media a todas las observaciones y no incluir la
constante. Algunos programas reportan estimativos para la media µ y la constante
c por separado con base en la expresión anterior. [3] [4]
1.9. MODELOS DE PROMEDIO MÓVIL
1.9.1. MA(Q)
El segundo modelo dentro de la metodología Box-Jenkis es el de promedio móvil.
Este expresa la serie x, en función del presente y el pasado de una serie de ruido
blanco { }tε con media cero.
∑ −−−− =+++++=q
stsqtqtttt cx0
22110 εβεβεβεβεβ K
Donde los coeficientes β no tienen restricciones en cuanto a la estabilidad de la
serie porque una suma finita de términos con varianza finita, como lo son los tε , no
puede ser explosiva. Se ve fácilmente que 0=Ε tx porque 0=Ε tε .
Como se mencionó antes, en el contexto de series de tiempo, y especialmente en el
caso de los modelos de promedio móvil, la secuencia { }tε también se conoce como
innovaciones, en el sentido de ser información nueve que llega al sistema.
1.9.2. MA(1)
El modelo MA(q) más sencillo es el que tiene un solo rezago de tε . Este se denota
MA(l) y su expresión es
110 −+= tttx εβεβ
Es evidente que 0=Ε tx . La función de para un MA(l) se encuentra
multiplicando la ecuación anterior por la misma ecuación rezagada, y tomando
expectativas.
De manera que r(l) máximo será
( )21
111
1 12
1max ±=
+±=
+=
ββlr
Positivo o negativo dependiendo del signo de 1β . [3][4]
1.10. MODELO AUTORREGRESIVO CON PROMEDIO MÓVIL
Modelos ARIMA Estos métodos modelan las Series de Tiempo estudiando la
estructura de la correlación que el tiempo, el índice, o la distancia induce en las
variables aleatorias que originan la serie.
El plan de trabajo de estos modelos es:
I. Por medio de transformaciones y/o diferencias se estabiliza la varianza, y se
eliminan la tendencia y la estacionalidad de la serie; obteniéndose así, una serie
estacionaria.
II. Para la serie estacionaria obtenida se identifica y se estima un modelo que
explica la estructura de correlación de la serie con el tiempo.
III. Al modelo hallado en II. Se aplican transformaciones inversas que permitan
reestablecer la variabilidad, la tendencia y la estacionalidad de la serie original.
Este modelo integrado se usa para pronosticar.
Para explicar la estructura de correlación entre las observaciones de una serie
estacionaria se consideran básicamente dos modelos:
tjtj
jt aZZ += −
∞
∑01
π Modelo auto-regresivo (AR).
jtj
jt aZ −
∞
∑+=01
ψµ Modelo de media móvil (MA).
Un hecho común a muchos fenómenos es que el comportamiento pasado provee
información sobre el comportamiento futuro; esto es especialmente cierto en series
de tiempo. El pasado de una serie suele incorporar, y de esa manera reemplazar, la
información de otras variables que pudieran intervenir en el proceso. La
especificación relativamente sencilla, pero efectiva, que resulta de expresar una
variable de función de su propio pasado es conocida como autorregresiva o, en
general, como modelaje Box-Jenkins. Las dos especificaciones principales de esta
metodología son los modelos autorregresivos AR(p) y los modelos de promedio
móvil MA(q), que describiremos a continuación.
1.11. MODELO ARMA (P,Q)
La combinación de los dos modelos anteriores, el AR(p) y el MA(q), junto con el
hecho de que uno se puede convertir en el otro y viceversa, da origen al modelo
ARMA(p,q). Su ventaja es que, al combinar elementos de ambos, puede ofrecer
mayor parsimonia, esto es, usar menos términos. Su expresión será
qtqtttptpttt xaxaxax −−−−−− ++++++++= εβεβεβεβ KK 221102211
o también
∑ ∑= =
−− +=p
j
q
j
jtjjtjt xax1 0
εβ
ttt kzaz += − 22 [3]
1.11. CRITERIOS DE EVALUACIÓN DE PREDICCIONES
Las medidas de precisión del pronóstico se usan para determinar que tan eficaz es
un pronóstico a través del cálculo de su precisión con respecto a los valores reales,
es decir, buscan obtener una medida de que tan lejos se encuentran los valores
pronosticados de los obtenidos en la realidad. En las siguientes medidas del error,
Xt es el valor de la serie de tiempo en el momento t y Pt es el pronóstico para ese
mismo momento. [11]
Estos son algunos de los indicadores comúnmente utilizados para evaluar
predicciones.
Error
Error Medio
Error Medio Absoluto
Suma de Cuadrados del Error
Suma de Cuadrados del Error Media o Error Cuadrático Medio
Desviación Estándar del Error
Nótese que Pt no es la media de las estimaciones o valores pronosticados como se
podría pensar. Esto significa que la desviación no se mide respecto de la media,
sino que se promedian las desviaciones de las estimaciones respecto a los valores
reales.
Error Porcentual
Error Porcentual Medio
Error Porcentual Medio Absoluto
Error Porcentual Medio Cuadrático
1.12. OTROS MÉTODOS NO CONVENCIONALES
En el afán del hombre por disminuir la incertidumbre y aumentar el conocimiento
sobre el comportamiento de las cosas que parecen aleatorias ha desarrollado otros
métodos no convencionales para la predicción y la disminución de esta
incertidumbre. Dichos métodos presentan un nivel mucho más alto de complejidad,
en su mayoría surgieron de la imitación de procesos de la naturaleza. Algunos de
estos métodos no convencionales de predicción son: Redes neuronales Artificiales,
Support vector machine, La Programación genética y filtro kalman.
Redes neuronales Artificiales (RNA) que son dispositivos o software programado de
manera tal que funcionen como las neuronas biológicas de los seres vivos. (Estas
sus características, usos y funcionamiento serán profundizados en el siguiente
capitulo).
Maquina de soporte vectorial del ingles Support vector machine La SVM fue ideada
originalmente para la resolución de problemas de clasificación binarios en los que
las clases eran linealmente separables (Vapnik y Lerner, 1965). Por este motivo se
conocía también como «hiperplano3 óptimo de decisión» ya que la solución
proporcionada es aquella en la que se clasifican correctamente todas las muestras
disponibles, colocando el hiperplano de separación lo más lejos posible de todas
ellas. Las muestras más próximas al hiperplano óptimo de separación son
conocidas como muestras críticas o «vectores soporte», que es lo que da nombre a
la SVM. [10]
La Programación genética en cuyos algoritmos hace evolucionar una población
sometiéndola a acciones aleatorias semejantes a las que actúan en la evolución
biológica (mutaciones y recombinación genética), así como también a una selección
de acuerdo con algún criterio, en función del cual se decide cuáles son los
individuos más adaptados, que sobreviven, y cuáles los menos aptos, que son
descartados. ha tenido gran parte de su utilización para resolver este tipo de
problemas de predicción de eventos.
Filtro kalman (kalman filter) Algoritmo recursivo que se utiliza en ARIMA para
generar valores ajustados y residuos para una serie.
3 Las variedades afines de dimensión 0 en son los subconjuntos de reducidos a un punto. Las de dimensión 1 se llaman RECTAS. Las de dimensión 2 se llaman PLANOS. Una variedad afín se llama HIPERPLANO si su dirección es un subespacio maximal en , es decir, y el único subespacio de que contiene a propiamente es entero.
1.13. APLICACIONES DE LAS SERIES DE TIEMPO
El estudio de las Series de Tiempo tiene como objetivo central desarrollar modelos
estadísticos que expliquen el comportamiento de una variable aleatoria que varia
con el tiempo, o con la distancia, o según un índice; y que permitan estimar
pronósticos futuros de dicha variable aleatoria.
Por ello, el manejo de las Series de Tiempo es de vital importancia en una
planeación y en mareas del conocimiento donde evaluar el efecto de una política
pasada sobre una variable, y/o conocer predicciones de sus valores futuros,
aportan criterios que disminuyen el riesgo en la toma de decisiones o en la
implementación de políticas futuras.
En el contexto de las Series de Tiempo, pronosticar significa predecir valores
futuros de una variable aleatoria basándose en el estudio de la estructura definida
por las observaciones pasadas de la variable, o en el análisis de observaciones
pasadas de variables que explican su variación, suponiendo que la estructura del
pasado se conserva en el futuro.
La existencia del intervalo de tiempo comprendido entre presente y el momento en
el cual ocurrirá el suceso o evento de interés, llamado tiempote previsión oleading
time, origina la necesidad de conocer un pronostico del evento; para así, poder
planear y ejecutar acciones que contrarresten o controlen los efectos que dicho
suceso producirá. La longitud de este intervalo de tiempo da origen a la planeación;
si no existiera o fuera muy pequeño, se estaría enfrentando a situaciones concretas
que deben resolverse mediante acciones inmediatas, más no planearse.
En consecuencia, cuando el tiempo de previsión es apropiado y el resultado final
del evento de interés esta condicionado por factores identificables, la planeación
adquiere sentido y el conocimiento del pronostico del evento permite tomar
decisiones sobre acciones a ejecutar o a controlar para que los resultados finales
estén acordes con la política general de la empresa.
Es importante anotar que existen factores o eventos que influyen en la calidad de un
pronóstico. Estos factores pueden ser internos o controlables y externos o
incontables. [4]