Introducción a modelos SARIMA
Existen situaciones en las que es posible enfrentarse a series temporales que poseen entre sus componentes, un comportamiento estacional, lo cual hace que tanto la media como otras estadísticas dadas en un periodo no sean estacionarias a lo largo del tiempo. Y a causa de ello, se tendrá que los métodos de modelación presentados hasta el momento no resulten ser apropiados para el ajuste del conjunto de observaciones asociados a la serie de interés.
La componente estacional de una serie temporal se ha definido hasta ahora como fluctuaciones que se repiten anualmente o en periodos que poseen duración menor al año, las cuales se encuentran relacionadas con fenómenos económicos, ambientales o sociales, que hacen que el comportamiento de la serie tome un comportamiento repetitivo a través de los años.
La periodicidad de la componente estacional es usualmente denotada por
la letra $s$
, y define la longitud o número de periodos en los cuales
se observa que se repite el comportamiento de la serie. Ahora bien, dado
que la estacionalidad es una señal de que la serie de tiempo no es
estacionaria, es necesario eliminar dicha componente con el fin de
poder modelar la serie temporal.
Operador de diferencia estacional
Con tal propósito en mente, la forma más usual de eliminación de la
estacionalidad de una serie temporal, es mediante la diferencia de la
serie temporal con respecto a la serie rezagada $s$
periodos en el
tiempo. Éste procedimiento es conocido como diferencia estacional
y se define como
\begin{align*} \Delta_s Y_t = Y_t - Y_{t-s} \end{align*}
siendo $\Delta_s = (1-L^s)$
. Note que $\Delta_s \neq \Delta^s$
,
pues $\Delta^s = (1-L)^s$
representa el operador de diferencias
presentado en la Clase
11.
En general, el operador de diferencias estacionales de periodo $s$
se
define como \begin{align*} \Delta_s^D = (1-L^s)^D \end{align*}
Siendo $D$
el parámetro que indica el número de diferencias
estacionales. Ahora, al aplicar dicho operador a la serie temporal
$Y_t$
se tiene que
\begin{align*} \Delta_s^D Y_t = (1-L^s)^D Y_t = \sum_{j=0}^D\binom{D}{j}(-1)^jY_{t-js} \end{align*}
Modelos autorregresivos integrados de media móvil estacionales (SARIMA)
Se dice que una serie de tiempo $\widetilde{Y}_t=Y_t-\mu$
posee una
estructura SARIMA(p,d,q)(P,D,Q)[s] si se cumple que
\begin{align*} \Phi_{P} (L^s) \Phi_p (L) \Delta^D_s \Delta^d \widetilde{Y}_t = \Theta_{Q} (L^s) \Theta_q (L)\varepsilon_t \end{align*}
con $\varepsilon_t \sim RB(0, \sigma_{\varepsilon}^2)$
y donde
\begin{align*} \Phi_p(z) = 1 - \sum_{j=1}^p\phi_j z^j \\ \Theta_q(z) = 1 + \sum_{j=1}^q\theta_j z^j \end{align*}
son los polinomios de rezagos autorregresivos y de medias móviles,
regulares, respectivamente, sin raíces comúnes y cada uno con módulo
mayor a 1, y $\Delta^d=(1-L)^d$
es el operador de diferencias, con
$L$
el operador de rezagos. Además,
\begin{align*} \Phi_{P}(z^s) = 1 - \sum_{j=1}^{P}\phi_{s,j} z^{js} \\ \Theta_{Q}(z^s) = 1 + \sum_{j=1}^{Q}\theta_{s,j} z^{js} \end{align*}
ambos polinomios de rezagos autorregresivos y de medias móviles,
estacionales, respectivamente, sin raíces comunes y con módulo mayor a
1, y $\Delta^D_s=(1-L^s)^D$
es el operador de diferencias
estacionales.
Además, se podrán derivar varios casos particulares de los modelos
SARIMA(p,d,q)(P,D,Q)[s]. Uno de ellos es el modelo ARIMA puramente
estacional, los cuales corresponden a los casos
SARIMA(0,0,0)(P,D,Q)[s] = SARIMA(P,D,Q)[s], con ecuación
\begin{align*} \Phi_{P} (L^s) \Delta^D_s \widetilde{Y}_t = \Theta_{Q}(L^s) \varepsilon_t \end{align*}
si $D=0, Q=0$
se tendrá un modelo AR(P)[s], donde
\begin{align*} \Phi_{P}(L^s) \widetilde{Y}_t & = \varepsilon_t \\ \left(1 - \sum_{j=1}^{P}\phi_{s,j} L^{js}\right) \widetilde{Y}_t & = \varepsilon_t \\ \widetilde{Y}_t & = \sum_{j=1}^{P}\phi_{s,j} L^{js} \widetilde{Y}_t + \varepsilon_t \\ & = \phi_{1,s}\widetilde{Y}_{t-s} + \phi_{2,s}\widetilde{Y}_{t-2s} + \ldots + \phi_{P,s}\widetilde{Y}_{t-Ps} + \varepsilon_t \end{align*}
en este caso se tendrá un modelo autorregresivo estacional de orden
$P$
, AR(P)[s]. En este modelo se puede observar que la PACF tendrá
autocorrelaciones parciales significativas en los rezagos
$s, 2s, \ldots, Ps$
, y una ACF que decae sinusoidalmente o
exponencialmente en sus rezagos estacionales.
si $P=0, D=0$
se tendrá un modelo MA(Q)[s], donde
\begin{align*} \widetilde{Y}_t & = \Theta_{Q}(L^s) \varepsilon_t \\ \widetilde{Y}_t & = \sum_{j=1}^{Q}\theta_{s,j} L^{js} \varepsilon_t \\ & = \varepsilon_t - \theta_{1,s} \varepsilon_{t-s} - \theta_{2,s} \varepsilon_{t-2s} - \ldots - \theta_{Q,s} \varepsilon_{t-Qs} \end{align*}
en este caso se tendrá un modelo de media móvil estacional de orden
$Q$
, SMA(Q)[s]. En este modelo se puede observar que la ACF tendrá
autocorrelaciones parciales significativas en los rezagos
$s, 2s, \ldots, Qs$
, y una PACF que decae sinusoidalmente o
exponencialmente en sus rezagos estacionales.
Otro de los modelos son aquellos donde $d=D=0$
, lo cual genera un
modelo ARIMA(p,0,q)(P,0,Q)[s] = ARMA(p,q)(P,Q)[s] el cual está dado
por
\begin{align*} \Phi_{P} (L^s) \Phi_p (L) \widetilde{Y}_t = \Theta_{Q}(L^s) \Theta_q (L)\varepsilon_t \end{align*}
con $\Phi_{P} (z^s)$
y $\Phi_p (z)$
los polinomios de rezago
autorregresivo regular y estacional, cada uno sin raíces unitarias en
$z$
y $z^s$
, respectivamente.
Raices unitarias estacionales
Como se señala en Guerrero (2003, p. 216), existen diferentes métodos de evitar los efectos estacionales en las series de tiempo, pero estas pueden generar que las pruebas de raíces unitarias se vean sesgadas hacia el no rechazo de la hipótesis nula de raíz unitaria.
Debido a esto, Guerrero (2003, p. 216) recomienda trabajar la serie sin ningún ajuste estacional, tratando de incorporar la componente estacional como un elemento adicional del modelo de la serie, y para hacerlo, es necesario contar con una metodología que permita probar la existencia de raíces unitarias estacionales.
Para introducir la idea de las pruebas de raíz unitaria estacional,
recordemos de lo presentado en la Clase
11,
en donde se señala que si $Y_t \sim ARMA(p,q)$
posee una raíz unitaria
en su polinomio autorregresivo $\Phi_{p}(z)$
, entonces se tendrá que
el polinomio se puede factorizar de la forma $(1-z)\Phi_{p-1}(z)$
.
Basado en ésto, se tendrá que si la serie temporal $Y_t\sim ARMA(p,q)$
es integrada estacional, de periodo $s=2,3,\ldots$
, entonces se
cumplirá que alguna o todas las raíces de $z^s=1$
, serán raíces
unitarias del polinomio autorregresivo $\Phi_{p}(z)$
.
Prueba HEGY
Con el fin de identificar si una serie temporal $Y_t$
posee raices
unitarias estacionales, se introduce la prueba HEGY, la cual fue
propuesta por Hylleberg, Engle, Granger, and Yoo
(1990), como una generalización de la prueba
aumentada de Dickey-Fuller. Esta prueba permite identificar cuáles
frecuencias estacionales poseen raíces estacionales significativas.
Si se detecta al menos una raíz unitaria estacional, exceptuando la frecuencia que corresponde a cero, se concluirá que la serie en cuestión esá integrada estacionalmente.
La prueba HEGY puede realizarse en R, mediante la función
hegy.test()
de la librería uroot
.
Alternativamente, puede observarse el número de diferencias estacionales
recomendadas R mediante la función nsdiffs
de la librería
forecast
con argumento test="hegy"
.
Prueba Canova-Hansen
En González (2018, pp. 364–366) se presenta este
test, como una herramienta para determinar si los patrones estacionales
presentes en una serie son determinísticos, y por tanto estables en el
tiempo, o por el contrario, siguen un proceso estocástico y por tanto no
son estables a lo largo del tiempo, específicamente, un proceso con raíz
unitaria estacional. Así la hipótesis nula de este test establece la
estabilidad estructural de la componente estacional. El procedimiento
considera el siguiente modelo de regresión
\begin{align*} Y_t = \beta_0 + \beta_1 t + \sum_{j=1}^k \left[\alpha_j sin\left(\frac{2\pi jt}{s}\right) + \gamma_j cos\left(\frac{2\pi jt }{s}\right)\right] + \varepsilon_t \end{align*}
con $k = s/2$
con $s$
par, donde el $j$
−ésimo par
$\left(sin\left(\frac{2\pi jt}{s}\right), cos\left(\frac{2\pi jt }{s}\right)\right)$
corresponde a la $j$
−ésima frecuencia estacional armónica
$\lambda_j=2\pi j/s$
. Se requiere además que $Y_t$
no tenga raíces
unitarias en la frecuencia cero con el fin de distinguir la no
estacionariedad en las frecuencias estacionales y en la frecuencia cero.
Pues de existir raíces unitarias en la fracuencia cero, se tendrá que
$\Delta Y_t = Y_t- Y_{t-1}$
como la variable dependiente.
Bajo la hipótesis alterna, un patrón estacional cambiante puede conducir
a la variación en los vectores de coeficientes $\boldsymbol{\alpha}$
y
$\boldsymbol{\gamma}$
a lo largo del tiempo según una caminata
aleatoria, es decir,
$\boldsymbol{\alpha}_t = \boldsymbol{\alpha}_{t-1} + \mathbf{u}_t$
y
$\boldsymbol{\gamma}_t = \boldsymbol{\gamma}_{t-1} + \mathbf{v}_t$
,
donde $\mathbf{u}_t$
y $\mathbf{v}_t$
son vectores aleatorios iid
de media cero e independientes de $\varepsilon_t$
. Para probar la
estabilidad de los parámetros estacionales se prueba que las
autocovarianzas de $\mathbf{u}_t$
y $\mathbf{v}_t$
, respectivamente
es cero mientras que bajo la hipótesis alterna, en cada caso, es mayor
que cero, o equivalentemente
\begin{align*} H_0: \boldsymbol{\alpha}_t = \boldsymbol{\alpha} \quad \text{vs} \quad H_1: \boldsymbol{\alpha}_t = \boldsymbol{\alpha}_{t-1} + \mathbf{u}_t\\ H_0: \boldsymbol{\gamma}_t = \boldsymbol{\gamma} \quad \text{vs} \quad H_1: \boldsymbol{\gamma}_t = \boldsymbol{\gamma}_{t-1} + \mathbf{v}_t \end{align*}
El estadístico de la prueba denominado $L$
sugerido por Canova y
Hansen no tiene una distribución estándar (como la t-Student, la normal
estándar, la F-Fisher) pero tiene $p$
grados de libertad, donde $p$
se deriva del número posible de raíces unitarias.
La prueba Canova-Hansen puede realizarse en R, mediante la
función ch.test()
de la librería uroot
. Para aplicar el test
Canova-Hansen es necesario eliminar la tendencia de la serie en caso
de existir, lo cual puede hacerse eliminando la componente de tendencia
estimada $T_t$
mediante las funciones stl()
o decompose()
, vistas
en la Clase
01
y aplicamos el test sobre $W_t = Y_t − T_t = S_t + \varepsilon_t$
, con
los argumentos lag1=FALSE
, pvalue = "raw"
.
Alternativamente, puede observarse el número de diferencias estacionales
recomendadas R mediante la función nsdiffs
de la librería
forecast
con argumento test="ch"
.
Prueba OCSB
En Giraldo (2018, pp. 304–305) se presenta la prueba
de raíces unitarias estacionales de prueba Osborn,Chui, Smith, y
Birchenhall, la cual se basa en una prueba de regresión dada por
\begin{align*} \Delta\Delta_sY_t = \beta_1\Delta_sY_{t-1} + \beta_2 Y_{t-s} + \varepsilon_t \end{align*}
utilizando la identidad
\begin{align*} I-L^s = (I-L)(I+L+\ldots+L^{s-1}) \end{align*}
se tiene
que
\begin{align*} \Delta_sY_{t-1} = (I+L+\ldots+L^{s-1})\Delta Y_{t-1} \end{align*}
entonces, al reemplazar en la primera ecuación se tiene que la regresión
de interés estará dada por
\begin{align*} \Delta\Delta_sY_t = \beta_1 (I+L+\ldots+L^{s-1})\Delta Y_{t-1} + \beta_2\Delta Y_{t-s} + \varepsilon_t \end{align*}
A partir de esta regresión se trata de probar el siguiente juego de
hipótesis
\begin{align*} H_0: Y_t \sim I(1,1) \quad \text{vs} \quad H_1: Y_t \sim I(0,0) \vee I(0,1) \vee I(1,0) \end{align*}
El estadístico de la prueba se define similar al de la prueba
Dickey-Fuller aumentada, pero en donde, los valores críticos de la
prueba Dickey-Fuller aumentada no son estrictamente válidos para ésta
prueba, y por tanto, para la prueba OCSB se requieren valores críticos
sean calculados mediante simulación. La hipótesis equivale en este caso
a la prueba de cola izquierda será de la forma
\begin{align*} H_0: \beta_2 = 0 \quad \text{vs} \quad H_1: \beta_2 < 0 \end{align*}
La prueba OCSB puede realizarse en R, mediante la función
ocsb.test()
de la librería forecast
, y cálcula solamente el
estadístico de prueba asociado al parámetro $\beta_2$
, junto al valor
crítico para el nivel de significación de $5\%$
. En donde, si el
estadísitico de prueba cae por debajo del valor crítico se rechaza la
hipótesis nula a favor de alguna de sus alternativas.
Alternativamente, puede observarse el número de diferencias estacionales
recomendadas R mediante la función nsdiffs
de la librería
forecast
con argumento test="ocsb"
.
Ajuste del modelo SARIMA
Para el proceso de identificación de los modelos SARIMA o ARIMA estacionales, se emplean los mismos procedimientos vistos en la Clase 09, aunque su identificación es un poco más complicada debido a que el número de modelos posibles que pueden ser ajustados para una serie de tiempo es considerablemente grande.
Cabe notar, que para lograr un proceso estacionario, la serie puede requerir ser diferenciada regular y/o estacionalmente dependiendo de las componentes que presente y el estudio de su ACF y PACF muestral. Así mismo, para la validación de los supuestos del modelo, se emplean los mismos métodos explicados en la Clase 10.
Bibliografía
Giraldo, N. (2018). Econometría financiera aplivada a series de tiempo. Notas de Clase, Universidad Nacional de Colombia.
González, N. (2018). Estadística iii. Notas de Clase Estadística III, Universidad Nacional de Colombia.
Guerrero, V. (2003). Análisis estadístico de series de tiempo económicas (2nd ed.). International Thomson Editores.
Hylleberg, S., Engle, R. F., Granger, C. W., and Yoo, B. S. (1990). Seasonal integration and cointegration. Journal of Econometrics, 44(1-2), 215–238.