Operador de rezagos
El operador de rezagos es un término usado en series de tiempo, para
operar la serie de tiempo de interés, y obtener una serie rezagada o
retardada un periodo hacia atrás, en donde al aplicar dicho operador
varias veces, es posible obtener la serie rezagada o retardada $p$
periodos hacia atrás.
Por tanto, si denotamos al operador de rezagos como $L$
, tendremos que
$L(Y_t)=Y_{t-1}$
, en donde se observa que la función $L$
rezaga la
serie original en una observación. En general si aplicamos la función
$L$
un total de $p=1,2,\ldots$
veces, se tendrá
\begin{align*} L(Y_t)=Y_{t-1} \\ L^2(Y_t)=Y_{t-2} \\ \vdots \quad \quad \quad \\ L^p(Y_t)=Y_{t-p} \end{align*}
Además, para el caso particular en que $p=0$
, se tendrá que $L^0=I$
,
donde $I$
se conoce como la función identidad.
Sea ahora, un polinomio de rezagos de orden $p$
(un filtro lineal), el
cual se aplica al operador de rezagos $L$
, para obtener una
combinación lineal de $L$
de la forma
\begin{align*} B_p(L)=\beta_0I+\beta_1L+\beta_2L^2+\ldots+\beta_pL^p \end{align*}
donde cada $\beta_j$
representa un valor constantes, con
$j=0,1, \ldots, p$
, y en donde, se observa que la ecuación anterior
define un polinomio de orden $p$
en $L$
, el cual, al ser
multiplicado por la serie $Y_t$
se obtendrá que
\begin{align*} B_p(L)(Y_t) & = (\beta_0I+\beta_1L+\beta_2L^2+\ldots+\beta_pL^p)(Y_t) \\ & = \beta_0I(Y_t)+\beta_1L(Y_t)+\beta_2L^2(Y_t)+\ldots+\beta_pL^p(Y_t) \\ & = \sum_{j=0}^p\beta_jL^j(Y_t) \\ & = \sum_{j=0}^p\beta_jY_{t-j} \\ & = \beta_0Y_t+\beta_1Y_{t-2}+\beta_2Y_{t-2}+\ldots+\beta_pY_{t-p} \end{align*}
Modelos de medias móviles (MA)
Guerrero (2003, pp. 80–81) se introduce a los
modelos de medias móviles como un proceso estocástico $\{Yt\}$
, cuyos
valores pueden ser dependientes unos de otros, como una suma finita
ponderada de choques aleatorios independientes $\{\varepsilon_t\}$
. En
donde, el término de medias móviles parece sugerir que el modelo se
obtiene como un promedio de los choques aleatorios que intervienen, pero
no es así, puesto que los parámetros no tienen que ser necesariamente
positivos, ni su suma debe ser la unidad, como requeriría un promedio
poderado.
Proceso de media móvil de orden 1 o MA(1)
Se dice que $\{Y_t\}_{t≥1}$
es un proceso de media móvil de orden 1,
si podemos expresar a $\widetilde{Y}_t = Y_t - \mu$
en términos de un
proceso estacionario de media cero, tal que
\begin{align*} \widetilde{Y}_t & = (1+\theta_1 L)\varepsilon_t \\ & = \varepsilon_t + \theta_1 L\varepsilon_t \\ & = \varepsilon_t + \theta_1 \varepsilon_{t-1} \end{align*}
De la ecuación anterior, se evidencia que un proceso MA(1) puede
definirse como un operador de rezagos de un ruido blanco
$\varepsilon_t\sim(0,\sigma^2_{\varepsilon})$
, con
$\beta_1 = \theta_1$
, y $\beta_j = 0$
, para $j ≥ 2$
. Además, se
puede probar que la media, varianza y autocovarianza del proceso MA(1),
están dados por
\begin{align*} \mathbb{E}(\widetilde{Y}_t) & = 0 \\ Var(\widetilde{Y}_t) & =\gamma(0) = \sigma^2_{\varepsilon}(1+\theta_1^2) \\ Cov(\widetilde{Y}_t, \widetilde{Y}_{t+k}) & = \gamma(k) = \begin{cases} -\sigma_\varepsilon^2\theta_1 & 0\leq k=1 \\ 0 & k\geq 2\end{cases} \end{align*}
lo cual hace que el proceso MA(1) sea siempre un proceso
estacionario, pero para ser invertible, se requiere que la raíz del
polinomio de rezagos $1+\theta_1 L =0$
caiga fuera del circulo
unitario. Además, como el proceso MA(1) posee autocorrelacíones iguales
a cero para rezagos $k$
mayores a 1, se tendrá que el proceso MA(1)
no recuerda más allá de lo ocurrido en el período inmediatamente
anterior, es decír, tiene una memoria limitada a un solo período.
Para la identificación de un proceso MA(1) es posible analizar las funciones ACF y PACF, y observar si se cumplen o no los siguientes comportamientos
Proceso | Función de autocorrelación (ACF) | Función de autocorrelación parcial (PACF) |
---|---|---|
MA(1) | Solo el primer (1) coeficiente de autocorrelación es significativo. El resto de coeficientes se anulan luego del primer rezago (\(\rho(k) = 0\) para retardo \(k>1\)) | Decrecimiento rápido exponencial atenuado y/o en ondas sinusoidales. |
De lo anterior, es importante notar que aun cuando solamente la primera
autocorrelación es distinta de cero, dicha autocorrelación no puede ser
elevada, ya que entre más elevada sea la autocorrelación se tendrá una
dependencia más fuerte entre la observación actual con la anterior, y
por tanto, se tendrá la siguiente condición
\begin{align*} |\rho_1|\leq 0.5 \end{align*}
En consecuencia, si una ACF posee un solo pico en la primera autocorrelación, se tendrá, que dicha ACF corresponderá a un proceso MA(1) solo cuando se satisface la condición anterior.
A continuación, se realiza la simulación de tres escenarios para ilustrar el comportamiento de la ACF y la PACF de un proceso MA(1).
Proceso de media móvil de orden q o MA(q)
Similar al proceso MA(1), se dice que $\{Y_t\}_{t≥1}$
es un proceso de
media móvil de orden q, si es posible expresar a
$\widetilde{Y}_t=Y_t-\mu$
en términos de un proceso estacionario en
covarianza de media cero, tal que
\begin{align*} \widetilde{Y}_t & = (\Theta_q (L))\varepsilon_t \\ & = (1 + \theta_1 L + \theta_2 L^2 + \ldots + \theta_q L^q) \varepsilon_t \\ & = \varepsilon_t + \theta_1 L\varepsilon_t + \theta_2 L^2\varepsilon_t + \ldots + \theta_q L^q\varepsilon_t\\ & = \varepsilon_t + \theta_1 \varepsilon_{t-1} + \theta_2 \varepsilon_{t-2} + \ldots + \theta_q \varepsilon_{t-q} \end{align*}
En este caso, el proceso MA(q) puede definirse como una generalización del proceso MA(1), el cual posee una media, varianza y correlación dados por
\begin{align*} \mathbb{E}(\widetilde{Y}_t) & = 0 \\ Var(\widetilde{Y}_t) & = \gamma(0) = \sigma^2_{\varepsilon}(1+\theta_1^2+\theta_2^2+\ldots+\theta_q^2) \\ Cov(\widetilde{Y}_t, \widetilde{Y}_{t+k}) & = \gamma(k) = \begin{cases} \sigma_\varepsilon^2 \sum_{j=0}^{q-k}\theta_j\theta_{j+k} & 0\leq k\leq q \\ 0 & k\geq q+1\end{cases} \end{align*}
con $\theta_0 = 1$
y donde se observa que
$Var(\widetilde{Y}_t)>Var(\varepsilon_t)=\sigma_\varepsilon^2$
. Por
consiguiente, se tendrá que todo proceso MA(q) será un proceso
estacionario, pero para ser invertible, se requiere que la raíz del
polinomio de rezagos $(\Theta_1 (L))$
caiga fuera del circulo
unitario. Además, el proceso MA(q) tendrá una memoria limitada a q
periodos, ya que, para rezagos $k$
mayores a q, la autocorrelaciones
serán iguales a 0.
En Guerrero (2003, p. 81) el autor define a los
procesos MA como un proceso en equilibrio, en donde las fluctuaciones
alrededor del punto de equilibrio, ${\widetilde{Y}_t}_{t≥1}$
, son
causadas por choques asociados a eventos inesperados. Tales choques no
necesariamente se asimilan de manera instantánea, sino que pueden seguir
causando efectos aún después de transcurrido cierto número de períodos y
además la intensidad del choque se refleja en el valor de su ponderación
$\theta_j$
.
Para la identificación de un proceso MA(q) es posible analizar las funciones ACF y PACF, y observar si se cumplen o no los siguientes comportamientos
Proceso | Función de autocorrelación (ACF) | Función de autocorrelación parcial (PACF) |
---|---|---|
MA(q) | Solo los q primeros coeficientes de autocorrelación son significativos. El resto de coeficientes se anulan luego del q-ésimo rezago (\(\rho(k) = 0\) para retardo \(k>q\)) | Decrecimiento rápido exponencial atenuado y/o en ondas sinusoidales. |
Similar al caso MA(1), es posible encontrar las restricciones o
condiciones que deben cumplir las autocorrelación, para que los picos
obtenidos de la ACF correspondan a un proceso MA(q). Dicha condición
está dada por
\begin{align*} |\rho_k|\leq \begin{cases}cos(\pi/(M+1)) & \text{ si } k \text{ es divisor de } q+1 \\ cos(\pi/(M+2)) & \text{ si } k \text{ no es divisor de } q+1 \end{cases} \end{align*}
donde $M$
es el mayor entero menor o igual a $(q+1)/k$
.
A continuación, se realiza la simulación de tres escenarios para ilustrar el comportamiento de la ACF y la PACF de un proceso MA(q).
Modelos autorregresivos (AR)
Los procesos autorregresivos son un tipo de proceso estocástico en el cual el valor actual de una serie está linealmente relacionado con sus valores pasados más una perturbación o choque aleatorio aditivo.
Modelos autorregresivos de orden 1 o AR(1)
Se dice que $\{Y_t\}_{t≥1}$
sigue un proceso de autorregresivo de
orden 1 con media cero, si podemos expresar a
$\widetilde{Y} = Y_t - \mu$
en términos de un proceso estacionario de
media cero, tal que
\begin{align*} (1 - \phi_1 L)\widetilde{Y}_t & = \varepsilon_t \\ \widetilde{Y}_t - \phi_1 L\widetilde{Y}_t & = \varepsilon_t \\ \widetilde{Y}_t - \phi_1 \widetilde{Y}_{t-1} & = \varepsilon_t \\ \widetilde{Y}_t & = \phi_1 \widetilde{Y}_{t-1} + \varepsilon_t \end{align*}
con $\varepsilon_t\sim RB(0, \sigma_{\varepsilon}^2)$
independiente de
$\widetilde{Y}_{t+k}$
para todo $k>0$
. De la ecuación anterior, se
observa que se tiene una estructura de regresión entre
$\widetilde{Y}_t$
y $\widetilde{Y}_{t-1}$
, lo cual indica existe
una relación lineal entre las observaciones y los valores de la misma
rezagadas un periodo, siendo el parámetro $\phi_1$
el parámetro del
modelo.
Además, se puede probar que la media, varianza y autocovarianza del
proceso AR(1), bajo el supuesto $|\phi_1|<1$
están dados por
\begin{align*} \mathbb{E}(\widetilde{Y}_t) & = 0 \\ Var(\widetilde{Y}_t) & =\gamma(0) = \frac{\sigma^2_{\varepsilon}}{(1-\phi_1^2)} & \text { para } k = 0, \pm 1, \pm 2, \ldots \\ Cov(\widetilde{Y}_t, \widetilde{Y}_{t+k}) & = \gamma(k) = \phi^k \left(\frac{\sigma^2_\varepsilon}{1-\phi_1^2}\right) & \text { para } k = 0, \pm 1, \pm 2, \ldots \end{align*}
lo cual indica que, a medida que $k > 0$
crece, la ACF debe tender a
cero, con decaimiento del tipo exponencial cuando $0<\phi<1$
y con
signos alternados cuando $-1 < \phi < 0$
. La condición $|\phi|<1$
es
requerida para que la serie sea estacionaria en covarianza, ya que
ésto garantiza que la raíz del polinomio de rezagos caiga fuera del
círculo unitario. Adicionalmente, y a diferencia del modelo MA(q), se
tiene que todo proceso AR(1) es invertible.
Para la identificación de un proceso AR(1) es posible analizar las funciones ACF y PACF, y observar si se cumplen o no los siguientes comportamientos
Proceso | Función de autocorrelación (ACF) | Función de autocorrelación parcial (PACF) |
---|---|---|
AR(1) | Decrecimiento rápido exponencial atenuado y/o en ondas sinusoidales. | Solo el primer (1) coeficientes de autocorrelación parcial es significativos. El resto de coeficientes se anulan luego del primer rezago (\(\phi_{kk} = 0\) para retardo \(k>1\)) |
A continuación, se realiza la simulación de tres escenarios para ilustrar el comportamiento de la ACF y la PACF de un proceso AR(1).
Modelos autorregresivos de orden p o AR(p)
Se dice que $\{Y_t\}_{t≥1}$
sigue un proceso de autorregresivo de
orden p con media cero, si podemos expresar a
$\widetilde{Y} = Y_t - \mu$
en términos de un proceso estacionario de
media cero, tal que
\begin{align*} (\Phi_p (L))\widetilde{Y}_t & = \varepsilon_t \\ (1 - \phi_1 (L) - \phi_2 L^2 - \ldots - \phi_p L^p)\widetilde{Y}_t & = \varepsilon_t \\ \widetilde{Y}_t - \phi_1 L \widetilde{Y}_t - \phi_2 L^2 \widetilde{Y}_t - \ldots - \phi_p L^p \widetilde{Y}_t & = \varepsilon_t \\ \widetilde{Y}_t - \phi_1 \widetilde{Y}_{t-1} - \phi_2 \widetilde{Y}_{t-2} - \ldots - \phi_p \widetilde{Y}_{t-p} & = \varepsilon_t \\ \widetilde{Y}_t & = \phi_1 \widetilde{Y}_{t-1} + \phi_2 \widetilde{Y}_{t-2} + \ldots + \phi_p \widetilde{Y}_{t-p} + \varepsilon_t \end{align*}
con $\varepsilon_t\sim R.B(0, \sigma_{\varepsilon}^2)$
independiente
de $\widetilde{Y}_{t+k}$
para todo $k>0$
. Similar al proceso AR(1),
se observa que se tiene una estructura de regresión entre
$\widetilde{Y}_t$
y $\widetilde{Y}_{t-j}$
, con
$j = 1,2, \ldots, p$
lo cual indica que existe una relación lineal
entre las observaciones y los p periodos pasados de la misma variable.
Adicionalmente, para garantizar que el modelo AR(p) sea estacionario,
se requiere que el polinomio de rezagos $(\Phi_p L)=0$
, con el fin
de que su modulo caiga fuera del circulo unitario. Por otro lado, se
tiene que todo proceso AR(p) es invertible.
La media, varianza y autocovarianza del proceso AR(p), bajo la condición
de estacionaridad, se obtienen mediante las ecuaciones
\begin{align*} \mathbb{E}(\widetilde{Y}_t) & = 0 \\ Var(\widetilde{Y}_t) & =\gamma(0) = \sum_{k=1}^p \phi_k \gamma(k) + \gamma_\varepsilon^2 & \text { para } k = 0, \pm 1, \pm 2, \ldots \\ Cov(\widetilde{Y}_t, \widetilde{Y}_{t+k}) & = \mathbb{E}(Y_tY_{t-k}) & \text{ para } k = 0, \pm 1, \pm 2, \ldots \end{align*}
Para la identificación de un proceso AR(p) es posible analizar las funciones ACF y PACF, y observar si se cumplen o no los siguientes comportamientos
Proceso | Función de autocorrelación (ACF) | Función de autocorrelación parcial (PACF) |
---|---|---|
AR(p) | Decrecimiento rápido exponencial atenuado y/o en ondas sinusoidales. | Solo los p primeros coeficientes de autocorrelación parcial son significativos. El resto de coeficientes se anulan luego del p-ésimo rezago (\(\phi_{kk} = 0\) para retardo \(k>p\)) |
A continuación, se realiza la simulación de tres escenarios para ilustrar el comportamiento de la ACF y la PACF de un proceso AR(p).
Condiciones de invertibilidad y estacionaridad
Dado que los métodos Box-Jenkins requieren que la serie sea un proceso estacionario e invertible, entonces debe probarse que se cumplan las dos condiciones cuando se tiene un modelo AR o uno MA.
Condición de invertibilidad del proceso MA(q)
Suponga que se tiene que $\widetilde{Y}\sim MA(q)$
, entonces
$\widetilde{Y}$
puede ser escrito como
\begin{align*} \widetilde{Y}_t & = \varepsilon_t + \theta_1 \varepsilon_{t-1} + \theta_2 \varepsilon_{t-2} + \ldots + \theta_q \varepsilon_{t-q} \end{align*}
donde
\begin{align*} \Theta (L) = (1 + \theta_1 L + \theta_2 L^2 + \ldots + \theta_q L^q) \end{align*}
entonces, si las raíces de $\Theta (z) = 0$
, con
$z_1, z_2, \ldots, z_q$
cumplen
\begin{align*} |z_i|>1 \text{ con } i = 1, 2 . . . , q \end{align*}
se dice que $\widetilde{Y}_t$
es invertible. En R puede
emplearse la función polyroot()
para el cálculo de la raíz del
polinomio y la función Mod()
para el cálculo del módulo de la raíz del
polinomio. si el resultado es mayor a 1, entonces $\widetilde{Y}_t$
es
invertible. Además, como se señaló previamente, un proceso de medias
móviles siempre es estacionario!
Condición de estacionaridad del proceso AR(p)
Suponga que se tiene que $\widetilde{Y}\sim AR(p)$
, entonces
$\widetilde{Y}$
puede ser escrito como
\begin{align*} \widetilde{Y}_t & = \phi_1 \widetilde{Y}_{t-1} + \phi_2 \widetilde{Y}_{t-2} + \ldots + \phi_p \widetilde{Y}_{t-p} + \varepsilon_t \end{align*}
donde
\begin{align*} (\Phi_p L) = (1 - \phi_1 L - \phi_2 L^2 - \ldots - \phi_p L^p) \end{align*}
entonces, si las raíces de $\Phi_p(z) = 0$
, con
$z_1, z_2, \ldots, z_p$
cumplen
\begin{align*} |z_i|>1 \text{ con } i = 1, 2 . . . , p \end{align*}
se dice que $\widetilde{Y}_t$
es estacionaria. En R puede
emplearse la función polyroot()
para el cálculo de la raíz del
polinomio y la función Mod()
para el cálculo del módulo de la raíz del
polinomio. si el resultado es mayor a 1, entonces $\widetilde{Y}_t$
es
estacionaria. Además, como se señaló previamente, un proceso de
autorregresivo siempre es invertible!
Modelos autorregresivos y de medias móviles o ARMA(p,q)
Lo modelos ARMA son conocidos como una generalización de los modelos AR y MA, pues consiste en combinar ambas clases de modelos para obtener lo que se conoce como modelos autorregresivos de medias móviles.
Una forma sencilla de introducir los modelos ARMA(p,q), es partiendo de
que $\widetilde{Y}_t = Y_t - \mu \sim$
AR(p), y por tanto, éste puede
ser escrito como
\begin{align*} \widetilde{Y}_t - \phi_1 \widetilde{Y}_{t-1} - \phi_2 \widetilde{Y}_{t-2} - \ldots - \phi_p \widetilde{Y}_{t-p}& = \varepsilon_t \end{align*}
donde $\varepsilon_t\sim R.B(0,\sigma_\varepsilon^2)$
. Ahora, si se
reemplaza $\varepsilon_t$
por un proceso MA(q)
\begin{align*} Z_t= \varepsilon_t + \theta_1 \varepsilon_{t-1} + \theta_2 \varepsilon_{t-2} + \ldots + \theta_q \varepsilon_{t-q} \end{align*}
entonces, se tendrá que
\begin{align*} \widetilde{Y}_t - \phi_1 \widetilde{Y}_{t-1} - \phi_2 \widetilde{Y}_{t-2} - \ldots - \phi_p \widetilde{Y}_{t-p}& = \varepsilon_t + \theta_1 \varepsilon_{t-1} + \theta_2 \varepsilon_{t-2} + \ldots + \theta_q \varepsilon_{t-q} \end{align*}
De lo anterior, se tiene que un proceso ARMA(p,q) se define como un modelo que combina las propiedades de memoria larga de los AR(p) con las propiedades de ruido débilmente autocorrelacionado de los MA(q), lo cual le da suficiente flexibilidad y parsimonia para representar una variedad grande de procesos estacionarios en covarianza.
En general, Se dice que $\{Y_t\}_{t≥1}$
es un proceso de autoregresivo
de media móvil de ordenes (p,q), si podemos expresar a
$\widetilde{Y}_t = Y_t - \mu$
en términos de un proceso estacionario
de media cero, tal que
\begin{align*} \Phi_p (L)\widetilde{Y}_t = \Theta_q (L)\varepsilon_t \end{align*}
donde $\Phi_p(z) = 1 - \sum_{j=1}^p\phi_j z^j$
y
$\Theta_q(z) = 1 + \sum_{j=1}^q\theta_j z^j$
son los polinomios de
rezagos autorregresivo y de medias móviles, respectivamente.
Adicionalmente, dado que el modelo ARMA(p,q) se construye a partir de un
modelo AR(p) y un modelo MA(q), se asume que las condiciones de
estacionariedad de la parte AR(p) y de invertibilidad de la parte MA(q)
se cumplen para el modelo ARMA(p,q), es decir, se tendrá que las
raíces de los polinomios $\Phi_p(z)=0$
y $\Theta_q(z)=0$
se
encuentran por fuera del circulo unitario (es decir, tienen módulo mayor
a uno). También, se asume que los dos polinomios no tienen raíces en
común. Si estas dos condiciones se cumplen, se tendrá que el proceso
ARMA(p,q) es identificable y estacionario.
Para la identificación de un proceso AR(p) es posible analizar las funciones ACF y PACF, y observar si se cumplen o no los siguientes comportamientos
Proceso | Función de autocorrelación (ACF) | Función de autocorrelación parcial (PACF) |
---|---|---|
ARMA(p,q) | Decrece a 0 luego del q-ésimo rezago (aproximadamente de forma exponencial atenuada y/o con ondas sinusoidales). El decaimiento a cero no sucede de forma rápida | Decrece a 0 luego del q-ésimo rezago (aproximadamente de forma exponencial atenuada y/o con ondas sinusoidales). El decaimiento a cero no sucede de forma rápida |
Similar al caso AR y MA, el análisis del ACF y PACF podría ayudar a identificar el tipo de proceso que siguen los datos, pero que en el caso ARMA, no será tan evidente los órdenes p y q del proceso. En consecuencia, debe quedar claro que el análisis de la ACF y la PACF no pretenden determinar los ordenes p y q exactos, si no que busca restringir el rango de valores reales que pueden tener p y q.
A continuación, se realiza la simulación de tres escenarios para ilustrar el comportamiento de la ACF y la PACF de un proceso AR(p).
Bibliografía
Guerrero, V. (2003). Análisis estadístico de series de tiempo económicas (2nd ed.). International Thomson Editores.