Operador de rezagos

El operador de rezagos es un término usado en series de tiempo, para operar la serie de tiempo de interés, y obtener una serie rezagada o retardada un periodo hacia atrás, en donde al aplicar dicho operador varias veces, es posible obtener la serie rezagada o retardada $p$ periodos hacia atrás.

Por tanto, si denotamos al operador de rezagos como $L$, tendremos que $L(Y_t)=Y_{t-1}$, en donde se observa que la función $L$ rezaga la serie original en una observación. En general si aplicamos la función $L$ un total de $p=1,2,\ldots$ veces, se tendrá \begin{align*} L(Y_t)=Y_{t-1} \\ L^2(Y_t)=Y_{t-2} \\ \vdots \quad \quad \quad \\ L^p(Y_t)=Y_{t-p} \end{align*} Además, para el caso particular en que $p=0$, se tendrá que $L^0=I$, donde $I$ se conoce como la función identidad.

Sea ahora, un polinomio de rezagos de orden $p$ (un filtro lineal), el cual se aplica al operador de rezagos $L$, para obtener una combinación lineal de $L$ de la forma \begin{align*} B_p(L)=\beta_0I+\beta_1L+\beta_2L^2+\ldots+\beta_pL^p \end{align*}

donde cada $\beta_j$ representa un valor constantes, con $j=0,1, \ldots, p$, y en donde, se observa que la ecuación anterior define un polinomio de orden $p$ en $L$, el cual, al ser multiplicado por la serie $Y_t$ se obtendrá que \begin{align*} B_p(L)(Y_t) & = (\beta_0I+\beta_1L+\beta_2L^2+\ldots+\beta_pL^p)(Y_t) \\ & = \beta_0I(Y_t)+\beta_1L(Y_t)+\beta_2L^2(Y_t)+\ldots+\beta_pL^p(Y_t) \\ & = \sum_{j=0}^p\beta_jL^j(Y_t) \\ & = \sum_{j=0}^p\beta_jY_{t-j} \\ & = \beta_0Y_t+\beta_1Y_{t-2}+\beta_2Y_{t-2}+\ldots+\beta_pY_{t-p} \end{align*}

Modelos de medias móviles (MA)

Guerrero (2003, pp. 80–81) se introduce a los modelos de medias móviles como un proceso estocástico $\{Yt\}$, cuyos valores pueden ser dependientes unos de otros, como una suma finita ponderada de choques aleatorios independientes $\{\varepsilon_t\}$. En donde, el término de medias móviles parece sugerir que el modelo se obtiene como un promedio de los choques aleatorios que intervienen, pero no es así, puesto que los parámetros no tienen que ser necesariamente positivos, ni su suma debe ser la unidad, como requeriría un promedio poderado.

Proceso de media móvil de orden 1 o MA(1)

Se dice que $\{Y_t\}_{t≥1}$ es un proceso de media móvil de orden 1, si podemos expresar a $\widetilde{Y}_t = Y_t - \mu$ en términos de un proceso estacionario de media cero, tal que \begin{align*} \widetilde{Y}_t & = (1+\theta_1 L)\varepsilon_t \\ & = \varepsilon_t + \theta_1 L\varepsilon_t \\ & = \varepsilon_t + \theta_1 \varepsilon_{t-1} \end{align*}

De la ecuación anterior, se evidencia que un proceso MA(1) puede definirse como un operador de rezagos de un ruido blanco $\varepsilon_t\sim(0,\sigma^2_{\varepsilon})$, con $\beta_1 = \theta_1$, y $\beta_j = 0$, para $j ≥ 2$. Además, se puede probar que la media, varianza y autocovarianza del proceso MA(1), están dados por \begin{align*} \mathbb{E}(\widetilde{Y}_t) & = 0 \\ Var(\widetilde{Y}_t) & =\gamma(0) = \sigma^2_{\varepsilon}(1+\theta_1^2) \\ Cov(\widetilde{Y}_t, \widetilde{Y}_{t+k}) & = \gamma(k) = \begin{cases} -\sigma_\varepsilon^2\theta_1 & 0\leq k=1 \\ 0 & k\geq 2\end{cases} \end{align*}

lo cual hace que el proceso MA(1) sea siempre un proceso estacionario, pero para ser invertible, se requiere que la raíz del polinomio de rezagos $1+\theta_1 L =0$caiga fuera del circulo unitario. Además, como el proceso MA(1) posee autocorrelacíones iguales a cero para rezagos $k$ mayores a 1, se tendrá que el proceso MA(1) no recuerda más allá de lo ocurrido en el período inmediatamente anterior, es decír, tiene una memoria limitada a un solo período.

Para la identificación de un proceso MA(1) es posible analizar las funciones ACF y PACF, y observar si se cumplen o no los siguientes comportamientos

Proceso Función de autocorrelación (ACF) Función de autocorrelación parcial (PACF)
MA(1) Solo el primer (1) coeficiente de autocorrelación es significativo. El resto de coeficientes se anulan luego del primer rezago (\(\rho(k) = 0\) para retardo \(k>1\)) Decrecimiento rápido exponencial atenuado y/o en ondas sinusoidales.

De lo anterior, es importante notar que aun cuando solamente la primera autocorrelación es distinta de cero, dicha autocorrelación no puede ser elevada, ya que entre más elevada sea la autocorrelación se tendrá una dependencia más fuerte entre la observación actual con la anterior, y por tanto, se tendrá la siguiente condición \begin{align*} |\rho_1|\leq 0.5 \end{align*}

En consecuencia, si una ACF posee un solo pico en la primera autocorrelación, se tendrá, que dicha ACF corresponderá a un proceso MA(1) solo cuando se satisface la condición anterior.

A continuación, se realiza la simulación de tres escenarios para ilustrar el comportamiento de la ACF y la PACF de un proceso MA(1).

Proceso de media móvil de orden q o MA(q)

Similar al proceso MA(1), se dice que $\{Y_t\}_{t≥1}$ es un proceso de media móvil de orden q, si es posible expresar a $\widetilde{Y}_t=Y_t-\mu$ en términos de un proceso estacionario en covarianza de media cero, tal que \begin{align*} \widetilde{Y}_t & = (\Theta_q (L))\varepsilon_t \\ & = (1 + \theta_1 L + \theta_2 L^2 + \ldots + \theta_q L^q) \varepsilon_t \\ & = \varepsilon_t + \theta_1 L\varepsilon_t + \theta_2 L^2\varepsilon_t + \ldots + \theta_q L^q\varepsilon_t\\ & = \varepsilon_t + \theta_1 \varepsilon_{t-1} + \theta_2 \varepsilon_{t-2} + \ldots + \theta_q \varepsilon_{t-q} \end{align*}

En este caso, el proceso MA(q) puede definirse como una generalización del proceso MA(1), el cual posee una media, varianza y correlación dados por

\begin{align*} \mathbb{E}(\widetilde{Y}_t) & = 0 \\ Var(\widetilde{Y}_t) & = \gamma(0) = \sigma^2_{\varepsilon}(1+\theta_1^2+\theta_2^2+\ldots+\theta_q^2) \\ Cov(\widetilde{Y}_t, \widetilde{Y}_{t+k}) & = \gamma(k) = \begin{cases} \sigma_\varepsilon^2 \sum_{j=0}^{q-k}\theta_j\theta_{j+k} & 0\leq k\leq q \\ 0 & k\geq q+1\end{cases} \end{align*}

con $\theta_0 = 1$ y donde se observa que $Var(\widetilde{Y}_t)>Var(\varepsilon_t)=\sigma_\varepsilon^2$. Por consiguiente, se tendrá que todo proceso MA(q) será un proceso estacionario, pero para ser invertible, se requiere que la raíz del polinomio de rezagos $(\Theta_1 (L))$ caiga fuera del circulo unitario. Además, el proceso MA(q) tendrá una memoria limitada a q periodos, ya que, para rezagos $k$ mayores a q, la autocorrelaciones serán iguales a 0.

En Guerrero (2003, p. 81) el autor define a los procesos MA como un proceso en equilibrio, en donde las fluctuaciones alrededor del punto de equilibrio, ${\widetilde{Y}_t}_{t≥1}$, son causadas por choques asociados a eventos inesperados. Tales choques no necesariamente se asimilan de manera instantánea, sino que pueden seguir causando efectos aún después de transcurrido cierto número de períodos y además la intensidad del choque se refleja en el valor de su ponderación $\theta_j$.

Para la identificación de un proceso MA(q) es posible analizar las funciones ACF y PACF, y observar si se cumplen o no los siguientes comportamientos

Proceso Función de autocorrelación (ACF) Función de autocorrelación parcial (PACF)
MA(q) Solo los q primeros coeficientes de autocorrelación son significativos. El resto de coeficientes se anulan luego del q-ésimo rezago (\(\rho(k) = 0\) para retardo \(k>q\)) Decrecimiento rápido exponencial atenuado y/o en ondas sinusoidales.

Similar al caso MA(1), es posible encontrar las restricciones o condiciones que deben cumplir las autocorrelación, para que los picos obtenidos de la ACF correspondan a un proceso MA(q). Dicha condición está dada por \begin{align*} |\rho_k|\leq \begin{cases}cos(\pi/(M+1)) & \text{ si } k \text{ es divisor de } q+1 \\ cos(\pi/(M+2)) & \text{ si } k \text{ no es divisor de } q+1 \end{cases} \end{align*}

donde $M$ es el mayor entero menor o igual a $(q+1)/k$.

A continuación, se realiza la simulación de tres escenarios para ilustrar el comportamiento de la ACF y la PACF de un proceso MA(q).

Modelos autorregresivos (AR)

Los procesos autorregresivos son un tipo de proceso estocástico en el cual el valor actual de una serie está linealmente relacionado con sus valores pasados más una perturbación o choque aleatorio aditivo.

Modelos autorregresivos de orden 1 o AR(1)

Se dice que $\{Y_t\}_{t≥1}$ sigue un proceso de autorregresivo de orden 1 con media cero, si podemos expresar a $\widetilde{Y} = Y_t - \mu$ en términos de un proceso estacionario de media cero, tal que \begin{align*} (1 - \phi_1 L)\widetilde{Y}_t & = \varepsilon_t \\ \widetilde{Y}_t - \phi_1 L\widetilde{Y}_t & = \varepsilon_t \\ \widetilde{Y}_t - \phi_1 \widetilde{Y}_{t-1} & = \varepsilon_t \\ \widetilde{Y}_t & = \phi_1 \widetilde{Y}_{t-1} + \varepsilon_t \end{align*}

con $\varepsilon_t\sim RB(0, \sigma_{\varepsilon}^2)$ independiente de $\widetilde{Y}_{t+k}$ para todo $k>0$. De la ecuación anterior, se observa que se tiene una estructura de regresión entre $\widetilde{Y}_t$ y $\widetilde{Y}_{t-1}$, lo cual indica existe una relación lineal entre las observaciones y los valores de la misma rezagadas un periodo, siendo el parámetro $\phi_1$ el parámetro del modelo.

Además, se puede probar que la media, varianza y autocovarianza del proceso AR(1), bajo el supuesto $|\phi_1|<1$ están dados por \begin{align*} \mathbb{E}(\widetilde{Y}_t) & = 0 \\ Var(\widetilde{Y}_t) & =\gamma(0) = \frac{\sigma^2_{\varepsilon}}{(1-\phi_1^2)} & \text { para } k = 0, \pm 1, \pm 2, \ldots \\ Cov(\widetilde{Y}_t, \widetilde{Y}_{t+k}) & = \gamma(k) = \phi^k \left(\frac{\sigma^2_\varepsilon}{1-\phi_1^2}\right) & \text { para } k = 0, \pm 1, \pm 2, \ldots \end{align*}

lo cual indica que, a medida que $k > 0$ crece, la ACF debe tender a cero, con decaimiento del tipo exponencial cuando $0<\phi<1$ y con signos alternados cuando $-1 < \phi < 0$. La condición $|\phi|<1$ es requerida para que la serie sea estacionaria en covarianza, ya que ésto garantiza que la raíz del polinomio de rezagos caiga fuera del círculo unitario. Adicionalmente, y a diferencia del modelo MA(q), se tiene que todo proceso AR(1) es invertible.

Para la identificación de un proceso AR(1) es posible analizar las funciones ACF y PACF, y observar si se cumplen o no los siguientes comportamientos

Proceso Función de autocorrelación (ACF) Función de autocorrelación parcial (PACF)
AR(1) Decrecimiento rápido exponencial atenuado y/o en ondas sinusoidales. Solo el primer (1) coeficientes de autocorrelación parcial es significativos. El resto de coeficientes se anulan luego del primer rezago (\(\phi_{kk} = 0\) para retardo \(k>1\))

A continuación, se realiza la simulación de tres escenarios para ilustrar el comportamiento de la ACF y la PACF de un proceso AR(1).

Modelos autorregresivos de orden p o AR(p)

Se dice que $\{Y_t\}_{t≥1}$ sigue un proceso de autorregresivo de orden p con media cero, si podemos expresar a $\widetilde{Y} = Y_t - \mu$ en términos de un proceso estacionario de media cero, tal que \begin{align*} (\Phi_p (L))\widetilde{Y}_t & = \varepsilon_t \\ (1 - \phi_1 (L) - \phi_2 L^2 - \ldots - \phi_p L^p)\widetilde{Y}_t & = \varepsilon_t \\ \widetilde{Y}_t - \phi_1 L \widetilde{Y}_t - \phi_2 L^2 \widetilde{Y}_t - \ldots - \phi_p L^p \widetilde{Y}_t & = \varepsilon_t \\ \widetilde{Y}_t - \phi_1 \widetilde{Y}_{t-1} - \phi_2 \widetilde{Y}_{t-2} - \ldots - \phi_p \widetilde{Y}_{t-p} & = \varepsilon_t \\ \widetilde{Y}_t & = \phi_1 \widetilde{Y}_{t-1} + \phi_2 \widetilde{Y}_{t-2} + \ldots + \phi_p \widetilde{Y}_{t-p} + \varepsilon_t \end{align*}

con $\varepsilon_t\sim R.B(0, \sigma_{\varepsilon}^2)$ independiente de $\widetilde{Y}_{t+k}$ para todo $k>0$. Similar al proceso AR(1), se observa que se tiene una estructura de regresión entre $\widetilde{Y}_t$ y $\widetilde{Y}_{t-j}$, con $j = 1,2, \ldots, p$ lo cual indica que existe una relación lineal entre las observaciones y los p periodos pasados de la misma variable.

Adicionalmente, para garantizar que el modelo AR(p) sea estacionario, se requiere que el polinomio de rezagos $(\Phi_p L)=0$, con el fin de que su modulo caiga fuera del circulo unitario. Por otro lado, se tiene que todo proceso AR(p) es invertible.

La media, varianza y autocovarianza del proceso AR(p), bajo la condición de estacionaridad, se obtienen mediante las ecuaciones \begin{align*} \mathbb{E}(\widetilde{Y}_t) & = 0 \\ Var(\widetilde{Y}_t) & =\gamma(0) = \sum_{k=1}^p \phi_k \gamma(k) + \gamma_\varepsilon^2 & \text { para } k = 0, \pm 1, \pm 2, \ldots \\ Cov(\widetilde{Y}_t, \widetilde{Y}_{t+k}) & = \mathbb{E}(Y_tY_{t-k}) & \text{ para } k = 0, \pm 1, \pm 2, \ldots \end{align*}

Para la identificación de un proceso AR(p) es posible analizar las funciones ACF y PACF, y observar si se cumplen o no los siguientes comportamientos

Proceso Función de autocorrelación (ACF) Función de autocorrelación parcial (PACF)
AR(p) Decrecimiento rápido exponencial atenuado y/o en ondas sinusoidales. Solo los p primeros coeficientes de autocorrelación parcial son significativos. El resto de coeficientes se anulan luego del p-ésimo rezago (\(\phi_{kk} = 0\) para retardo \(k>p\))

A continuación, se realiza la simulación de tres escenarios para ilustrar el comportamiento de la ACF y la PACF de un proceso AR(p).

Condiciones de invertibilidad y estacionaridad

Dado que los métodos Box-Jenkins requieren que la serie sea un proceso estacionario e invertible, entonces debe probarse que se cumplan las dos condiciones cuando se tiene un modelo AR o uno MA.

Condición de invertibilidad del proceso MA(q)

Suponga que se tiene que $\widetilde{Y}\sim MA(q)$, entonces $\widetilde{Y}$ puede ser escrito como \begin{align*} \widetilde{Y}_t & = \varepsilon_t + \theta_1 \varepsilon_{t-1} + \theta_2 \varepsilon_{t-2} + \ldots + \theta_q \varepsilon_{t-q} \end{align*} donde \begin{align*} \Theta (L) = (1 + \theta_1 L + \theta_2 L^2 + \ldots + \theta_q L^q) \end{align*}

entonces, si las raíces de $\Theta (z) = 0$, con $z_1, z_2, \ldots, z_q$ cumplen \begin{align*} |z_i|>1 \text{ con } i = 1, 2 . . . , q \end{align*}

se dice que $\widetilde{Y}_t$ es invertible. En R puede emplearse la función polyroot() para el cálculo de la raíz del polinomio y la función Mod() para el cálculo del módulo de la raíz del polinomio. si el resultado es mayor a 1, entonces $\widetilde{Y}_t$ es invertible. Además, como se señaló previamente, un proceso de medias móviles siempre es estacionario!

Condición de estacionaridad del proceso AR(p)

Suponga que se tiene que $\widetilde{Y}\sim AR(p)$, entonces $\widetilde{Y}$ puede ser escrito como \begin{align*} \widetilde{Y}_t & = \phi_1 \widetilde{Y}_{t-1} + \phi_2 \widetilde{Y}_{t-2} + \ldots + \phi_p \widetilde{Y}_{t-p} + \varepsilon_t \end{align*}

donde \begin{align*} (\Phi_p L) = (1 - \phi_1 L - \phi_2 L^2 - \ldots - \phi_p L^p) \end{align*}

entonces, si las raíces de $\Phi_p(z) = 0$, con $z_1, z_2, \ldots, z_p$ cumplen \begin{align*} |z_i|>1 \text{ con } i = 1, 2 . . . , p \end{align*}

se dice que $\widetilde{Y}_t$ es estacionaria. En R puede emplearse la función polyroot() para el cálculo de la raíz del polinomio y la función Mod() para el cálculo del módulo de la raíz del polinomio. si el resultado es mayor a 1, entonces $\widetilde{Y}_t$ es estacionaria. Además, como se señaló previamente, un proceso de autorregresivo siempre es invertible!

Modelos autorregresivos y de medias móviles o ARMA(p,q)

Lo modelos ARMA son conocidos como una generalización de los modelos AR y MA, pues consiste en combinar ambas clases de modelos para obtener lo que se conoce como modelos autorregresivos de medias móviles.

Una forma sencilla de introducir los modelos ARMA(p,q), es partiendo de que $\widetilde{Y}_t = Y_t - \mu \sim$AR(p), y por tanto, éste puede ser escrito como \begin{align*} \widetilde{Y}_t - \phi_1 \widetilde{Y}_{t-1} - \phi_2 \widetilde{Y}_{t-2} - \ldots - \phi_p \widetilde{Y}_{t-p}& = \varepsilon_t \end{align*} donde $\varepsilon_t\sim R.B(0,\sigma_\varepsilon^2)$. Ahora, si se reemplaza $\varepsilon_t$ por un proceso MA(q) \begin{align*} Z_t= \varepsilon_t + \theta_1 \varepsilon_{t-1} + \theta_2 \varepsilon_{t-2} + \ldots + \theta_q \varepsilon_{t-q} \end{align*} entonces, se tendrá que \begin{align*} \widetilde{Y}_t - \phi_1 \widetilde{Y}_{t-1} - \phi_2 \widetilde{Y}_{t-2} - \ldots - \phi_p \widetilde{Y}_{t-p}& = \varepsilon_t + \theta_1 \varepsilon_{t-1} + \theta_2 \varepsilon_{t-2} + \ldots + \theta_q \varepsilon_{t-q} \end{align*}

De lo anterior, se tiene que un proceso ARMA(p,q) se define como un modelo que combina las propiedades de memoria larga de los AR(p) con las propiedades de ruido débilmente autocorrelacionado de los MA(q), lo cual le da suficiente flexibilidad y parsimonia para representar una variedad grande de procesos estacionarios en covarianza.

En general, Se dice que $\{Y_t\}_{t≥1}$ es un proceso de autoregresivo de media móvil de ordenes (p,q), si podemos expresar a $\widetilde{Y}_t = Y_t - \mu$ en términos de un proceso estacionario de media cero, tal que \begin{align*} \Phi_p (L)\widetilde{Y}_t = \Theta_q (L)\varepsilon_t \end{align*}

donde $\Phi_p(z) = 1 - \sum_{j=1}^p\phi_j z^j$ y $\Theta_q(z) = 1 + \sum_{j=1}^q\theta_j z^j$ son los polinomios de rezagos autorregresivo y de medias móviles, respectivamente.

Adicionalmente, dado que el modelo ARMA(p,q) se construye a partir de un modelo AR(p) y un modelo MA(q), se asume que las condiciones de estacionariedad de la parte AR(p) y de invertibilidad de la parte MA(q) se cumplen para el modelo ARMA(p,q), es decir, se tendrá que las raíces de los polinomios $\Phi_p(z)=0$ y $\Theta_q(z)=0$ se encuentran por fuera del circulo unitario (es decir, tienen módulo mayor a uno). También, se asume que los dos polinomios no tienen raíces en común. Si estas dos condiciones se cumplen, se tendrá que el proceso ARMA(p,q) es identificable y estacionario.

Para la identificación de un proceso AR(p) es posible analizar las funciones ACF y PACF, y observar si se cumplen o no los siguientes comportamientos

Proceso Función de autocorrelación (ACF) Función de autocorrelación parcial (PACF)
ARMA(p,q) Decrece a 0 luego del q-ésimo rezago (aproximadamente de forma exponencial atenuada y/o con ondas sinusoidales). El decaimiento a cero no sucede de forma rápida Decrece a 0 luego del q-ésimo rezago (aproximadamente de forma exponencial atenuada y/o con ondas sinusoidales). El decaimiento a cero no sucede de forma rápida

Similar al caso AR y MA, el análisis del ACF y PACF podría ayudar a identificar el tipo de proceso que siguen los datos, pero que en el caso ARMA, no será tan evidente los órdenes p y q del proceso. En consecuencia, debe quedar claro que el análisis de la ACF y la PACF no pretenden determinar los ordenes p y q exactos, si no que busca restringir el rango de valores reales que pueden tener p y q.

A continuación, se realiza la simulación de tres escenarios para ilustrar el comportamiento de la ACF y la PACF de un proceso AR(p).

Bibliografía

Guerrero, V. (2003). Análisis estadístico de series de tiempo económicas (2nd ed.). International Thomson Editores.