Author: Marcos Bujosa
En esta lección veremos algunos modelos de regresión con series temporales; en particular la estimación de componentes (no observables) con modelos deterministas. También los efectos de la autocorrelación en las perturbaciones y como lidiar con ellos.
En la lección anterior vimos que una estrategia para analizar series temporales es transformar los datos para
(recuerde que las expresiones "datos estacionarios" o secuencia de "ruido blanco" son un abuso del lenguaje).
Pero existe otro enfoque que pretende descomponer la serie temporal en los siguientes componentes "no observables" (o en un subconjunto de ellos):
$$\boldsymbol{y} = \boldsymbol{t} + \boldsymbol{c} + \boldsymbol{s} + \boldsymbol{e}$$donde:
La tendencia "$\boldsymbol{t}$": recoge la lenta evolución de la media a largo plazo.
El componente estacional "$\boldsymbol{s}$": recoge las oscilaciones periódicas que se repiten regularmente en ciclos estacionales (de año en año, o de semana en semana, etc.).
El componente cíclico "$\boldsymbol{c}$": Cuando aparece explícitamente en el modelo, $\boldsymbol{c}$ recoge las oscilaciones a medio plazo. Es decir, aquellas de un plazo más largo que las oscilaciones estacionales, pero más corto que la tendencia de largo plazo. Si está ausente, dichas oscilaciones suelen aparecer en el componente de la tendencia, que entonces también podemos denominar tendencia-ciclo.
El componente irregular "$\boldsymbol{e}$": recoge las oscilaciones no captadas por el resto de componentes, ya que debe cumplir la siguiente identidad: $\boldsymbol{e} = \boldsymbol{y} - \boldsymbol{t} - \boldsymbol{c} - \boldsymbol{s}$.
Ajuste aceptable si (como poco) el componente irregular $\boldsymbol{e}$ parece "estacionario".
El modelo de tendencia más simple es la recta de regresión (el regresor no constante es el índice $t$):
$$\ln{y_t}=\underbrace{\beta_1+\beta_2\cdot t}_{\text{tendencia}} + e_t; \quad t=1:114$$Componente irregular
En este caso, el modelo
$$\boldsymbol{y} = \boldsymbol{t} + \boldsymbol{e}$$donde $\boldsymbol{t}$ es una tendencia lineal no es un ajuste satisfactorio, pues el componente irregular $$\boldsymbol{e}=\boldsymbol{y}-\boldsymbol{t}$$ no tiene la apariencia de realización de un proceso estacionario.
Adicionalmente podemos ver que diferencia de orden 12 del componente irregular parece mostrar un componente cíclico con un periodo de unos 4 años.
En el siguiente ejercicio probaremos con una tendencia cuadrática…
Componente irregular
De manera análoga al caso anterior, el modelo
$$\boldsymbol{y} = \boldsymbol{t} + \boldsymbol{e}$$donde $\boldsymbol{t}$ ahora es una tendencia cuadrática tampoco es un ajuste satisfactorio, pues el componente irregular $\boldsymbol{e}$ sigue sin parecerse a la realización de un proceso estacionario.
También en este modelo la diferencia de orden 12 del componente irregular muestra un componente cíclico con un periodo de unos 4 años.
Para obtener una tendencia-ciclo que capte este ciclo, son necesarios procedimientos más sofisticados (por ejemplo TRAMO-SEATS, o X13-ARIMA, o STAMP, o LDHR, o E4, etc.) que estiman tendencias y componentes estacionales estocásticos.
En el siguiente ejercicio estimaremos un componente estacional determinista (junto a una tendencia cuadrática determinista).
Estos modelos resultan útiles para realizar un análisis descriptivo.
Pero suelen funcionar bastante mal como herramienta de predicción:
no tienen en cuenta la dependencia inter-temporal de los datos (se han estimado mediante una regresión como si los datos hubieran sido de sección cruzada)
Por ejemplo, a la hora de prever el dato de enero de 1961, en este modelo pesa tanto el dato de enero de 1949 como el dato de enero de 1960.
En general, para que los modelos funcionen bien en predicción deben dar un mayor peso a los datos recientes frente a los datos alejados en el tiempo.
Pero sigamos explorando este modelo…
Hay parámetros no significativos… (p-valores para dummies enero, febrero y octubre).
podemos eliminarlos secuencialmente (quitando cada vez la variable de mayor p-valor)
Pero esta inferencia es incorrecta. Con auto-correlación la varianza del estimador MCO es diferente (la estimación por defecto de las desviaciones típicas es incorrecta)
Considere el modelo $\boldsymbol{y}=\boldsymbol{\mathsf{X}\beta}+\boldsymbol{U}.\;$ Bajo los supuestos habituales
$$E(\boldsymbol{U}\mid\boldsymbol{\mathsf{X}})=\boldsymbol{0},\quad Var(\boldsymbol{U}\mid\boldsymbol{\mathsf{X}})=\sigma^2\boldsymbol{\mathsf{I}}\quad \text{y} \quad E(\boldsymbol{\mathsf{X'X}}) \text{ es invertible}$$el estimador $\;\widehat{\boldsymbol{\beta}}=(\boldsymbol{\mathsf{X'X}})^{-1}\boldsymbol{\mathsf{X'}Y}\;$ es insesgado y eficiente, con varianza
$$\;Var(\widehat{\boldsymbol{\beta}}\mid\boldsymbol{\mathsf{X}})=\sigma^2(\boldsymbol{\mathsf{X'X}})^{-1}$$Pero si las perturbaciones $\boldsymbol{U}$ del modelo son heterocedásticas y/o autocorreladas $$Var(\boldsymbol{U}\mid\boldsymbol{\mathsf{X}})=\boldsymbol{\Sigma}\ne\sigma^2\boldsymbol{\mathsf{I}}$$ entonces el estimador $\widehat{\boldsymbol{\beta}}$, aunque insesgado, ya no es eficiente; y su varianza es
$$Var(\widehat{\boldsymbol{\beta}}\mid\boldsymbol{\mathsf{X}})=Var(\widehat{\boldsymbol{\beta}}-\boldsymbol{\mathsf{I}}\boldsymbol{\beta}\mid\boldsymbol{\mathsf{X}})= (\boldsymbol{\mathsf{X'X}})^{-1}\boldsymbol{\mathsf{X'}} \boldsymbol{\Sigma} \boldsymbol{\mathsf{X}}(\boldsymbol{\mathsf{X'X}})^{-1}.$$El tests Breusch-Godfrey (y el Durbin-Watson) contrastan la $H_0$ de no autocorrelación.
Considere el modelo de regresión lineal
\begin{equation} \label{orgfb9f4c0} Y_t = \beta_1+ \beta_2 X_{t,1} + \cdots + \beta_k X_{t,k+1} + U_t \end{equation}donde las perturbaciones $\boldsymbol{U}$ quizá siguen un esquema auto-regresivo $AR(p)$:
$$U_t = \rho_1 U_{t-1} + \rho_2 U_{t-2} + \cdots + \rho_p U_{t-p} + \varepsilon_t$$Asintóticamente y bajo la $H_0$ de no autocorrelación: $\quad\rho_i = 0\text{ para todo }i$
$$n R^2\,\sim\,\chi^2_p,$$donde $R^2$ es el coeficiente de determinación de la regresión auxiliar y $n=T-p$.
Un procedimiento adecuado en presencia de autocorrelación y muestras grandes consiste en usar errores estándar robustos (HAC - heteroscedasticity and autocorrelation robust covariance matrix) al realizar inferencia con la estimación de los parámetros.
las estimaciones serán insesgadas, consistentes pero ineficientes,
los residuos son los mismos y, por tanto, estarán autocorrelados, aunque
la inferencia a partir de errores estándar robustos será válida
Ahora, y empleando errores estándar robustos (HAC), podemos reducir el modelo de manera más cuidadosa usando desviaciones típicas robustas. El modelo reducido es…
En el modelo $\boldsymbol{y}=\boldsymbol{\mathsf{X}\beta}+\boldsymbol{U},\;$ si las perturbaciones presentan heterocedasticidad y/o auto-correlación, y por tanto $$Var(\boldsymbol{U}\mid\boldsymbol{\mathsf{X}})=\boldsymbol{\Sigma}\ne\sigma^2\boldsymbol{\mathsf{I}},$$ el Teorema de Gauss-Markov ya no es válido, ya que es posible explotar la estructura de la matriz $\boldsymbol{\Sigma}$ para minimizar la varianza del estimador.
En particular, el estimador lineal de mínima varianza es el estimador MCG (mínimos cuadrados generalizados)
$$\;\widehat{\boldsymbol{\beta}}=(\boldsymbol{\mathsf{X'}}\boldsymbol{\mathsf{\Sigma}}^{-1}\boldsymbol{\mathsf{X}})^{-1}\boldsymbol{\mathsf{X'}}\boldsymbol{\mathsf{\Sigma}}^{-1}\boldsymbol{y}\;$$El problema es que, en general, la matriz $\boldsymbol{\Sigma}$ es desconocida.
Una solución es aplicar un procedimiento iterativo en el que se estima la matriz $\boldsymbol{\Sigma}$ empleando los errores del ajuste de una primera regresión. Con dicha matriz $\widehat{\boldsymbol{\Sigma}}$ se re-estima el modelo por MCG… con los nuevos errores se re-estima $\boldsymbol{\Sigma}$… y vuelta a empezar…
El algoritmo se detiene cuando las estimaciones convergen a valores estables.
Cuando realizamos el Test de Breusch-Godfrey vimos que en la regresión auxiliar el primer retardo de los errores era significativo. Por tanto, vamos a indicar que las perturbaciones siguen un proceso AR(1). El decir, vamos a estimar el modelo
$$\ln{y_t}=\underbrace{\beta_1+\beta_2\cdot t+\beta_3\cdot t^2}_{\text{tendencia}} + \underbrace{\alpha_1 S_{t1} + \alpha_3 S_{t3} + \cdots + \alpha_11 S_{t11}}_{\text{comp. estacional}} + \epsilon_t$$donde las perturbaciones $\boldsymbol{\epsilon}=\{\epsilon_t\}$ siguen el modelo
$$\epsilon_t = \rho_1 \epsilon_{t-1} + e_t$$(en este caso la estimación (GLSAR) converge en 7 iteraciones)