Analisis Serie de Tiempo - Flores_santillan_salvador_2008_2[1]

download Analisis Serie de Tiempo - Flores_santillan_salvador_2008_2[1]

of 107

Transcript of Analisis Serie de Tiempo - Flores_santillan_salvador_2008_2[1]

Anlisis de Series de TiempoNote que dada la estructura de n , diferenciar la funcin de verosimilitud es muy complicado y por tanto difcil de optimizar. En estos casos, se aplican mtodos numricos con estimadores iniciales dados en la estimacin preliminar. Podemos transformar la distribucin conjunta usando las innovaciones X j respectivas varianzasj 1

X j y sus

calculadas recursivamente por el algoritmo de Innovaciones.

Xn

Recordemos que por el algoritmo de innovaciones, se tiene la igualdad: Cn ( X n X n )

Por otra parte, sabemos que las innovaciones son no correlacionadas, por lo tanto la matriz de covarianzas de las innovaciones es la matriz diagonal Dn siguiente:Dn diag{ 0 , 1 ,...,n 1

}

Por la igualdad anterior y la matriz D, se tiene que:n ' C n Dn C n

' Usando las igualdades anteriores, podemos ver que la forma cuadrtica X n dada por:

1 n

X n est

Xn

'

1 n

Xn

(X n

X n )' Dn 1 ( X n

X n)

n

(X jj 1

X j )2 /

j 1

Recordemos, tambin, que Cn es una matriz triangular con elementos en la diagonal igual a uno, por lo tanto su determinante es uno. De donde:n ' Cn Dn Cn

Cn Dn

2

Dn

0 1

...

n 1

Sustituyendo, la funcin de distribucin conjunta inicial se reduce a:

L(

n)

1 (2 )n 0 1 ... n 1

exp{

1 2

n

(X jj 1

X j )2 /

j 1

}

Si n puede ser expresada en trminos de un nmero finito de parmetros desconocidos, como es el caso de un proceso ARMA(p,q), entonces los estimadores de Mxima Verosimilitud de los parmetros son los valores que maximizan la funcin L para el conjunto de datos dado. La verosimilitud para los datos de un proceso ARMA(p,q) puede ser calculada recursivamente por el algoritmo de innovaciones.

96

Anlisis de Series de TiempoAs, el predictor de Xn+1, como su error cuadrado medio estn dados por:n nj

(X n ....

1 j

Xn Xn

1 j

) ,n

1 n (X n Xn ) , n m

m

Xn

j 1 1 1

Xn

p

1 p j 1

nj

1 j

1 j

y E( X n1 j

Xn

1 j

)2

2

E (Wn

1

Wn 1 ) 2

2

rn

donde nj y rn son determinados por el algoritmo de innovaciones y m=max(p,q). De esta forma, la funcin de verosimilitud para el proceso ARMA(p,q) es:

L( , ,

2

) (2

12 n

exp{1

1 22

n j 1

(X j rj

X j )21

}

) r0 r1 ...rn

Derivando parcialmente el logaritmo de L con respecto a la varianza del ruido blanco y teniendo que X j y rj son independientes de 2 , encontramos los estimadores de mxima verosimilitud.

S ( , ) n donde 2

S ( , )

n

(X jj 1

X j ) 2 / rj

1

y , son los valores que minimizann

l( , )

ln( n S ( , )) n

1

1 j 1

ln( r j 1 )

El criterio de seleccin del orden del modelo es la minimizacin del AICC. Este criterio consiste en escoger p, q, p y q que minimicen la cantidad:

AICC

2 ln(

p

,

q

, S(

p

,

q

) / n) 2( p q 1)n /( n

p q 2)

Una de las opciones del programa ITSM es un autoajuste del modelo. Esto se lleva a cabo seleccionando Model>Estimation>Autofit. La seleccin de esta opcin nos permite especificar un rango de los valores de p y de q (el rango mximo es de 0 a 27 para ambos, p y q). El modelo elegido es el que tenga mnimo AICC y una vez que el modelo ha sido determinado, debe ser estimado por mxima verosimilitud. Ms adelante se ejemplificar la teora. En S-PLUS la funcin de estimacin por mxima Verosimilitud es: arima.mle(x, model, n.cond=>, xreg=NULL, ...) 97

Anlisis de Series de TiempoPara hacer inferencia sobre los parmetros se usan resultados asintticos, es decir, se suponen muestras grandes. En este caso, consideremos el vector de parmetros ( , )' , entonces para una muestra grande: N ( , n 1V ( ))

donde V ( ) es la matriz Hessiana definida por:2 p q

V( )

l( )i j i, j 1

Si se quiere probar la hiptesis H0: parmetro=0, la prueba se lleva a cabo calculando el cociente: parmetro 1.96 * EE ( parmetro) La regla de decisin es rechazar H0 si el cociente anterior se encuentra fuera del intervalo [-1,1]. Ejemplo V.2.1. Consideremos los datos del nivel del Lago Hurn (ver ejemplo V.1.2) y ajustemos un modelo por mxima verosimilitud. Solucin. Recordemos que en la estimacin preliminar se encontr que el mejor modelo ajustado (mnimo AICC) a los datos corregidos por la media fue el modelo ARMA(1,1): X(t) = Y(t) - 9.0041 Method: Innovations ARMA Model: X(t) - .7234 X(t-1) = Z(t) + .3596 Z(t-1) WN Variance = .475680 AICC = .212894E+03 El siguiente paso es ajustar el modelo por mxima verosimilitud usando como estimacin preliminar el modelo ARMA(1,1). Usando la funcin arima.mle de S-PLUS obtenemos:Coefficients:

AR : 0.75544

MA : -0.30721

Variance-Covariance Matrix: ar(1) ma(1) ar(1) 0.005949613 0.004373168 ma(1) 0.004373168 0.012550728

98

Anlisis de Series de TiempoOptimizer has converged Convergence Type: relative function convergence

AIC: 207.81105 Los resultados anteriores se obtienen escribiendo las instrucciones:Lake.corr Time Series> ARIMA Models y especificamos 1 en Autorregresive (p) y 1 en Moving Avg. (q). Finalmente, en la pestaa Diagnostics marcamos Autocorrelation of Residuals y Plot Diagnostics.

100

Anlisis de Series de TiempoGrfica24. ACF y PACF de los residuales despus de ajustar un modelo ARMA(1,1) a la serie nivel del lago Hurn.A RIMA Model Diagnostics: Lake$V 11.0ACF Plot of Residuals

ACF

-1.0

-0.5

0.0

0.5

0

5

10

15

20

PACF Plot of Res iduals

PACF

-0.2

-0.1

0.0

0.1

0.2

5

10

15

20

ARIMA(1,0,1) M odel wi th Mean 0

V.3.2. Prueba de puntos cambiantes (turning points) Esta prueba consiste en determinar si los residuales forman un patrn aleatorio. Supongamos que tenemos una muestra aleatoria y1 ,..., y n . Se dice que la i-sima observacin es un punto cambiante si:yi1

yi

y

yi

yi

1

o

yi

1

yi

y

yi

yi

1

Si definimos a T como el nmero de puntos cambiantes en una sucesin de variables aleatorias iid de tamao n, entonces, dado que la probabilidad de que haya un punto cambiante en el tiempo i es 2/3, el valor esperado de T es:T

E(T )

2(n 2) / 3

Tambin, la varianza de T es:Var (T ) (16n 29) / 90 Por otro lado, para una muestra iid grande, puede mostrarse que:2 T

Tp

TT

T

N (0,1)

Con esto, podemos llevar a cabo la prueba de hiptesis de que los residuales son aleatorios, usando el criterio de decisin:

101

Anlisis de Series de TiempoRechazar H0: La muestra es aleatoria, al nivel de significancia si T pZ1/2

Z1

/2

, donde

es el cuantil 1- /2 de la distribucin Normal estndar.

V.3.3. Prueba de signo (difference-sign) En esta prueba se cuenta el nmero de observaciones i tales que yi yi 1 , i 1,..., n . Definimos a S como el total de tales observaciones. Entonces, bajo el supuesto de muestra aleatoria, se tiene que:S

E (S ) Var ( S )

(n 1) / 2 (n 1) / 12

y2 S

De la misma forma que para T, para un valor grande de n, se tiene que:

Sp

SS

S

N (0,1)

Un valor grande, en valor absoluto, de S S indicara la presencia de un incremento (o decremento) en la tendencia de los datos. De aqu que, rechazaremos la hiptesis de tendencia en los datos al nivel de significancia si S p Z 1 / 2 , donde Z1 / 2 es el cuantil 1/2 de la distribucin Normal estndar. Las tres pruebas mencionadas, entre otras, son calculadas por el programa ITSM usando la opcin Statistics>Residual Analysis>Test of Randomness. S-PLUS slo ofrece la estadstica de Ljung-Box que se distribuye como Ji-Cuadrada. Para obtenerla, en el cuadro de dilogo que aparece despus de Statistics> Time Series> ARIMA Models, en la pestaa Diagnostics marcamos la opcin Portmanteau Statistics. Es claro que, si no se ha ajustado algn modelo a los datos, los residuales son los mismos que las observaciones. Esto significa que podemos llevar a cabo las pruebas para las observaciones (cuando no se ha ajustado algn modelo), como para los residuales. Ejemplo V.3.1. Consideremos los datos del archivo SIGNAL.TXT. Veremos las opciones que ofrecen ambos programas, ITSM-2000 y S-PLUS, para llevara cabo las pruebas de bondad de ajuste.

102

Anlisis de Series de TiempoGrfica25. Valores simulados de la serie X(t)=cos(t) +N(t), t=0.1,0.2,,20, donde N(t) es WN(0,0.25).3

2

1

signal

0

-1

-2

-3 30 80 130 180

En primer lugar, veremos la grfica de la funcin de autocorrelacin. Grfica26. ACF de la serie X(t)=cos(t) + N(t), t=0.1,0.2,,20, donde N(t) es WN(0,0.25).Series : signal$signal

0.00

0.2

ACF 0.4

0.6

0.8

1.0

5

10 Lag

15

20

Las grficas 25 y 26 son resultado de las instrucciones:guiPlot(PlotType="Y Series Lines", Columns=1, DataSet="signal") acf(x = signal$signal, type = "correlation")

donde signal es el Dataset con los datos de la serie simulada. Note que algunas observaciones (ms de dos) salen de las bandas de confianza, por tanto rechazaremos la hiptesis de que la serie es independiente. La estimacin preliminar de Yule-Walker sugiere ajustar un modelo AR(7) a los datos corregidos por la media. Ajustando este modelo, podemos verificar si los residuales cumplen con las pruebas de bondad de ajuste. En ITSM se obtienen mediante Statistics>Residual Analysis> Test of Randomness. Los resultados son: ============================================ ITSM::(Tests of randomness on residuals) ============================================ Ljung - Box statistic = 16.780 Chi-Square ( 20 ), p-value = .66719 103

Anlisis de Series de TiempoMcLeod - Li statistic = 25.745 Chi-Square ( 27 ), p-value = .53278 # Turning points = .13600E+03~AN(.13200E+03,sd = 5.9358), p-value = .50039 # Diff sign points = .10300E+03~AN(99.500,sd = 4.0927), p-value = .39245 Rank test statistic = .10083E+05~AN(.99500E+04,sd = .47315E+03), p-value = .77864 Jarque-Bera test statistic (for normality) = 3.8175 Chi-Square (2), p-value = .14826 Order of Min AICC YW Model for Residuals = 0 El programa ITSM nos da el p-value. La regla es rechazar la hiptesis nula al nivel de significancia si > p-value. Si establecemos un nivel de significancia del 5%, podemos ver que, utilizando cualquier estadstica, no se rechaza la hiptesis nula de que los residuales forman una serie iid. En S-PLUS seleccionamos la opcin Statistics> Time Series> ARIMA Models, especificamos 7 en Autorregresive (p), y marcamos las opcin Portmanteau Statistics y Plot Diagnostics en la pestaa Diagnostics. Obteniendo:A RIMA Model Diagnostics: signal$V 2

P-values of Ljung-Box Chi-Squared Statistic s

p-value

0.0

0.2

0.4

0.6

8.0

8.5

9.0 Lag

9.5

10.0

ARIMA(7,0,0) M odel wi th Mean 0

En conclusin, el modelo propuesto para los datos corregidos por la media, AR(7), resulta bueno, pues los residuales cumplen satisfactoriamente con las pruebas de bondad de ajuste.

104

Anlisis de Series de TiempoCAPITULO VI. MODELOS NO-ESTACIONARIOS En la mayora de los casos, las observaciones no son generadas por series de tiempo necesariamente estacionarias, por lo que en este captulo este tipo de conjunto de datos ser nuestro objetivo de estudio. El tipo de modelo que analizaremos en la siguiente seccin sern los modelos ARIMA (Autorregresivo Integrado de Promedio Mvil). VI.1. MODELOS ARIMA PARA SERIES NO-ESTACIONARIAS Cuando ajustamos un modelo ARMA a una serie diferenciada, en realidad estamos ajustando un modelo ARIMA a los datos originales. Es decir, un modelo ARIMA es un proceso que se reduce a un proceso ARMA cuando diferenciamos un nmero finito de veces. Definicin VI.1.1. [Modelo ARIMA(p,d,q)].- Si d es un entero no-negativo, entonces { X t } es un proceso ARIMA(p,d,q) si Yt (1 B ) d X t es un proceso ARMA(p,q) causal. Esto significa que:( B)Yt*

( B) Z t ( B) Z t ( B) Z t

( B)(1 B) d X t ( B) X t

Note que el proceso { X t } es estacionario si y solo si d=0. Si es el caso, entonces el proceso se reduce a un ARMA(p,q). Ejemplo VI.1.1. Supongamos que { X t } es un proceso ARIMA(1,1,0). Podemos escribir el modelo como:Y1 Y2 Yn Yn1

X1 X2 Xn Xn

X0 X1 Xn1

X1 X2 Xn

Y1 Y2 Yn1

X0 Y1 Yn Xn X0 Y1 Yn1

1

1

X0n 1

Xn

Xn

X0j 1

Yj

Esto significa que, para predecir al proceso { X t } , primero podemos predecir el proceso {Yt } y agregar la observacin inicial. Esto es,

105

Anlisis de Series de Tiempon 1

Pn X n o Pn X n

1

X0j 1

PnY j

1

Pn ( X n

Yn 1 )

Xn

Pn Yn

1

Asumiendo que el proceso { X t } satisface Yt como:d

(1 B ) d X t . Podemos reescribirlo

Xt

Ytj 1

( 1) j

d j

Xt

j

De aqu que, el procedimiento de prediccin se puede generalizar, de modo que, para un proceso ARIMA(p,d,q), se tiene:d

Pn X n

h

PnYn

h j 1

( 1) j

d j

Pn X n

h j

donde {Yt } es un proceso ARMA(p,q) causal. Con respecto al Error Cuadrado Medio. Tenemos que, para cualquier h:d

Pn X n

h

Xn

h

PnYn

h j 1

( 1) j

d j

d

Pn X n

h j

Yn

h j 1

( 1) j

d j

Xn

h j

Para h=1, la expresin se reduce a:d

Pn X n

1

Xn

1

PnYn PnYn

1 j 1 1

( 1) j Yn1

d j

d

Pn X n

1 j

Yn

1 j 1

( 1) j

d j

Xn

1 j

Por lo tanto,E Pn X n1

Xn1

2 1

E PnYn

1

Yn1

2 1

ECM X n

ECM Yn

Hemos llegado a una expresin que nos dice que, para h=1, el ECM de la prediccin de la observacin no estacionaria es igual al ECM de la estacionaria. Por otra parte, sabemos que, bajo el supuesto de causalidad en {Yt } ,

106

Anlisis de Series de TiempoYtj 0 j

Zt

j

(1 B ) d X tj 0

j

Zt

j

( B) Z t

Xt Xt

( B) Zt (1 B ) d* j j 0

Zt

j

Note que, segn la expresin anterior, podemos expresar la serie no estacionaria como un proceso lineal en trminos de los coeficientes lineales de la serie estacionaria. Ejemplo VI.1.2. Consideremos los datos del ndice de Utilidad Dow Jones (del 28 de Agosto al 18 de Diciembre de 1972). El archivo es DOWJ.TXT. Recordemos que para esta serie de datos se tuvo que diferenciar una vez a distancia uno para tener una serie estacionaria. As mismo, se ajust un modelo AR(1) para los datos corregidos por la media (ver ejemplo V.1.1), teniendo como resultados aplicando Mxima Verosimilitud:> media [1] 0.1336364 $var.pred: [,1] [1,] 0.1518409 Coefficients: AR : 0.4483 Variance-Covariance Matrix: ar(1) ar(1) 0.01051349

Las instrucciones son:dif.DJSpecify y marcamos la opcin Include Intercept term, luego seleccionamos la opcin Regression>Estimation>Least Squares. El siguiente paso es ajustar un modelo ARMA a la serie {Wt}. Para ello, seguimos los pasos Model>Estimation>Autofit (seleccionar el modelo ARMA con mnimo AICC): Method: Maximum Likelihood Y(t) = M(t) + X(t) Based on Trend Function: M(t) = - 4.0350877 ARMA Model: X(t) = Z(t) - .8177 Z(t-1) WN Variance = .204082E+04 Con esto, podemos obtener una nueva estimacin para el modelo de regresin por el mtodo de MCG. Para ello, seleccionamos la secuencia (en ITSM) Regression> Estimation> Generalized LS y los resultados aparecern en la ventana Regression Estimates. Method: Generalized Least Squares Y(t) = M(t) + X(t) Trend Function: M(t) = - 4.7449426 ARMA Model: X(t) = Z(t) - .8177 Z(t-1) WN Variance = .204082E+04 Como vimos en el desarrollo de la teora, el proceso es iterativo, por lo que tenemos que ajustar nuevamente el modelo para los errores. Esto se logra en ITSM presionando el botn azul superior MLE: Method: Generalized Least Squares Trend Function: M(t) = - 4.7799300 ARMA Model: X(t) = Z(t) - .8475 Z(t-1) WN Variance = .201992E+04 Despus de 4 iteraciones el proceso converge como se puede ver en el siguiente cuadro resumen:

Cuadro3. Resumen del ejemplo regresin con errores ARMA. (i ) Iteracin i (i ) 1 2 3 4 0 - 4.0350877 - .8177 - 4.7449426 - .8475 -4.77992996 - .8475 -4.77992996

En S-PLUS se usan, iterativamente, las instrucciones:

121

Anlisis de Series de Tiempomedia|t|) 0.0002 0.0002 0.0163

X t sobre Xt-1 y

Xt 1.

donde: V1:= X t 1 ; lake:= Xt-1, t=3,,98. De los resultados podemos ver que: 0.21584 0.05538 3.9

125

Anlisis de Series de TiempoDe acuerdo a la regla de decisin de Dickey Fuller, a un nivel de significancia del 1%, D / F0.01 (-3.9 -3.43) . Con esto, se rechaza la hiptesis de raz unitaria, pues concluimos que ajustando un AR(2) no existe raz unitaria. VI.4.2 Races Unitarias en el polinomio de Promedio Mvil La interpretacin de la existencia de races unitarias en el polinomio de promedio mvil depende de la aplicacin del modelo. Una de ellas es, como ya se mencion, que la serie est sobrediferenciada. Supongamos que {Xt} sigue un proceso ARMA(p,q) invertible, por lo que satisface: ( B) X t ( B ) Z t , Z t WN (0, 2 )X t es un proceso ARMA(p,q+1) no invertible Entonces, la serie diferenciada Yt con polinomio de promedio mvil dado por: ( z )(1 z ) . De aqu que, probar la existencia de raz unitaria es equivalente a probar que la serie est sobrediferenciada.

En la presente, nos limitaremos al caso de races unitarias en procesos MA(1). Supongamos que {Xt} forma un proceso MA(1):Xt Zt1

Zt , Zt

IID (0,

2

)

Supongamos, tambin, la existencia de raz unitaria (z=1), por lo que el polinomio de promedio mvil z 1 0 implica que 1 . Esta ltima igualdad es, de hecho, la hiptesis por probar. Bajo esta hiptesis, [Davis y Dunsmuir (1995)] mostraron que n( +1), donde es el estimador de Mxima Verosimilitud de , tiene la propiedad de converger en distribucin. Lo anterior se resume en probar el juego de hiptesis:H0 : 1 v.s H1 : 1

La regla de decisin es: Si

1 C /n 1 C /n

Rechazar H 0 No Rechazar H 0

donde C es el (1-) cuantil de la distribucin lmite de n( +1). Los valores crticos de esta distribucin se muestran en el siguiente cuadro para tres niveles de significancia, los cuales fueron extrados de la tabla 3.2 de [Davis, Chen y Dunsmuir (1995)]: Cuadro7. Valores crticos de la estadstica C. C 0.01 11.93 0.05 6.80 0.10 4.90

126

Anlisis de Series de TiempoNote que la desigualdad de la regla de decisin es resultado de la desigualdad 1) C . n( Cabe mencionar que existe otra estadstica de prueba para probar el mismo juego de hiptesis (de raz unitaria) que consiste en la prueba de Razn de Verosimilitud. Para ms detalles consultar [Brockwell y Davis (2002) pp. 197]. Ejemplo VI.4.1. Consideremos la serie de datos del ejemplo VI.3.1 (57 observaciones de cantidad de gasolina en un tanque estacionario). Recordemos que el modelo ajustado para los datos corregidos por la media fue: ARMA Model: X(t) = Z(t) - .8177 Z(t-1) WN Variance = .204082E+04 De acuerdo a la regla de decisin descrita arriba, al 5% de significancia, tenemos que: 0.8177 1 C 0.05 / n 1 6.8 / 57 0.881 1 C 0.05 / n

Rechazar la hiptesis de raz unitaria en el polinomio de promedio mvil. Ntese que en este ejemplo consideramos que la media es conocida. En la prctica, la prueba debe ser ajustada por el hecho de que la media tambin debe ser estimada.

127

Anlisis de Series de TiempoCuadro8. Autocovarianzas de algunos modelos estacionales. Modelo (Autocovarianza de Xt)/20

Algunas caractersticas

(1 (1 (1s 1

2

)(12

2

)(a)

Xt s 3

(1 Zt

B)(1 Zt1

B s )Z t Zts

1

)s 1 s 1 s 1 s 1 s 1

Zt

s 1

s 1s s 1

2

)

(b)

Las dems son cero

(1 Xt s 3

Bs )X t Xts

(1 Zt

B )(1 Zt1

B s )Z t Zts

0

(1 1

2

)1 ( 1

( 1 )22

)22

Zt

(a) (b)

s 1 j

s 1 j s

s 1

1

,j

s

2

s 1

( 1 (1s 1 j s 2

)22

s

)

( 1 s3

)22

s 1 j

,j2

2s 2

Para s 4,

,

,...,

son cero

128

Anlisis de Series de TiempoModelo (Autocovarianza de Xt)/2 Algunas caractersticas

Xt

(1 Zt2

1

B1

2

B 2 )(12Zt 2 2

1

Bs1Z t s 2

2

B 2s )Z t1 1Z t 2s 1 s 1 2 2

0 1

(11

2 1

2 2 2

)(12 1 2 2 2 2

2 1 2 2

2 2

)

(a) (b) (c ) (d )

s 2 s 1 2s 2 2s 1

s 2 s 1 2s 2 2s 1

1Z t 1

(1 (11 1

)(12 1

)

Zt

s 2

Zt

2s

1

Zt

Zt

2s 2

2 s 2 s 1 ss 1 s 2 2s 2 2s 1 2s 2s 1 2s 2

2 2 1

)2 2

s

5

(12 2 1

) )2 2 2 2

(1

)(1 )(1

1

(1

)

s 1 s 2 2 1 2 2 2

(12 1

2

)2 2

(1

)

2s 1 2s 2

El resto son igual a cero

129

Anlisis de Series de TiempoModelo (Autocovarianza de Xt)/21

Algunas caractersticas(a ) En general,s 1 s 1 s 1 s 1

Xt s 3

(1 Zt

B Zt1

s

Bss

s 1

B s 1 )Z ts 1

0 1 s 1 s s 1

11 1 1

2 1 s s s 1 s 1

2 s s 1

2 s 1

1

Zt

s

Zt

s 1

s

(1 Xt s 3

Bs )X t Xts

(1 Zt

1 1

B Zt1

s

Bss

s 1 s

B s 1 )Z ts 1

0

11

2 1

( (s

s

)22

(1

s 1

Zt

Zt

1 )( 1

s 1

1

s 1 2

1 )1 2

1 2

)2

(a ) (b)

s 1 j

s 1 j s

,j

s

2

s 1

( ( (

s

) )1

(1

s 1

)

1 ( 1 )1 s 2

) ( ( 1 )

s

s

s 1

1 2

s 1

1

1s 2

s 1

(

s 1

1

)1 2s 2

)

j

j s

,j2

s3

Para s

4,

,

,...,

son cero

130

Anlisis de Series de TiempoCAPITULO VII. SERIES DE TIEMPO MULTIVARIADAS El anlisis de series de tiempo multivariadas consiste, esencialmente, en analizar varias series de tiempo a la vez. Este anlisis es justificable, puesto que en la prctica es difcil que una variable acte por si misma. Es decir, muchas veces hay una interdependencia entre varias variables. Supongamos dos series {Xt1} y {Xt2}. Cada una de ellas las podemos analizar por separado como series univariadas, sin embargo puede que exista algn tipo de dependencia entre ambas variables y tal dependencia puede ser de gran importancia cuando se tenga inters en predicciones futuras de las variables. Sin perdida de generalidad se dar el caso de dimensin 2, ya que su extensin a dimensin k es muy sencilla. Consideremos la serie bivariada X t ( X t1 , X t 2 ) ' . Definimos la funcin vectorial promedio como sigue:

EX t1t

EX t 2

y la funcin matricial de covarianzas como:

(t h, t )

Cov( X t h , X t )

cov( X t cov( X t

h ,1 h, 2

, X t1 ) , X t1 )

cov( X t cov( X t

h ,1

, X t2 ) , X t2 )

h, 2

Cuando la funcin vectorial promedio y la funcin matricial de covarianzas de la serie bivariada X t ( X t1 , X t 2 ) ' no depende de t, se dice que es estacionaria en sentido dbil, en cuyo caso usamos la notacin:

EX t1 EX t 2y( h) Cov( X t h , X t )11 21

( h) ( h)

12 22

( h)

( h)

Note que los elementos de la diagonal de la matriz de covarianzas son las funciones de autocovarianzas univariadas de cada serie. Mientras que, los elementos fuera de la diagonal son las covarianzas cruzadas. Es decir: ii (h) Xi ( h) . Ms adelante enumeraremos algunas de las propiedades de (h ) para las series multivariadas. Ejemplo VII.1. Consideremos el archivo LS2.TXT. Los datos de la serie uno corresponden a ventas {Yt1, t=1,,150}; la segunda serie muestra un indicador de direccin de ventas, {Yt2, 131

Anlisis de Series de Tiempot=1,,150}. Para graficar las series, seleccionamos la columna ventas del dataset LS2 y seleccionamos la opcin de grfica Y Series Line. Lo mismo para la columna indicador. Grfica33. Serie bivariada: ventas e indicador de ventas.14

260

13

24012

indicador220 200

ventas

11

10

5

30

55

80

105

130

155

5

30

55

80

105

130

155

> > > > >

num.datos 150 media.ventas 11.84673 media.indicador 229.978 desv.est.ventas 1.215853 desv.est.indic 21.47969

La grfica de las series muestra que ambas series son no estacionarias, por lo que es necesario diferenciarlas a distancia uno. La grfica resultante de las series diferenciadas {Dt1} y {Dt2} es: Grfica34. Serie (1 B) X t , donde X t es la serie bivariada: ventas e indicador de ventas.

4 0.5

2

vent.dif

0.0

ind.dif0 -2 -4 5 30 55 80 105 130 155 5 30 55 80 105 130 155

-0.5

-1.0

Las instrucciones para hacer las grficas de las series diferenciadas son:vent.difAR Model. 151

Anlisis de Series de TiempoAparecer una ventana con diferentes opciones, entre ellas, el nmero de observaciones posteriores que desea calcular, si desea calcular las predicciones para los datos diferenciados o para los datos originales y si desea graficar bandas de confianza para los valores predichos. Cuando d clic en OK aparecer la grfica de los datos originales y los predichos, para ver los valores calculados d clic en la grfica con el botn derecho del ratn y elija la opcin INFO.

152

Anlisis de Series de TiempoCAPITULO VIII. MODELOS ESPACIO-ESTADO Los modelos de espacio-estado, junto con las recursiones de Kalman, ofrecen una alternativa del anlisis de series de tiempo. Estos modelos han tenido un gran impacto en muchas reas relacionadas con las series de tiempo, como lo son el control de sistemas lineales. El anlisis de estos modelos se basa, principalmente, en la representacin de los componentes de la serie (tendencia, estacionaridad y ruido) en dos ecuaciones, una de ellas dada por las observaciones y la otra por el proceso que forma. Veremos que los modelos ARMA(p,q) son un caso particular de los modelos espacioestado. Esto significa que el anlisis de modelos espacio-estado puede incluir modelos ms generales que los ARMA(p,q) que analizamos en captulos anteriores. VIII.1. REPRESENTACIN DE LOS MODELOS ESPACIO-ESTADO Consideremos la serie de tiempo multivariada {Y t , t 1,2,...} . El modelo de espacioestado para esta serie consiste en dos ecuaciones. La primera expresa a {Y t } en funcin de una variable estado {X t } . La segunda ecuacin determina el estado X t 1 en el tiempo t+1 en trminos de los estados previos X t . Algebraicamente, el modelo general espacio-estado est dado por:Yt Xt1

Gt X t Ft X t

Wt Vt ,

,

t t

1,2,... 1,2,...

(Ecuacin de observaci n) (Ecuacin de estado)

donde : Y t : serie de datos de dimensin w X t : variable de dimensin v Wt Vt WN (0, {Rt }) WN (0, {Qt })

{Gt } : secuencia de matrices w x v {Ft } : secuencia de matrices v x v E (W t V s )'

0

s,t

En muchos casos particulares, como en los modelos ARMA(p,q), se asume que las matrices Gt, Ft, Rt y Qt no dependen del tiempo en que se observan. En ese caso, no es necesario el subndice t. Definicin VIII.1.1. [Representacin espacio-estado].- Una serie de tiempo {Y t , t 1,2,...} tiene una representacin espacio-estado si existe un modelo espacio-estado para la serie dado por las ecuaciones generales de observacin y estado.

153

Anlisis de Series de TiempoEjemplo VIII.1.1. Consideremos el modelo AR(1) causal univariado dado por: Yt con {Z t } WN (0,2

Yt

1

Zt

) . La representacin espacio-estado para este modelo es sencilla.

Consideremos la secuencia de variables estado:Xt Xt1

Zt

(Ecuacin de estado)

Entonces, la ecuacin de observacin est dada por:Yt Xt

(Ecuacin de observacin) y Qt2

Note que, para este modelo, Gt=1, Wt=0, Ft

.

Ejemplo VIII.1.2. Consideremos el modelo ARMA(1,1) causal univariado dado por: Yt Yt 1 Z t 1 Z t con {Z t } WN (0, 2 ) . Veamos si se puede representar como un modelo espacio-estado. Consideremos la variable de estado {X t } dada por:

Xt Xt1

0 1 Xt 0 Xt

1

0 Zt1

(Ecuacin de estado)

Entonces, si planteamos la ecuacin de observacin como:

Yt

1

Xt Xt

1

(Ecuacin de observacin)

sustituyendo la variable de estado y desarrollando, obtenemos:

Yt Xt1

1

Xt Xt Xt1

1

1 Zt

0 1 Xt 0 Xt

2 1

0 Zt

1

Xt Xt1

1

Zt

En conclusin, el modelo ARMA(1,1) se puede representar como un modelo espacioestado. Ejemplo VIII.1.3. Consideremos el modelo MA(1) causal univariado dado por: Yt2

Yt

1

Zt

con {Z t } WN (0, ) . La representacin de este modelo en forma espacio-estado consiste en considerar la ecuacin de estado:

154

Anlisis de Series de TiempoXt Xt1

1 Zt 0 Zt1

(Ecuacin de estado)

Si consideramos la ecuacin de observacin siguiente:

Yt

1 0

Xt Xt

1

(Ecuacin de observacin)

sustituyendo, llegamos a:

Yt

1 0 Zt1

Xt Xt

1

1 0

1 Zt 0 Zt

1

1 0

Zt

1

Zt

Zt

Zt

La igualdad permite concluir que el modelo MA(1) tiene una representacin como modelo espacio-estado. Ms adelante veremos la representacin de modelos generales ARIMA como modelos espacio-estado. NOTA1: La representacin de los modelos ARMA(p,q) como modelos espacio-estado no es nica. El lector puede comprobarlo proponiendo diferentes matrices en las ecuaciones generales del modelo espacio-estado en los ejemplos anteriores. VIII.2. EL MODELO ESTRUCTURAL BSICO El concepto de modelo estructural estriba en que, en su definicin, sus componentes pueden ser modelados mediante un proceso propio. Un ejemplo de estos modelos es nuestro modelo clsico de series de tiempo, el cual est definido por tres componentes, que son tendencia, estacionaridad y ruido. Considerar como deterministicos los componentes de tendencia y estacionaridad, en la descomposicin del modelo, restringe la aplicacin de dichos modelos. As, se justifica que permitiremos que los componentes mencionados se modelen mediante un proceso aleatorio propio. Para entrar en materia de lo que es un modelo estructural, consideremos el siguiente ejemplo. Ejemplo VIII.2.1. Consideremos el proceso de Caminata Aleatoria con un componente de ruido, dado por:Yt Mt Mt Wt , {Wt } WN(0,2 w

)2 V

donde1

Mt

Vt , {Vt }

WN(0,

)

155

Anlisis de Series de TiempoNote que haciendo analoga con la representacin espacio-estado, en el modelo anterior F=1 y G=1; Veamos que sucede con las diferenciaciones de la caminata aleatoria, es decir con:Dt Yt Vt1

Mt Wt

Wt Wt1

Mt

1

Wt

1

(M t

M t 1 ) Wt

Wt

1

Podemos ver que las diferenciaciones son una suma de ruidos y por propiedad de este proceso, tambin es un proceso de ruido y, adems, estacionario. Tal proceso (de las diferenciaciones) tiene como funcin de autocovarianzas y autocorrelacin dadas por:2D 2 W 2 W 2 V

para h para h

0 2

( h) 0

para h 1

2 W D

( h)

2

2 W

2 V

para h 1 para h 2

0

Para llegar a las expresiones anteriores basta aplicar la definicin de funcin de autocovarianzas y el hecho de que las series {Wt } y {Vt } son no correlacionadas para todo t. Esto es:D

( h)

Cov(Vt Wt

1

Wt

Wt 1 , Vt Wt

h 1

Wt

h

Wt

h 1

)

h o Cov(Vt

1

Wt 1 , Vt

1

Wt 1 )

Cov(Vt 1 ) Cov(Wt ) Cov(Wt 1 )2 V 2 V 2 W 2 W

2

2 W

h 1 Cov(Vt1

Wt

Wt 1 , Vt

Wt

1

Wt )

Cov(Wt )2 W

Dado que {Dt} est correlacionado solo a distancia uno, podemos concluir que forma un proceso MA(1). En consecuencia, {Yt} forma un proceso ARIMA(0,1,1). El modelo anterior lo podemos extender agregando un componente de tendencia. Esto es, considerar el modelo:

156

Anlisis de Series de TiempoYt donde Mt Wt , {Wt } WN(0,2 w

)2 V

Mt Bt

Mt Bt1

1

Bt Ut1

1

Vt -1 , {Vt } , {U t }

WN(0, WN(0,

) )el

2 U

Para expresar el modelo anterior como modelo espacio-estado, consideremos vector X t ( M t Bt )' . Entonces:Yt 1 0 Xt Wt

(Ecuacin de observacin)

donde

Xt

Mt1

1 1

1 1 Mt 0 1 Bt

Vt Ut

1 1

Bt

(Ecuacin de estado)

Suponiendo que las variables involucradas en esta representacin estn no correlacionadas, las ecuaciones anteriores constituyen la representacin espacio-estado de la serie {Yt}. Recordemos que la serie {Yt} representa datos con componente de tendencia aleatorio ms un componente de ruido. Ejemplo VIII.2.2. Hemos representado un modelo con tendencia aleatoria en forma de modelo espacio-estado. El paso siguiente es llevar a cabo esta representacin, pero ahora de un modelo con componente estacional aleatorio. De la definicin de estacionalidad de periodo d, se cumple st=st+d y s1++sd=0. El modelo en cuestin es:

Yt st

st

Wt , {Wt } st st

WN(0,

2 w

)

donde1 1

st

d 2

Sustituyendo recursivamente el componente de estacionalidad, se puede llegar a la expresin:Yt1

Yt

Yt

d 2

St

t

1,2,...

Para encontrar la representacin espacio-estado de {Yt} introduciremos el vector X t siguiente: X t (Yt , Yt 1 ,..., Yt d 2 )' . As:

157

Anlisis de Series de TiempoYt 1 0 0 Xt Wt

(Ecuacin de observacin)

donde1 1 Xt 0 0 1 0 1 0 -1 0 0 1 1 0 0 Xt 01

St 0 0 0

1

(Ecuacin de estado)

Por tanto, el modelo clsico con componente estacional aleatorio, tambin se puede representar como modelo espacio-estado. La pregunta que surge en este momento es se puede representar como modelo espacio-estado el modelo estructural bsico? Es decir, podemos representar el modelo clsico como modelo espacio-estado si incluimos componentes de tendencia y estacionalidad aleatorios? La respuesta es s. Solo basta agrupar las ecuaciones de estado de los ejemplos anteriores (VIII.2.1 y VIII.2.2). Para ms detalles ver [Brockwell y Davis (2002) pp. 267].

VIII.3. REPRESENTACIN ESPACIO-ESTADO DE MODELOS ARMA En ejemplos anteriores representamos modelos ARMA especficos como el AR(1), el MA(1) y el ARMA(1,1). En esta seccin generalizaremos la representacin para el modelo general ARMA(p,q). Como mencionamos en la NOTA1, la representacin espacio-estado no es nica. Aqu presentamos una de ellas para un proceso ARMA(p,q) causal. Consideremos el proceso ARMA(p,q) causal definido por:( B)Yt ( B) Z t donde {Z t } WN (0,j2

)

Sean r=max(p,q+1);

j

=0 para j > p;

=0 para j > q; y 0=1. Si {Xt} sigue un proceso

( B) X t . Esta conclusin se recoge del causal AR(p) dado por ( B) X t Z t , entonces Yt ( B) ( B) X t ( B) ( B) X t ( B) Z t . Es decir, si sustituimos hecho de que: ( B)Yt Yt ( B) X t , se satisface el modelo ARMA(p,q) original.

En consecuencia, apoyndonos del ejemplo VIII.1.2 [representacin para el modelo ARMA(1,1)], tenemos la representacin espacio-estado del modelo ARMA(p,q):

158

Anlisis de Series de TiempoYtr 1 r 2

1Xt

(Ecuacin de observacin)

dondeXt Xt Xt1 r 2 r 1

0 0 0

1 0 0r 1

0 1 0r 2

0 0 11

Xt Xt Xt Xt

r 1 r

0 0

Xt Xt1

(Ecuacin de estado)

1

0 Zt1

r

Se puede probar que usando esta expresin, la representacin del modelo ARMA(1,1) es la misma que encontramos en el ejemplo VII.1.2. Existe una forma general para representar a los modelos ARIMA(p,d,q) como modelos espacio-estado. Est basada, esencialmente, en el hecho de que la serie diferenciada a distancia d sigue un proceso ARMA(p,q), la cual ya expresamos arriba. Para ms detalles, ver [Brockwell y Davis (2002) pp.269-271]. VIII.4. RECURSIONES KALMAN Los principales problemas que enfrentan los modelos espacio-estado definidos en la seccin VIII.1 son tres. Todos ellos consisten en encontrar el mejor predictor lineal del vector de estado X t en trminos de las observaciones Y 1 , Y 2 ,... y un vector aleatorio Y 0 ortogonal a V t y W t . Las estimaciones de inters de X t son las siguientes: Prediccin: Pt 1 X t Filtrado: Pt X t Suavizacin: Pn X t , n > t. Los tres problemas pueden ser resueltos usando, apropiadamente, un conjunto de recursiones. Tales recursiones se conocen como recursiones de Kalman. Definicin VIII.1.1. [Mejor predictor lineal].( X 1 ,..., X v )' se define el mejor predictor lineal como:Pt ( X ) ( Pt ( X 1 ),..., Pt ( X V ))'

Para

el

vector

aleatorio

X

donde Pt ( X i ) P( X i | Y 0 , Y 1 ,..., Y t ) es el mejor predictor lineal de X i en trminos de todos los componentes Y 0 , Y 1 ,..., Y t . El mejor predictor lineal de la definicin tiene, bajo ciertas restricciones, las siguientes propiedades: 159

Anlisis de Series de Tiempo1. Pt ( A X ) APt ( X ) 2. Pt ( X V ) Pt ( X ) Pt (V )

P( X | Y )3. donde

MY

M

E ( X Y ' )[ E (Y Y ' )] . [ E (Y Y ' )] es inversa generaliza da de E (Y Y ' )

Con la definicin y las propiedades, enunciamos en seguida el algoritmo de prediccin de Kalman. RESULTADO VIII.1.- [Prediccin de Kalman].- Considere el modelo espacio-estado de la seccin VIII.1. Es decir, supongamos que Y t Gt X t W t con X t 1 Ft X t V t donde W t WN (0,{Rt }) y V t WN (0,{Qt }) . Entonces los predictores a un paso X t Pt 1 ( X t ) y sus matrices de error condicin inicial:t

E[( X t

X t )( X t

X t )' ] son nicos y estn determinados por la

X1

P( X 1 | Y 0 ) con

1

E[( X 1

X 1 )( X 1

X 1 )' ]

y las recursiones para t=1, Xt1

Ft X t Ft Gt Ftt

t

t

(Y tt

Gt X t )t ' t

t 1

Ft '

Qt Rt

dondet t t t

Gt' Gt't

t

es la inversa generalizada de

.

Demostracin. Para llevar a cabo la demostracin haremos uso del concepto de innovaciones, I t , con I 1 y I t Y t Pt 1 Y t Y t Gt X t Gt ( X t X t ) W t t 1,2,... Por otra parte, se tiene la igualdad Pt ( ) enunciadas arriba, encontramos que:Y0

Pt 1 ( ) P( | I t ) . Usando las propiedades 1, 2 y 3

160

Anlisis de Series de Tiempo Xt1

Pt 1 ( X t 1 ) P( X t 1 | I t ) Pt 1 ( Ft X t Ft X t Ft X t Vt) MItt t

donde M It

E[ X t 1 I t ]E[ I t I t ] -

'

'

Ft Pt 1 ( X t ) Pt 1 (V t )t t t t

It (Y t Gt X t ) Vt (Xt X t )' Gt' Wt'

donde t E[ X t 1 I t ] Ft t Gt't

'

E Ft X t

Ft E[( X t )( X t

X t )' ]Gt'

E[ I t I t ] Gt E[( X t Gtt

'

E Gt ( X t X t )( X t Rt

X t ) W t (X t X t )' ]Gt'

X t ) ' Gt''

Wt

'

E (W t W t )

Gt'

Para encontrar el error cuadrado medio para t > 1, basta con aplicar la definicin de la matriz de error. Esto es:t 1

E Xt

1 '

Xt1

1

Xt

1

Xt1

' 1

E Xt 1Xt E Ft X t E Ft X t Ft Ft 't

' E Xt 1Xt Vt' ' '

V t Ft X t'

'

E Ft X t E Ft X tt

t t

t

I t Ft X t It' ' t

t t

t

It' t

'

V t X t Ft ' V t E V tV ttt

' I t X t Ft 't t

Ft E X t X t Ft 't

' Ft E X t X t Ft '

Qty

t

' t

Las matrices

son las mismas que se definieron en el resultado VIII.1. ///

Para llevar a cabo la prediccin a distancia h usaremos la prediccin de Kalman a un paso. Como veremos, la prediccin consiste en aplicar recursivamente las propiedades del mejor predictor lineal y la ecuacin de estado definida en la representacin espacio-estado original. Pt X t h Pt Ft h 1 X t h 1 V t h 1Ft Ft Ft Fth 1 h 1 t h 1 t h 1

P Xt P ( Ft Fth 2

h 1 h 2

Pt V t Xth 2 h 2

h 1

Fth 2

h 1 t

P Xt

h 1

Vt )

)

Pt ( X t

Ft

h 2

Ft 1 Pt ( X t 1 )

161

Anlisis de Series de TiempoPt X th

Ft

h 1

Ft

h 2

Ft

1

Ft X t

t

t

(Y t

Gt X t )

Tambin se tiene la prediccin para la variable de observacin:Pt Y th

Pt Gt h X t

h

Wt

Gt h Pt X t

h

El paso siguiente es encontrar la matriz de error de prediccin a distancia h.Xth

Pt X t

h

Ft Ft

h 1 h 1

Xt Xt

h 1 h 1

Vt

h 1

Fth 1

h 1 t

P Xth 1

h 1

Pt X t

Vt'

(h) t

E Xt E Ft Fth 1

h

Pt X t Xth 1 h 1

h

Xt Pt X t

h h 1 h 1

Pt X t Vt Xt(h) t

h h 1

h 1

Ft

h 1

Xt'

h 1

Pt X t1

h 1 h 1

Vt Vt'

' h 1

E Xt

Pt X t

h 1

Pt X th 1

h 1

Ft ' h1

EVth 1

h 1

Ft

( h 1) t

Ft ' h

Qt

(1) t

El proceso se aplica recursivamente para h=2,3, partiendo de la igualdad inicial t 1 . Adems, para la variable de observacin se tiene:Pt Y th

Yt

h

Gt h X t Gth

h h

Wt

h h

Gt h Pt X t Wt' h h h

h

Xt

Pt X t

(h) t

E Yt E Gt

h h

Pt Y t Xth h

h

Yt

h h h

Pt Y t Wt Xth

Pt X t Pt X t

Gt Pt X t

h h

Xt'

h h

Pt X t

h

Wt' h

' h

Gt h E X t

Gt'h

E W t hW t(h) t

(h) t

Gt

Gt'

h

Rt

h

Con esto terminamos la solucin del problema de prediccin de Kalman. RESULTADO VIII.2.- [Filtrado de Kalman].- Considere el modelo espacio-estado de la seccin VIII.1. Es decir, supongamos que Y t Gt X t W t con X t 1 Ft X t V t donde W t WN (0,{Rt }) y V t WN (0,{Qt }) . Entonces las estimaciones filtradas X t / t Pt ( X t ) y sus matrices de error t / t E[( X t X t / t )( X t X t / t )' ] estn determinadas por la relacin:

162

Anlisis de Series de TiempoX t /t Pt 1 ( X t )t

Gt'

t

(Y t

Gt X t )

cont /t t t

Gt'

t

Gt

' t

t

, la inversa generalizada de

t

,y

t

se calculan como en la prediccin de Kalman.

Demostracin. La demostracin consiste en usar, nuevamente, el concepto de innovaciones, I t , con I 1It Yt Pt 1 Y t Yt Gt X t Gt ( X t Xt) Wt t 1,2,...

Y0

Tambin consideraremos la igualdad Pt ( )

Pt 1 ( ) P( | I t ) . De esta forma:

X t /t

Pt ( X t ) Pt 1 ( X t ) P( X t | I t ) Pt 1 ( X t ) M I t

donde M E[ X t I t ]E[ I t I t ]E X t Gt ( X t E X t (X t E X t (X tt ' '

Xt) Wt Xt) G' ' ' t ' t

' t ' t t

Wt

Xt) G

G

' t

t

Para encontrar la expresin de la matriz de error partimos de:Pt X t & Xt Pt 1 X t Xt Xt Pt X t Pt X t Pt X t MIt Pt 1 X t Pt 1 X t MI t MIt Pt X t Pt 1 X t

163

Anlisis de Series de Tiempot

E Xt E Xt E Xtt /t t /t t /t

Pt 1 X t X t Pt X t'

Pt 1 X t Pt X t Gt' t '

'

MIt X t

Pt X t

MIt'

'

Pt X t X t ME[ I t I t ]M 't t

E M It ItM '

Gt' Gt'

t t

t

t

Gt Gt

' t

t /t

t

t

Gt'

t

' t

De esta forma queda demostrada la proposicin del filtrado de Kalman. /// Por ltimo, presentaremos la tcnica de suavizacin. El concepto de suavizacin radica en sustituir observaciones aberrantes en un conjunto de datos por otra estimacin suave basada en las n observaciones. RESULTADO VIII.3 [Suavizacin de Kalman].- Considere el modelo espacio-estado de la seccin VIII.1. Es decir, supongamos que Y t Gt X t W t con X t 1 Ft X t V t donde W t WN (0,{Rt }) y V t WN (0,{Qt }) . Entonces las estimaciones suavizadas X t / n Pn ( X t ) y sus matrices de error t / n E[( X t X t / n )( X t X t / n )' ] estn determinadas, para un t fijo, por las recursiones, las cuales pueden resolverse sucesivamente para n=t, t+1,:

X t/n

Pn 1 ( X t )Fn

t ,n

' Gn

n

(Y nGtn '

Gn X t )

cont ,n 1 t/n t ,n n t ,n ' Gn t

t/n 1

Gn

' t ,n

y las condiciones iniciales

Pt 1 X tt ,t

Xtt /t 1 t

t

, la inversa generalizada de

t

,y

t

se calculan como en la prediccin de Kalman.

Demostracin. Tenemos las siguientes igualdades: I t Y t Pt 1 Y t Y t Gt X t Gt ( X t Xt) Wt

t

1,2,... y Pt ( )

Pt 1 ( ) P( | I t )

164

Anlisis de Series de TiempoAs, X t/nPn ( X t ) Pn 1 ( X t ) P ( X t | I n ) Pn 1 ( X t ) M I n donde M E[ X t I n ]E[ I n I n ]E X t Gn ( X n E X t (X n E X t (X nt ,n ' '

X n) W n' ' n ' n

' n n

X n) G'

Wn

' n

X n) G

G

' t

t

cont ,n

E Xt

Xt Xn

Xn

'

Para encontrar la segunda expresin de la estimacin de suavizacin partimos de la ecuacin de estado y de la expresin del predictor de Kalman. Esto es:Xn & Xn Xn1

Fn X n Fn X n Xn1

Vn In Xn In Vn

1

n

n

1

Fn X n

n

n

t ,n 1

E Xt E Xt E Xt E Xt E Xtt ,n t ,n

Xt Xn

1

Xn

' 1 '

X t Fn ( X n Xt Xn Xt Xn' Xt Wn ( t ,n t ,n

X n)

n

n

In

Vn Xt

' X n Fn' ' X n Fn'n n

E Xt E Xt E Xt 0(n n

n

n

(Gn ( X n ' Xn (n

X n) W n) V nn

'

Xt Xn' Xt Vn

Gn ) '

)'

Fn' Fn' Fn

( (

n n

n n

Gn ) ' Gn ) '

)'

0

t ,n 1

t ,n

n

n

Gn

'

Solo nos resta encontrar la expresin para la matriz de error. Para ello utilizamos la expresin:

165

Anlisis de Series de TiempoPn X t Xt Pn 1 X t Pn X t E Xt E Xt E Xtt/n 1 t/n 1 t/n 1

MI n Pn 1 X t MIn Pn X t'

Xt

t/n

Pn X t X t Pn 1 X t'

MIn Xt Pn 1 X t Gn' t ,n

Pn 1 X t'

MIn'

'

Pn 1 X t X t ME[ I n I n ]M 't ,n t ,n ' Gn ' Gn n n n

E M I n I nM '

n

Gn Gn

' t ,n

t/n

t/n 1

t ,n

' Gn

n

' t ,n

As, queda demostrado el resultado de suavizacin de Kalman. /// El siguiente ejemplo ilustra la forma iterativa en que funciona la suavizacin de Kalman. Como veremos, no solo haremos uso del resultado VIII.3, sino, en general, de los tres resultados de las recursiones Kalman. Ejemplo VIII.4.1. Consideremos el modelo AR(1). Supongamos 5 observaciones y1, y2, y3, y4 y y5 y suavizaremos la observacin 2. El modelo espacio-estado para este proceso, como vimos en el ejemplo VIII.1.1, est dado por:Yt Xt Xt Xt1

Zt ,2

Con {Z t } WN (0,

)

Pero dado que no contamos con informacin completa, es decir, no utilizaremos la observacin 2, planteamos el modelo:

Yt* Xt

Gt* X t Xt1

Wt* Zt

Note que, de acuerdo a la representacin espacio-estado, tenemos que:

166

Anlisis de Series de TiempoFt Gt* Qt Rt* 1 si t 0 si t2

2 2 2 2

0 si t 1 si t

Partimos de las condiciones iniciales:P0 X 1 X1 0,1

E( X 1 X 1 )

(0)

2

/(1

2

)

As,2 1 2 2

F1 F1 F2 F2 F3

1G1

1 Q1

,1 1

1

G12 2

1G1

R12 2

12 2

2

,2

2

1 F1

1 2

1

12 2 2

2

1 G22 2

2 3 3

2 2 3

G2 F2 Q2 [2

02 2

0,1 2 2

G2

R2 G3

1, R32 2 2

2

G3

2

],

3

G3

3

,

2, 2 2,3 2, 4 2,5

2 2, 2 2,3

[ F2 [ F3

2 3

1 2 1 3

G2 ]

2

[2

0] [ ] 0

2

G3 ]

02

2|1 2|2 2|3 2|4 2|5

2, 2 2|1 2|2 2|3 2 2, 2

G2 G3 G4

1 2 1 3

G2 G3 G4

2 2, 2 2 2,3 2 2, 4

02 4 2

2

2,3 2, 4 2

/(

2

2 2

2

)2

2

/(

2

1)

1 4

/(

1) 0

/(

1)

/(

1)

Nos resta calcular la suavizacin de la observacin 2.

167

Anlisis de Series de TiempoP1 X 2 P2 X 2 P3 X 2 P4 X 2 P5 X 2 P0 X 2 P1 X 2 P2 X 2 P3 X 2 P4 X 22 ,1

G1 G2 G3 G4 G5

1 1

(Y1 (Y2 (Y3 (Y4 (Y5

G1 X 1 ) G2 X 2 ) G3 X 3 ) G4 X 4 ) G5 X 5 )

0 Y1 Y1 Y1 Y1

(Y1 0

0) Y12

Y1 0) /(2 2 2 2 2

2, 2

1 2 1 3 1 4 1 5

2,3 2, 4 2,5

(Y3

)

Y1 Y3 /(2

Y3 /( 1)

2

1)

Y3 /( Y3 /(

1) 0 1)

Y1

En resumen, el valor suavizado de la observacin dos est dado por:P5 X 2 Y1 Y3 /(2

1)

Con correspondiente error cuadrado medio:2 2|5

/(

2

1)

VIII.5. EL ALGORITMO EM El algoritmo de Esperanza-Maximizacin (EM), propuesto por [Dempster, Laird y Rubin (1977)] es un procedimiento iterativo til para calcular estimadores de mxima verosimilitud cuando contamos slo con una parte disponible de la coleccin de datos, por ejemplo, cuando existen datos perdidos. La construccin y convergencia del algoritmo se pueden consultar en [Wu (1983)]. Denotemos por Y al vector de datos observados, por X al vector de datos noobservados y a W Y X como el vector de datos completos. A manera de analoga con los modelos espacio-estado, podemos decir que Y consiste de los vectores observados Y 1 ,..., Y n y X de los vectores de estado (no observables) X 1 ,..., X n . Los datos X pueden considerarse como una variable aleatoria cuya distribucin de probabilidad depende de los parmetros que deseamos estimar y de los datos observados Y . Dado que W depende de X , es a su vez, una variable aleatoria. Cada iteracin del algoritmo EM consiste en dos pasos: E y M. E se refiere a obtener la esperanza E ( i ) [l ( ; X , Y ) | Y ] . Tomar el valor esperado se justifica en el sentido de que existen datos no observados, X , por lo que se deben considerar todos los posibles valores de X , ponderados segn su probabilidad; y M se refiere a la maximizacin de la verosimilitud del parmetro . En general, el algoritmo EM repite la pareja de pasos siguientes en la iteracin (i+1) hasta obtener convergencia, partiendo de que (i ) denota el valor estimado de en la iteracin i.

168

Anlisis de Series de TiempoPaso-E. Calcular Q( |(i )

) utilizando los datos observados Y . Esto es, calcular:

Q( |

(i )

)

E

(i )

l( ; X ,Y ) | Y

donde: l ( ; x, y) ln f ( x, y; ) ; E ( i ) | Y denota la esperanza condicional relativa a la densidad condicionalf ( x | y;(i )

)

f ( x, y ; ( i ) ) . f ( y; ( i ) )(i )

Paso-M. Maximizar Q( |

) con respecto a .

Note que al maximizar el logaritmo de la distribucin, se est maximizando la verosimilitud. Observemos que:f ( x | y;(i )

)

f ( x, y; ( i ) ) f ( y; ( i ) ) E l ( ; x, Y ) | Y

ln f ( x, y;

(i )

)

ln f ( x | y;

(i )

)

ln f ( y;

(i )

)

Q( |

(i )

)

(i )

l ( ; x, Y ) f ( x | Y ; ln f ( x | Y ; )

(i )

)

ln f ( x, Y ; ) f ( x | Y ; f (x | Y ;(i )

(i )

) dx

ln f (Y ; )(i )

) dx f ( x | y;(i )

ln f ( x | Y ; ) f ( x | y; ln f ( x | Y ; ) f ( x | Y ; ln f ( x | Y ; ) f ( x | Y ;

) dx ln f (Y ; )

) dx

(i )

) dx ln f (Y ; ) (1) ) dx l ; Y

(i )

Derivando la funcin Q con respecto a , encontramos que:Q' ( |(i )

)

ln f ( x | Y ; ) f ( x | Y ; f (x | Y ; ) f (x | Y ; ) f (x | Y ;(i )

(i )

) dx

l ;Y

) dx l ' ( ; Y )

Si reemplazamos por (i 1) y si i (i ) ( i 1) tenemos que y Q ' ( (i 1) | (i ) )

(recordemos que el proceso es convergente), 0 . Esto es,

169

Anlisis de Series de Tiempof ( x | Y ; ) Q(' ( i 1)

|

(i )

)

f (x | Y ;

( i 1)

)

f (x | Y ;

(i )

) dx l ' ( ; Y ) 0 0

0

f ( x | Y ; ) dx l ' ( ; Y ) f ( x | Y ; ) dx l ' ( ; Y ) (1) l ' ( ; Y ) l ' ( ; Y ) 0(i )

0

La igualdad anterior muestra que si la ecuacin de verosimilitud l ' ( ; Y ) 0 .

converge a , entonces es una solucin de

Como mencionamos al inicio de esta seccin, el algoritmo EM es til cuando la coleccin de datos es incompleta (datos perdidos). A continuacin desarrollamos el mtodo de estimacin. Supongamos que la coleccin de datos comprende Y1 ,..., Yn , de los cuales r son observados y n-r son perdidos. Definamos Y (Yi1 ,..., Yir )' como el vector de datos observados y X ( X j1 ,..., X j ,n r )' como el vector de datos perdidos. Por otra parte, supongamos que

W ( X ' , Y ' )' se distribuye Normal( 0, ), donde depende del parmetro . Es decir, el logaritmo de la verosimilitud de los datos completos ( W ) est dada por:f (W ; ) 2 1n/2 (1 / 2 )

exp

1 W 2 1 W 2

1

W

l ( ;W )

n ln( 2 ) 2

1 ln( 2

)

1

W

Hagamos la particin conformable con X e Y siguiente:11 21 12 22

De acuerdo a los resultados de la seccin II.2 de la Normal Multivariada (Propiedad5), tenemos que: 1 1 X 11 22 Y y 11|2 ( ) 11 12 22 21 Entonces, la distribucin de W dado Y requerida en el paso E es: 170

Anlisis de Series de TiempoNMV X 0 ,11|2

( ) 0 0'

0

Usando el resultado E X A XE(i )

'

traza(A )E(i)

, podemos ver que:1 11|2

W'

1 11|2

( )W | Y

( X ' , Y ' )'11|2

(

(i )

)( X ' , Y ' ) W'1

traza

(

(i )

)

1 11|2

( )

( )W

De aqu que,Q( |(i )

)

E

(i )

l ( ;W ) | Y(i )

l ( ;W ) E l ( ;W )

W'

1 11|2

( )W ((i )

1 traza 2

11|2

)

1 11|2

( )

Note que l ( ;W ) es el logaritmo de la verosimilitud de los datos completos en los que X es reemplazado por su estimacin, X .

Dado que el proceso converge, en la prctica se usa la expresin (reducida):~ Q( |(i )

)

l ( ;W )

El paso M restante del algoritmo EM consiste en maximizar la verosimilitud. Es decir, maximizar l ( ;W ) . Ejemplo VIII.5.1.- Consideremos el conjunto de datos DOWJ.TXT. Para ejemplificar el algoritmo EM, eliminaremos las observaciones 10, 20 y 30. El modelo ajustado en el ejemplo V.1.1 para los datos diferenciados a distancia uno y corregidos por la media fue un AR(1): X(t) = .4219 X(t-1)+ Z(t) WN variance estimate (Yule Walker): .147897 La primera iteracin se inicia con (o ) 0 y dado que estamos suponiendo Ruido Blanco, el paso E del algoritmo EM consiste en sustituir X 10 X 20 X 30 0 , donde Xt representa los datos diferenciados a distancia uno y corregidos por la media. Una vez reemplazadas las observaciones perdidas, ajustamos un modelo AR(1) por mxima verosimilitud a este nuevo conjunto de datos, obteniendo: ARMA Model: X(t) = .4153 X(t-1) + Z(t) 171

Anlisis de Series de TiempoEs decir, tenemos (1) expresin de error:1

0.4153 . El paso M consiste en minimizar con respecto a Xt la

(Xtj 0

j

(1) X t

j 1

)2

(Xt

(1) X t 1 ) 2

(Xt

1

(1) X t ) 2

Derivando e igualando con cero, encontramos que:2( X t (1) X t 1 ) 2 (1) ( X t (1) X t1

(1) X t )

0 Xt

1 ( (1) ) 2 X t

1

(1) X t

1

(1) X t

1

1

Xt

(1) X t 1 X t 1 ( (1) ) 2

1

Con la ltima expresin podemos estimar los datos perdidos 10, 20 y 30.

X 10

0.4153 X 11 X 9 1 (0.4153) 2

0.3426 , etc.

Con estas estimaciones, ajustamos un nuevo modelo AR(1). Obteniendo: ARMA Model: X(t) = .4377 X(t-1) + Z(t) Es decir, ( 2)0.4377 .

El proceso itera hasta converger (en i=3). En el siguiente cuadro se resumen los resultados: Cuadro9. Estimacin de valores perdidos de la serie del ndice Dow Jones Iteracin i X10 X20 X30 0 0 0 0 0 1 -0.36 0.01 -0.03 0.4153 2 -0.36 0.01 -0.03 0.4377 3 -0.36 0.01 -0.03 0.4377 Es decir, el modelo ajustado considerando las observaciones 10, 20 y 30 como perdidas es: ARMA Model: X(t) = .4377 X(t-1) + Z(t) WN Variance = .143922 172

Anlisis de Series de TiempoCAPITULO IX. COINTEGRACIN Recordemos que una serie de tiempo es estacionaria si su distribucin es constante a lo largo del tiempo; para muchas aplicaciones prcticas es suficiente considerar la llamada estacionaridad dbil, esto es, cuando la media y la varianza de la serie son constantes a lo largo del tiempo. Muchas de las series de tiempo que se analizan en la prctica no cumplen con esta condicin cuando tienen una tendencia. Cuando no se cumple esta suposicin se pueden presentar problemas serios, consistentes en que dos variables completamente independientes pueden aparecer como significativamente asociadas entre s en una regresin, nicamente por tener ambas una tendencia y crecer a lo largo del tiempo; estos casos han sido popularizados por [Granger y Newbold (1974)] con el nombre de regresiones espurias. El problema de las regresiones espurias aparece frecuentemente cuando se halla la regresin entre series afectadas por tendencias comunes, lo que lleva a encontrar un valor de R2 elevado, sin que exista realmente una relacin de causa-efecto. Cuando se lleva a cabo una regresin espuria, suele aparecer un valor pequeo del estadstico de Durbin-Watson, indicando que los errores de la ecuacin estn correlacionados positivamente. Esto implica no slo que los estimadores de mnimos cuadrados de los coeficientes son ineficientes, sino que son inconsistentes, lo que lleva a incurrir en serios problemas de especificacin. Recientemente se ha dedicado mucho esfuerzo al anlisis de las propiedades de ecuaciones de regresin con variables ms generales que las estacionarias, pero con algn tipo de restriccin a su distribucin. Un caso particular de las variables no estacionarias es el de las llamadas variables integradas. Este tipo de variables ser de gran importancia en el desarrollo de la teora de Cointegracin que se presenta en el presente captulo. IX.1. DEFINICIONES Y PROPIEDADES Cuando en el proceso que sigue un vector de observaciones se tienen races unitarias, se dice que tal proceso es Cointegrado. El concepto de cointegracin se debe a [Engle y Granger (1987)]. Adems de las variables integradas, que ya se mencionaron, otro concepto clave en el que se basa la teora de la cointegracin es la representacin de correccin de error, que definiremos ms adelante. Una correlacin alta entre dos variables, Y y X, puede deberse a tres tipos de relaciones causa efecto: a) que X sea la causa de la variable Y. b) que Y sea la causa de los cambios en X. c) que cada una de ellas sea a la vez causa y efecto de la otra. Como en todo desarrollo de teora, ser necesario definir algunos conceptos clave que manejaremos en este captulo.

173

Anlisis de Series de TiempoDefinicin IX.1.1. [Causalidad en el sentido de Granger].- X causa a Y, en el sentido Y ) , si Y se puede predecir con mayor exactitud utilizando valores pasados de Granger, ( X de X que sin usarlos, manteniendo igual el resto de la informacin. Vase [Granger (1969)].Y ) se est expresando que los valores de X preceden a los Cuando se dice que ( X de Y, en el sentido de que anteceden siempre a los de Y y sirven para predecirlos, pero no que necesariamente los valores de X originen los valores de Y. Es posible que, por ejemplo, una tercera variable Z produzca los cambios en Y, y posiblemente tambin en X, sin embargo, (X Y ) . Por lo que sera ms apropiado hablar de precedencia.

Definicin IX.1.2. [Serie de Tiempo Integrada].- Se dice que una serie de tiempo {Xt} es integrada de orden d, denotada por X t I (d ) , si puede expresarse como:(1 B ) d ( B ) X t ( B) Z t

donde( B) X t ( B) Z t Xt Zt1 1

Xt1

1

q

p

Xtq

p

Zt

Zt

Otro modo de definir una serie integrada es decir que {Xt} es ARIMA(p,d,q) con un proceso {Zt} estacionario e invertible. En estas condiciones la menor raz en valor absoluto de la parte autorregresiva es la unidad y se dice que la serie tiene d races unitarias o que es I(d); a manera de ejemplo, una serie estacionaria es I(0) y una caminata aleatoria es I(1). Tambin, la suma o combinacin lineal de procesos de distintos ordenes de integracin es del mismo orden que el proceso de orden mayor. Es decir, si:Zt con Xt Yt I (e) I (d ) entonces Z t I (max( e, d )) Xt Yt

En trminos similares, la combinacin lineal de dos procesos con el mismo orden de integracin es, en general, de ese orden de integracin. NOTA1: En particular, combinaciones lineales de series I(0) son I(0); combinaciones lineales de series I(1) son en general I(1), con una excepcin muy importante, la de las series cointegradas que son I(0) y que veremos en detalle ms adelante. Esto tambin muestra que una serie integrada no puede ser representada adecuadamente por series estacionarias; del mismo modo, una serie estacionaria no puede, en general, representarse como funcin de series integradas.

174

Anlisis de Series de TiempoNOTA2: Cabe mencionar que el anlisis de cointegracin involucra conceptos de Anlisis de Regresin (multicolinealidad y estadstico de Durbin-Watson, principalmente) y de Races Unitarias (vistas en el captulo VI), por lo que se recomienda que el lector est familiarizado con estos tpicos. NOTA3: Un sntoma de Cointegracin entre variables es un valor alto del coeficiente de determinacin de la regresin entre ellas, R2, acompaado de valores no muy bajos del estadstico de Durbin - Watson. Estudios hechos recientemente muestran que una gran proporcin de las series econmicas no estacionarias son I(d), y en especial muchas de ellas I(1). Esto ha inducido una gran cantidad de investigaciones sobre las propiedades estadsticas de series I(d). Y particularmente en la bsqueda de combinaciones lineales estacionarias de series integradas, lo que se llama Cointegracin en series. Supngase dos variables no estacionarias Yt y Xt, entre las que se cree que existe una relacin de dependencia. Cabe esperar que, bajo tal supuesto, los residuos de la regresin que explica a Yt en funcin de Xt sean estacionarios, a pesar de que ninguna de las dos variables del modelo lo sean. Esta es la idea de Cointegracin, y a continuacin se da la definicin. Definicin IX.1.3. [Serie Cointegrada].- Se dice que una series de tiempo { Y t } mvariada es cointegrada de orden (d,b), denotada por Y t CI (d , b) , si siendo todas las series del vector I(d), existe un vector de coeficientes'

no nulo tal que zt

'

Yt

I (d b) , con bvector de

> 0. La relacin z t Y t se denomina relacin de cointegracin y el vector cointegracin. [Engle y Granger (1987)].

Supongamos la serie bivariada Y t ( y t , xt ) ' . Si suponemos que hay una relacin entre las componentes del vector, conocida como relacin de equilibrio, entonces esta relacin se puede expresar como una relacin lineal como la siguiente:y t*0 1 t

x

De acuerdo con ello, hay equilibrio en el periodo t si y t y t* 0 , es decir, si yt ( 0 0 . Ahora bien, como yt ser, en general, distinto del valor de equilibrio, 0 xt ) podemos agregar un trmino de error o desviacin, ut, quedando:yt (0 1 t

x)

ut0

Agrupando trminos, podemos escribir la ecuacin como: yt 1 xt podemos ver que no es ms que la relacin de cointegracin del vector Y t , donde:

u t . As,

175

Anlisis de Series de TiempoYt'

( y t , xt ) ' , (1,0 1

)

zt

ut

Cointegracin significa que, aunque haya fuerzas que causen cambios permanentes en los elementos individuales del vector Y t , existe una relacin de equilibrio a largo plazo que ' los une, representada por la combinacin lineal z t Yt. De la definicin de cointegracin podemos deducir algunas observaciones: 1. El coeficiente de la variable independiente siempre es 1, por lo que el vector de cointegracin, , aparece normalizado. 2. Basta multiplicar el vector por un escalar no nulo para obtener un nuevo vector de cointegracin, por lo que el vector de cointegracin no ser nico. 3. El nmero mximo de vectores de cointegracin linealmente independientes que puede haber entre m variables integradas del mismo orden es m1. Al nmero de vectores de cointegracin linealmente independientes se le denomina rango de cointegracin. 4. Dos series no pueden ser cointegradas si no son integradas del mismo orden. As, por ejemplo, si yt I (1) y xt I (0) , entonces z t I (1) y las variables yt y xt no son cointegradas. 5. Cuando se relacionan dos series cada una integrada de orden cero, no tiene sentido hablar de cointegracin. 6. Cuando se consideran ms de dos series de tiempo la situacin se puede complicar, ya que, al contrario de lo que la observacin 4 parece implicar, puede que exista cointegracin sin que todas las variables sean integradas del mismo orden. Por ejemplo, supngase que yt I (1) , xt I (2) y vt I (2) . Si [ xt , vt ] CI (2,1) , entonces, existir una relacin lineal entre la relacin de cointegracin de xt con vt y yt. El caso ms sencillo e interesante de cointegracin es cuando d = b, es decir cuando z t I (0) , ya que entonces es cuando se pueden identificar los parmetros del vector de cointegracin con los coeficientes de una relacin a largo plazo entre las variables y aplicar el anlisis de la regresin. Este caso es en el que se centrar el anlisis del captulo. Enseguida se expone el concepto de Representacin de Correccin de Error que, como se mencion anteriormente, es de gran importancia en el anlisis de cointegracin, en el sentido de que series cointegradas tienen una representacin de correccin de errores, e inversamente, una representacin de correccin de errores genera series cointegradas IX.2. REPRESENTACIN DEL MECANISMO DE CORRECCIN DE ERROR (MCE) El Mecanismo de Correccin de Error (MCE) consiste en representar modelos dinmicos. Su aplicacin se debe, principalmente, al trabajo de [Davidson, Hendry, Srba y Yeo (1978)]. Los modelos MCE permiten modelar tanto las relaciones a largo plazo como la dinmica a corto de las variables. La denominacin de MCE se debe a la especificacin del 176

Anlisis de Series de Tiempomodelo en la cual las desviaciones de la relacin del largo plazo entre los niveles de las variables funcionan como un mecanismo que impulsa a los cambios de las variables a acercarse a su nivel de equilibrio cuando se han alejado de este. Es decir, se corrigen los errores de equilibrio de periodos anteriores de forma gradual. Aunque el procedimiento puede extenderse a m variables, slo consideramos un modelo dinmico de dos variables yt y xt, entre las cuales existe algn tipo de correlacin. El modelo dinmico se expresa como:yt ( B ) xt [1 a( B)] yt ut

en donde las races de a(B) = 0 caen fuera del crculo de radio unitario, como condicin de estacionaridad. a(B) y (B ) son los siguientes polinomios en el operador de rezagoa( B) yt ( B ) xt yt0 1

yt

1

n

yt

n m

xt

1 t 1

x

xt

m

Desarrollando los polinomios, sumando y restando trminos, se obtiene:( B ) xt ( ( m 0 0

xt

1 t 1

x

)( xt )( xt

m

xt

m

( xt3 4

xt 1 ) xt m ) m 1 m k j 1 m 1 k j 1 m k j 1 k j 1 m m m 1 2

2 3

xt 2 ) xt 3 )

( xt

m 1 2

(0

1

) xt

1

xt xt

xt xt

j

(

1

2

m

) xt

1

0

j

(1) xt

1

Anlogamente, se obtienen 1 n k j 1 k j 1

[1-a(B) ] ytdonde a(1)1

[1-a( 1 )] yt-12

yt

j

n

Con esto, el modelo dinmico original puede escribirse en la forma siguiente:

177

Anlisis de Series de Tiempom 1 m k j 1 k j 1 n k j 1 k j 1

yt

0

xtn 1

xt

j

(1) xt ut

[1 A(1)] y t

1

yt

j

Restando yt-1 en los ambos miembros de la igualdad, se tiene:m 1 m k j 1 k j 1 n 1 n k j 1 k j 1

yt

0

xt

xt

j

yt

j

A(1) yt

1

A(1)

(1) xt A(1)

ut

Esta ltima expresin es la forma general del modelo de MCE para el caso de dos variables. El cociente (1) / A(1) se conoce como multiplicador total. Definicin IX.2.1. [Representacin MCE].- Se dice que un vector m-variado Y admite la representacin MCE si se puede expresar como:A( B) Y t Yt1 t

donde t es un vector error estacionario; A(B) es una matriz m x m, con A(0)=Im; y matriz m x m diferente de la nula.

es una

El anlisis e interpretacin del modelo MCE se reducir a un vector bivariado, Y t ( yt , xt )' , en donde cada una de las componentes son I(1). Dicho esto, el MCE para el caso de dos variables est dado por:yt xt yt xt1 2 1

( B) y t

1 1

1

( B ) xt

1 1

1

( yt

1 1

xt 1 ) xt 1 )

1t 2t

2 ( B) y t

2 ( B ) xt

2 ( yt

1 2

1

( B) y t

1 1

1

( B ) xt

1 1

1

( yt

1 1

xt 1 ) xt 1 )

1t 2t

2 ( B) yt

2 ( B ) xt

2 ( yt

Con las siguientes condiciones: 1. El vector de cointegracin (1, )' es el mismo para ambas ecuaciones. 2. Los polinomios i (B) y i (B ) para i=1,2, tienen todas sus races fuera del crculo unitario (condicin de estacionaridad). 3. Al menos uno de los parmetros i , i=1,2 no es nulo. Estos parmetros se conocen como parmetros de velocidad de ajuste. De las ecuaciones podemos ver que, los trminos entre parntesis involucran la relacin a largo plazo de las variables involucradas. Esto no es ms que la relacin de 178

Anlisis de Series de Tiempocointegracin. El trmino en cuestin se conoce como corrector del error, en el sentido que ser distinto de cero nicamente cuando haya alejamiento del valor de equilibrio. Si por xt < 0, es decir, que yt est por debajo del valor de ejemplo, en el momento t se da que yt equilibrio que mantiene respecto a xt, entonces el trmino de correccin de error provocar un aumento superior de yt 1 a fin de corregir la brecha en la relacin de equilibrio. Los i s reciben el nombre de parmetros de velocidad del ajuste porque cuanto mayor sea su valor ms rpidamente se corregirn los desequilibrios. A continuacin enunciamos un teorema de gran importancia que involucra la relacin entre el Mecanismo de Correccin de Error y Cointegracin. TEOREMA. [Representacin de Granger]. Si las m componentes de una serie de tiempo multivariada {X t } son CI(1,1) de rango de cointegracin r, entonces existe una representacin Mecanismo de Correccin de Error para el Proceso Generador de Datos (PGD). Por otra parte, si el PGD de un conjunto de variables admite una representacin MCE, entonces las variables estn cointegradas. Demostracin. Ver [Engle y Granger (1987)]. /// Mediante el teorema anterior se puede mostrar que existe un isomorfismo de representaciones para variables cointegradas. Tales representaciones son: Vectores Autorregresivos (VAR), MCE y Promedios Mviles Multivariados. IX.3. ESTIMACIN Y CONTRASTE DE RELACIONES DE COINTEGRACIN El proceso de estimacin de la relacin de cointegracin es un poco complicado dada la relacin mostrada entre cointegracin y modelos de MCE del Teorema de Representacin de Granger. Es decir, tenemos que estimar la relacin de cointegracin y el MCE. La va tradicional de estimacin y contraste de relaciones de cointegracin ha sido estimar directamente la relacin de cointegracin y, posteriormente, se modela el MCE. En seguida desarrollamos el procedimiento. IX.3.1. Estimacin en dos etapas de Engle y Granger La estimacin en dos etapas de los modelos que involucran variables cointegradas propuesta por [Engle y Granger (1987)] consiste en estimar en un primer paso la relacin de cointegracin realizando la regresin esttica de las variables en niveles y, en el segundo paso se estima el MCE introduciendo los residuos de la relacin de cointegracin estimada en el primer paso, diferenciados un periodo. Puede mostrarse que los resultados son consistentes para todos los parmetros. En particular, los estimadores de los parmetros en el primer paso convergen en probabilidad a una tasa n; mientras que en el segundo paso, los elementos del vector de los trminos de correccin de error, convergen asintticamente a la tasa usual de n . Esto se puede ilustrar proponiendo un modelo simple de MCO sin ordenada al origen. 179

Anlisis de Series de TiempoSupongamos que existe alguna relacin entre las series con media cero xt , yt I (1) , y que estas dos series estn cointegradas. Entonces, la regresin esttica sin ordenada al origen de yt sobre xt est dada por: yt xt t Note que, el trmino de error, t , contiene toda la dinmica omitida y adems, { t } I (0) bajo el supuesto de cointegracin. As, es estimada consistentemente por la regresin a pesar de la omisin de toda la dinmica. Tal estimacin est dada por:n n n n n

xt y t t 1 n t 1

xt ( xtn

t) t 1

xt2t 1 n

xt xt2

t t 1 n

xt xt2t 1

t

xt2t 1 t 1

xt2t 1

n

Podemos ver que a medida que t tiende a infinito,t 1n

xt2 tambin tiende a infinito y, enxtt 1 t

consecuencia, tiende an

independientemente de

, que se ve superado por el

crecimiento det 1

xt2 , a una tasa de n y no a la tasa usual de

n.

Esto significa que los parmetros convergen al valor poblacional a una velocidad superior, conforme aumenta la muestra, a las estimaciones con variables estacionarias. Este hecho se debe a que para el verdadero valor , los residuales son estacionarios. Este resultado es llamado teorema de superconsistencia de [Stock (1987)] y es usado por Engle y Granger como base de la estimacin. Enseguida enunciamos el Teorema de Engle y Granger, el cual establece la distribucin lmite de la relacin de cointegracin en dos etapas. TEOREMA. (de Engle y Granger). La estimacin en dos etapas de una ecuacin de un sistema de correccin de error con un vector de cointegracin obtenido al tomar la estimacin de la regresin esttica, en lugar del verdadero valor, para estimar el MCE en la de segunda etapa, tiene la misma distribucin lmite con el estimador de mxima verosimilitud que usando el verdadero valor de . El mtodo de mnimos cuadrados en la segunda etapa proporciona estimadores consistentes del error estndar. Demostracin. Ver [Engle y Granger (1987)]. /// Como hemos mencionado, la estimacin tradicional de relaciones de cointegracin consiste en dos etapas. La primera consiste en estimar directamente la relacin de cointegracin y la segunda en estimar el MCE introduciendo los residuos de la relacin de cointegracin estimada en el primer paso. 180

Anlisis de Series de TiempoIX.3.1a. Estimacin Directa de la Relacin de Cointegracin Cuando se estima una relacin entre variables integradas, podemos caer en una regresin espuria, es decir, obtener residuos que no son estacionarios, un R2 elevado y aceptar como significativo el parmetro asociado al regresor. En cambio, si un conjunto de variables estn cointegradas, al obtenerse unos residuos estacionarios, puede realizarse la regresin por MCO. Esto pone de manifiesto la utilidad de la teora de cointegracin a la hora de discriminar entre relaciones espurias y relaciones reales entre variables. Como hemos dicho antes, solo consideramos el caso bivariado para una mayor simplicidad. As, si xt , yt I (1) y se puede plantear la regresin:yt xtt

entonces la estimacin por MCO, al minimizar la varianza residual, estimar consistentemente este nico parmetro de cointegracin, , que conduce a unos residuos estacionarios. De acuerdo a los supuestos, en la expresin anterior, aunque estn involucradas variables I(1), no se trata de una relacin espuria puesto que los residuales son estacionarios y, por tanto, el estadstico Durbin-Watson (DW) ser para un determinado valor de significativamente distinto de cero al no haber una raz unitaria en { t }. Enseguida enunciamos algunas de las caractersticas que presenta la estimacin por xt MCO de la regresin de cointegracin: yt t. La estimacin del parmetro es sesgada, principalmente cuando tenemos muestras pequeas. Esto se debe a la autocorrelacin que presenta t [Phillips (1988)]. Este sesgo no tiene una distribucin normal ni media cero, pero desaparece cuando el tamao muestral tiende a infinito. La estimacin por MCO no es completamente eficiente, pues recordemos que no estamos considerando el resto de informacin disponible, es decir, todo el MCE. En la regresin esttica suele haber una considerable autocorrelacin residual, lo que lleva a la inconsistencia de la estimacin de los errores estndar de los parmetros. Esto implica que los valores de t (estadstica de prueba) de los parmetros del vector de cointegracin estn sesgados y son inconsistentes. Por tanto, la inferencia sobre los parmetros estimados no se puede hacer de manera tradicional. Si las variables implicadas en la relacin de cointegracin son ms de tres, se espera una fuerte colinealidad entre las variables explicativas. Ello sucede porque, para que haya una relacin de cointegracin, las variables han de evolucionar conjuntamente a largo plazo. La eliminacin de una de las variables explicativas en la regresin de cointegracin, a fin de reducir la multicolinealidad, conducir a resultados inconsistentes al no poder obtener residuos estacionarios. Con ello se constata que la multicolinealidad, ms que un problema, es una caracterstica inherente a las variables cointegradas. 181

Anlisis de Series de TiempoEn resumen, se podra decir que la estimacin por MCO de la regresin de cointegracin proporciona, de forma sencilla, unos parmetros superconsistentes, aunque sesgados y no eficientes, sobre los que no se puede hacer inferencia, pero que permitira contrastar si existe una raz unitaria en los residuos estimados (que son consistentes). IX.3.1b. Estimacin del Mecanismo de Correccin de Error (MCE) Una vez estimado por MCO el vector de cointegracin (regresin esttica) en el paso uno, los resultantes parmetros del MCE pueden ser estimados consistentemente introduciendo los residuales de la regresin esttica del paso uno rezagados un periodo, es decir, t 1 ,en el MCE. As, en la segunda etapa del proceso de estimacin y contraste de relaciones de cointegracin, se estimar el MCE introduciendo t 1 en lugar del vector de cointegracin. [Engle y Granger (1987)]. Existe una versin de estimacin que consiste en tres etapas, es decir, se agrega una a las dos anteriores. El supuesto en el que se basa esta versin es la existencia de un nico vector de cointegracin. El procedimiento de estimacin en tres etapas fue desarrollado por [Engle y Yoo (1987)]. Otro mtodo alternativo de estimacin es propuesto por Johansen y est basado en el concepto de mxima verosimilitud. IX.3.2. Estimacin de Johansen El procedimiento basado en Mxima Verosimilitud con informacin completa tiene una serie de ventajas frente a los restantes mtodos, como son: contrastar simultneamente el orden de integracin de las variables y la presencia de relacin de cointegracin y estimar todos los vectores de cointegracin, sin imponer a priori que nicamente hay uno. Por estos motivos, se convierte en una alternativa cada vez ms utilizada frente a otros mtodos de estimacin y contraste como el de dos etapas de Engle y Granger. No obstante, el procedimiento de Johansen tambin impone algunos supuestos. [Johansen (1988)]. El procedimiento parte de la modelacin de vectores autoregresivos en la que todas las variables se consideran endgenas (dependientes). Formalmente, supongamos el modelo autorregresivo multivariado de orden p, VAR(p):Yt1

Yt

1

p

Yt

p

t

donde Y t es un vector de orden m; m es el nmero de variables del modelo; es un vector de constantes, y t es un vector de perturbaciones aleatorias tal que t iid (0, ) . Se puede mostrar (mediante algebra) que el modelo puede escribirse de la siguiente forma:Yt1

Yt

1

p 1

Yt

p 1

Yt

p

t

182

Anlisis de Series de Tiempodondei 1 1

i p

I , i 1,..., p 1 I

es conocida como matriz de impactos, pues contiene toda la La matriz informacin sobre la relacin a largo plazo. Note que esta ltima expresin del modelo es la de un MCE en forma matricial. Por otro lado, si recoge la relacin de cointegracin, entonces { Y t p } ser I(0). Esto garantiza que el modelo est equilibrado. Si r es el rango de , pueden presentarse los siguientes casos:

1. r=0. En este caso, tendramos que es una matriz nula. Esto implica que el modelo presente solo variables diferenciadas y, en consecuencia, las variables del vector Y t sern I(0). Es decir, no existira ninguna relacin de cointegracin. 2. 0 < r < m. En este caso habr r relaciones de cointegracin. El rango de ser el nmero de columnas linealmente independientes de la matriz (vectores de cointegracin). 3. r = m. En este caso, el proceso multivariado { Y t } ser estacionario. Como mencionamos antes, intuitivamente, esto se debe a que entre m variables slo puede haber como mximo m 1 vectores de cointegracin linealmente independientes. Tendramos que, si A es la matriz de vectores de cointegracin, A ' Y t I (0) , donde todas las variables de Y t son I(1). En conclusin, Y t ser estacionario solo si es de rango m, ya que esta matriz recoge las relaciones (vectores) de cointegracin (relaciones a largo plazo). La idea intuitiva que hay detrs del procedimiento de estimacin por Mxima Verosimilitud de Johansen es que se deben encontrar las combinaciones lineales del vector Y t que estn correlacionadas al mximo con las diferencias Y t . La secuencia de pruebas de hiptesis sera empezar planteando H0: r=0 (no cointegracin) frente una alternativa de r=1. En caso de rechazar H0, se contrastara la nueva hiptesis H0: r = 1 frente a la alternativa de r=2, y as sucesivamente hasta el momento en que no se rechace H0, o bien hasta aceptar que todas las variables son estacionarias, en tal caso, tendramos r = m. El proceso de estimacin de Johansen se basa en el concepto de Mxima Verosimilitud, por lo que debemos suponer alguna distribucin (Normal Multivariada). p 1 Yt p 1 Yt p Supongamos que la expresin Y t t es el MCE, 1 Yt 10 , 0 < r < m, Y t p ,...,Y 0 son datos conocidos y t NM (0, ) e independientes. Bajo estos supuestos, podemos obtener la estimacin por Mxima Verosimilitud siguiendo los siguientes pasos:

183

Anlisis de Series de Tiempo1. Estimar por MCO los sistemas de ecuaciones:

Yt Ytp

01 11

Yt Yt

1 1

0, p 1 1, p 1

Yt Yt

p 1 p 1

r 0t r 1t

De esta forma, podemos obtener los vectores residuales r 0t y r 1t . 2. Calcular los momentos de segundo orden de los residuales. Es decir, calcular la cantidad:n t 1

r it r jt S ij n , i, j 0,1

'

Note que Sij es una matriz cuadrada de orden m m. 3. La estimacin de mxima verosimilitud de la matriz de vectores de cointegracin, A, bajo la restriccin de normalizacin A ' S11 A I , se obtiene a partir del clculo de los valores propios de S10 S 001 S 01 respecto a S11 . Es decir, las i , i = 1, . . . ,m, son tales que:S11 S10 S 001 S 012

0

Las lambdas obtenidas sern:

1

m

.

4. Para probar la hiptesis nula de que hay como mximo r vectores de cointegracin frente a la alternativa de que hay m, r < m, la estadstica de prueba de razn de verosimilitud est dada por:m traza

(r )

2 ln Q

n

(1i r 1

i

)

la cual sigue una distribucin (asinttica) c (2f ) , donde c = 0,85 0,58/f , (2f ) es la distribucin Ji-Cuadrada con f = 2(m r)2 grados de libertad. Esta estadstica se denomina estadstica de la traza. 5. Teniendo el rango de cointegracin, podemos pensar en la estimacin de la matriz A. Las columnas de A sern los vectores propios asociados a cada i . De esta forma, la i-sima columna de la matriz A, Ai, se estima a partir de la expresin: S10 S 001 S 01 Aii

S11 Ai i=1,,r

6. Una estimacin consistente de las matrices ,

y

se obtiene de:

184

Anlisis de Series de Tiempo S 01 A A S 00 '

IX.3.3. Contrastes de Cointegracin sobre los Residuales Una forma sencilla de contrastar una relacin de cointegracin entre variables consiste en analizar si los residuos de la regresin de cointegracin presentan un orden de integracin menor que el de las variables involucradas. A manera de ejemplo, para el caso de variables I(1), el contraste consistir en determinar si los residuos presentan una raz unitaria (no cointegracin) o, lo que es lo mismo, determinar si son o no estacionarios. Para ello se pueden utilizar los contrastes de races unitarias presentadas anteriormente (Dickey - Fuller). Mostramos dos contrastes propuestos en [Engle y Granger (1987)] de los que existen valores crticos tabulados: el basado en el Durbin-Watson de la regresin esttica y el Dickey - Fuller Aumentado sobre los residuos de dicha regresin. En ambos la hiptesis nula es:H0 :t

I (1) (H0: no cointegracin)

Si no se rechaza la hiptesis de no cointegracin entre las variables integradas utilizadas en la regresin esttica, debemos concluir que la relacin estimada es de tipo espurio. IX.3.3a. Contraste Durbin-Watson sobre los Residuales de Cointegracin (DWRC) El DWRC, se calcula de la misma forma que el estadstico Durbin-Watson y est dado por:n

t DWRCt 2 n

t t2

2 1

t 1

t denota los residuales de la regresin de cointegracin estimada por MCO.xt 0 La hiptesis nula que se plantea en la estimacin yt t es H 0 : DWRC (no cointegracin). Si el estadstico DWRC es significativamente mayor que cero, entonces aceptaremos la existencia de una raz unitaria en los residuos. El valor DWRC se compara con los valores crticos de las tablas que aparecen en [Engle y Granger (1987)] para el caso de dos variables. De manera usual, si el DWRC estimado es inferior a los valores crticos tabulados no se podr rechazar la H0.

Como todo procedimiento, este tiene ventajas y desventajas. Una ventaja de este contraste es que es invariante frente a la posible inclusin de constantes y tendencias en el modelo, sin que por ello varen sus valores crticos. El problema de este contraste es que 185

Anlisis de Series de Tiempogeneralmente { t } sigue un esquema AR(p) y el contraste DWRC considera nicamente un esquema AR(1). IX.3.3b. Contraste Dickey-Fuller sobre los Residuales de Cointegracin (DFRC) El contraste del tipo Dickey-Fuller (DF) o Dickey-Fuller Aumentado (DFA) sobre la regresin de cointegracin, consiste en estimar por MCO la regresin:p

t

t

1 i 1

i

t

1

et

donde t denota los residuos de la regresin de cointegracin estimada por MCO, y el nmero de retardos p se escoge suficientemente grande como para que { et } forme un proceso de ruido blanco. Como sugieren Phillips y Oularis, el valor de p debe aproximarse por el valor 3 n cuando las variables siguen un proceso ARIMA(p,1,q). La introduccin de los retardos de los residuos diferenciados en el modelo se justifica de la necesidad de eliminar la autocorrelacin que presenten los residuos. Cabe sealar que si se utilizan los valores crticos de los contrastes DF o DFA para este caso, se rechazar la hiptesis nula de no estacionaridad con demasiada frecuencia. Para evitar este sesgo los valores crticos deben aumentarse ligeramente. IX.4. PRONSTICO EN SISTEMAS COINTEGRADOS En los procesos de prediccin se tiene la caracterstica de que la varianza del error de pronstico crece a medida que el horizonte de pronstico lo hace (h crece). El proceso de pronstico de sistemas cointegrados tambin tiene esta caracterstica. Por otra parte, segn [Engle y Yoo (1987)], el pronstico a largo plazo viene dado exactamente por el vector de cointegracin. As por ejemplo, dada una representacin por ' MCE con una relacin de cointegracin yt X t , la mejor prediccin a largo plazo hecha en el momento t de yt h (con t suficientemente grande) condicionada a X t cual tendr varianza finita aunque h tienda a infinito.h

es yt

' h

X t h , la

Sin embargo, el hecho de que la varianza de los errores del pronstico (ECM) de la combinacin de cointegracin se mantiene finita no resuelve el problema del pronstico a largo plazo con variables integradas. El siguiente ejemplo ilustra la dificultad. Consideremos el procesoxt0

xt

1

t

con

1 . Entonces, haciendo repetidas sustituciones, se puede llegar a que el pronstico a hh||t

pasos en el tiempo t, denotado por x t

est dado por: 186

Anlisis de Series de Tiempoxt 0 h|t

(1 1

h

)

h

xt

Es fcil observar que cuando h tiende a infinito, la prediccin en cuestin tiende a la ) 1 , que no es ms que la me