Capitulo 9: Modelos unívariados de series temporales

Post on 07-Jan-2016

101 views 7 download

description

Capitulo 9: Modelos unívariados de series temporales. Procesos estocásticas Función de autocovarianza, autocorrelación y autocorrelación parcial. Procesos de ruido blanco y paseo aleatorio Teorema de Wold Procesos AR(p) Procesos MA(q) Procesos ARMA(p,q) Procesos ARIMA(p,d,q). - PowerPoint PPT Presentation

Transcript of Capitulo 9: Modelos unívariados de series temporales

Capitulo 9: Modelos unívariados de series temporales

Procesos estocásticasFunción de autocovarianza, autocorrelación y autocorrelación parcial.Procesos de ruido blanco y paseo aleatorioTeorema de WoldProcesos AR(p)Procesos MA(q)Procesos ARMA(p,q)Procesos ARIMA(p,d,q)

Procesos estocásticos

• Definición: Un proceso estocástico es una sucesión de variables aleatorias ordenadas en el tiempo (en el caso de series temporales).

• Definición: Una serie temporal es una realización del proceso estadístico, es decir, es una observación de T variables aleatorias ordenadas en el tiempo.

Restricciones a la heterogeneidad temporal del proceso.

Restricciones de Estacionaridad• Definición: Un proceso estocástico es

estacionario en sentido estricto o fuerte cuando la distribución de probabilidad conjunta de cualquier parte de la secuencia de variables aleatorias es invariante del tiempo.

),...,,(),...,,( 11 ktttkttt xxxFxxxF

Restricciones a la heterogeneidad temporal del proceso.

• Definición: Un proceso estocástico es estacionario en sentido débil si los momentos del primero y segundo orden de la distribución (esperanzas, varianzas, covarianzas) son constantes a largo del tiempo.

• para todos los .

• para todos y .

22)(

,)(

tt

t

xE

xE

,tttt xxE

t

t

Restricciones a la heterogeneidad temporal del proceso.

• Restricciones de memoria del proceso, ergodicidad.

• La relación entre dos variables aleatorios de un proceso es más débil cuando las variables son más lejanas en el tiempo.

• Al aumentar el número de observaciones de la serie temporal aumenta el número de covarianzas, pero no el número de parámetros de estimar.

0lim

Restricciones a la heterogeneidad temporal del proceso.

• Definición: Homogenización de una serie temporal es cuando a través de una transformación el serie temporal es estacionar.

• Queremos tener una serie temporal con una media y varianza (más o menos) constante a largo del tiempo.

Restricciones a la heterogeneidad temporal del proceso.

• Transformación Box-Cox:

0ln

01

)(

six

six

x

t

t

t

Restricciones a la heterogeneidad temporal del proceso.

Para conseguir una media constante a largo del tiempo se puede aplicar operadores de diferencia, . L 1 , donde L es el operador de retardo. 1 tt xLx .

.)1( 1 tttt xxxLx

Una media estacionaria se puede conseguir a través diferenciaciones sucesivas.

td

td

t xLxw )1(

Las funciones de autovarianza y autocorrelación

• Funciones de autocorrelación miden la relación lineal entre variables aleatorias de procesos separadas de una cierta distancia en el tiempo.

• Estimación de estas funciones permiten determinar la forma del procesos estocástico.

Las funciones de autovarianza y autocorrelación

• La función de autocovarianza

Si el proceso es estacionario, su esperanza es constante a largo del tiempo, y la función de autocovarianza no depende del momento en tiempo, sólo la distancia temporal.

,...1,0,1...,

)])([(),(,

ttttttt xxExxCov

)])([( tt xxE

Las funciones de autovarianza y autocorrelación

• Para cada retardo hay un valor diferente para la función de autocovarianzas, autocovarianza de orden .

• Función de autocorrelación simple (FAS),

22

,,

)()(

)])([(

tttt

tttt

tt

tt

xExE

xxE

Las funciones de autovarianza y autocorrelación

• Si el proceso es estacionario, los momentos de segunda orden no depende de .

• Una correlograma enseña la FAS en función de .

t

20 )(

)])([(

t

tt

xE

xxE

Las funciones de autovarianza y autocorrelación

• La función de autocorrelación parcial (FAP) enseña la relación lineal cuando se ha eliminado la correlación que estas variables tienen con otras variables.

),...,|,( 11 kttkttkk xxxxCorr

Las funciones de autovarianza y autocorrelación

• Se puede obtener los coeficientes de FAS a través regresiones.

• Nota: Si la esperanza de no es cero, hay que añadir una constante en cada regresión.

)ˆ()ˆ(

))ˆ(),ˆ((

ktkttt

ktktttkk

xxVarxxVar

xxxxCov

tktkktktkt

tttt

ttt

vxxxx

vxxx

vxx

...2211

222121

111

tx

Las funciones de autovarianza y autocorrelación

• Se puede demostrar que los coeficientes de FAS se pueden escribir como una función de coeficientes de FAP. Esta relación se llama el sistema de ecuaciones de Yule-Walker.

Estimación de los momentos muéstrales

• Para un proceso estocástico estacionario con ergodicidad, con una sola serie temporal, podemos estimar;

Media ( ) (

T

ttxTx

1

1 )

Varianza ( 0 )

Autocovarianzas ( )

Autocorrelaciones ( )

Autocorrelaciones parciales ( kk )

La función de autocovarianza

• La función de autocovarianza se puede estimar a través de la función de autocovarianza muestral:

))((ˆ1

1 xxxxT t

T

tt

Función de autocorrelacion simple

• Función de autocorrelacion simple muestral,

2

1

1

0 )(

))((ˆ

T

tt

t

T

tt

xx

xxxxr

Función de autocorrelacion simple

Si el proceso es a) estacionario gaussiano (normal) y b) 0ˆ k para k , se puede

estimar la varianza de r con esta formula,

1

1

2211

)(

i

irTrV

Se puede usar la varianza para contrastar la 0:0 H . )(96.1 rstdr donde )(std

es el error estándar. Rechazamos la hipótesis si r es fuera del intervalo

( )(96.1),(96.1 rstdrstd ).

función de autocorrelación parcial

• Para hacer la función de autocorrelación parcial muestral se puede aplicar MCO.

tktkktktkt

tttt

ttt

vxxxcx

vxxcx

vxcx

...2211

222121

111

Donde kk ,...,11 son estimaciones consistentes de la FAP. Bajo los supuestos que el

proceso es gaussiano (normal) y que 0...1,1 kkkk , se puede estimar la varianza

con,

TV kk

1)ˆ( de manera que si kk̂ está fuera del intervalo ( 2/12/1 96.1,96.1 TT )

rechazamos la hipótesis que 0ˆ kk .

Procesos de ruido blanco

Definición:• es un proceso estocástico de ruido

blanco si;

• Es un proceso con media = 0, varianza constante, y sin autocorrelación. No se puede predecir a partir de su pasado.

Ttt 1

00)(

)()(

0)(22

yttodosparaE

ttodosparaVE

ttodosparaE

tt

tt

t

Procesos de paseo aleatorio

Definición (18)

• Un proceso estocástico sigue un paseo aleatorio si;

• El valor en un momento es el valor del periodo anterior más un efecto aleatorio ruido blanco.

blancoruidoesdonde

xx

t

ttt

1

ttttt xLxxx )1(1

Procesos de paseo aleatorio

Procesos de paseo aleatorio

• Se puede generalizar el modelo e incorporar una deriva.

ttt

tt

xx

x

1

Procesos de paseo aleatorio

• Memoria permanente; todo los efectos aleatorios tienen un efecto permanente.

• es una pendiente de una tendencia determinista.

• está formado por la suma de todo las perturbaciones pasadas.

1

00

121 ...)(t

jjt

tttttt

tx

xxx

tx

Procesos de paseo aleatorio

• El primero momento;

• Si el proceso no es estacionario en media.

txtxExEt

jjtt

0

1

00)(

0

Procesos de paseo aleatorio

• La varianza;

• No es estacionario en varianza; tiene una tendencia (incrementa linealmente). Paseo aleatorio tiene una tendencia en varianza o tendencia estocástica.

t

EE

ExExE

t

jjt

t

jjjj

jtjt

t

jjt

t

jjtttt

2

1

0

21

'0',

'

1

0

2

21

0

20,

)(2

))((

t es ruido blanco, y 00)( jE jtt

Procesos de paseo aleatorio

• Otra manera de llegar al mismo resultado;

Procesos de paseo aleatorio

• Autocovarianza;

• La autocovarianza tampoco es constante

)(

)(

))())(((

2

1

0

21

0

1

0

,

t

EE

xExxExE

t

jjt

t

jjt

t

jjt

ttttt

Procesos de paseo aleatorio

• Conclusión: Paseo aleatorio no es estacionar. Esto complica la inferencia. De todos modos, hay un camino definida de variación a largo del tiempo.

Procesos de paseo aleatorio

• Si transformamos el proceso a través de una diferencia, la transformación sería estacionaria.

ttt xw

tw es estacionario; es un ruido blanco alrededor de la media, .

Procesos de paseo aleatorio

• Es importante detectar si un serie está generada por un pasea aleatorio.

• 1) La función de autocorrelación simple puede dar una indicación.

• Una correlograma presentará los primeros coeficientes muy cerca de 1, y esta va decreciendo suavemente.

ttt

t

tt

t

tt

tt

1)(

)(

)(

)(22

2

0,0,

,,

Procesos de paseo aleatorio

• La FAP, resultaría en un primero coeficiente significativo y cerca de uno, mientras los siguientes coeficientes serán cero.

tktkktktkt

tttt

ttt

uxxxcx

uxxcx

uxcx

...2211

222121

111

Procesos de paseo aleatorio

• Normalmente un FAS que está decreciendo muy lento con un primer FAP cerca uno y los restos cero, indica que podemos diferenciar para conseguir un serie temporal estacionario.

Procesos de paseo aleatorio

• Otra manera para saber si se debe diferenciar una serie temporal son los contrastes de raíces unitarias.

• Constaste de raíces unitarias. “unit roots”. Estima la ecuación;

ttt xx 1

Y contrastar si 1:0 H

Procesos lineales

• Definición: Un proceso estocástico es lineal cuando lo podemos escribir como una función de una combinación lineal (posiblemente infinita) de variables aleatorios de ruido blanco.

Ttt 1

0

2211 ...

jjtj

ttttx

Procesos lineales

• Hay tres tipos de procesos estocásticos lineales;

• Autoregresivas (AR)• Media móvil (MA)

• ARMA (la combinación de AR y MA)

qtqttptptt

qtqtttt

tptpttt

xxxqpARMA

xqMA

xxxxpAR

......);,(

...);(

...);(

1111

2211

2211

t es un término aleatorio, independiente e idénticamente distribuido (“ruido blanco”).

Procesos lineales

• Se puede introducir una constante para tener procesos con una media .

• Se puede expresar los procesos con un polinomio de operadores de retardos. El operador de retardos L esta definido por;

• Este operador retarda la serie tantas periodos como el exponente indica.

0

kttk

tt

xxL

xLx

1

k

Procesos lineales

• Utilizando el operador de retardos y la generalización con el constante, , podemos escribir los procesos:

• Se puede transformar procesos AR y ARMA en procesos MA.

tqtp

tqt

ttp

LxLqpARMA

LxqMA

xLpAR

)()();,(

)();(

)();(

móvilmediapolinomioLLLL

sivoautoregrespolinomioLLLLq

qp

ppp

...1)(

...1)(2

21

221

Procesos lineales

Teorema de Wold. Cualquier proceso estocástico estacionario se puede representar con una suma de dos procesos.

Donde es linealmente determinista y es un proceso :

Donde es ruido blanco.

ttt udx

td tu)(MA

0

)(

jjtj

tt Lu

t

Procesos lineales

• El proceso se puede aproximar a través modelos lineales, cuando el polinomio infinito se puede aproximar bien con un cociente de dos polinomios en

• Transformaciones puede hacer series estacionarios y la teorema permite crear modelos relativamente sencillas a partir de modelos lineales.

)(MA)(L

)(

)()(:

L

LLL

p

q

Procesos autoregresivos (AR)

• Un proceso autoregresivo se puede escribir,

ptpttt

ttp

p

ttp

xxxx

xLLL

xL

...

)...1(

)(

2211

221

Procesos autoregresivos (AR)

• Para que un proceso AR sea estacionario el polinomio en el operador de retardos asociados al proceso tiene que ser estable, es decir, al calcular las raíces del polinomio,

estas tienen de caer fuera del círculo unidad. Los valores de que satisfacen esto cumple .

)(Lp

0)...1()( 221 p

pp LLLL

L 1L

Procesos autoregresivos (AR)

• Si hay alguno raíz igual a 1 (raíz unitario) el proceso AR no es estacionario, y no se pueden expresar como procesos . Si hay alguna raíz inferior a 1 el proceso será explosivo y tampoco estacionario.

)(MA

Procesos autoregresivos (AR)

• Las condiciones para estacionariedad son:

• (necesaria, pero no suficiente):

• (suficiente, pero no necesario):

11

p

jj

11

p

jj

Procesos autoregresivos (AR)

• AR(1) estacionariedad

• Condición necesaria y suficiente:

tt

ttt

xL

xx

)1(11

1

Procesos autoregresivos (AR)

• Un proceso estacionario se puede escribir como un proceso .

• Se puede llegar a la misma solución a través de substitución recursiva.

)1(AR)(MA

jtj

j

tt

t LLL

x

0

22

1

)...)(1()1(

.1 ttt xx

Procesos autoregresivos (AR)

• La solución se usa para calcular los momentos del proceso. También se puede usar para enseñar el siguiente resultado, valido por . 0h

0...1

)( 22

1

htttthtt ExE

Dado que 0)( stE para todos st .

Procesos autoregresivos (AR)

• El momento de primer orden es;

• Con estacionariedad tenemos el mismo resultado;

11

)(0

jtj

jt ExE

))()(( 1 tt xExE

11 )1()()(

ttt xExE

Procesos autoregresivos (AR)

• La varianza del proceso es;

• También se puede llegar a este resultado a través;

2

22

0

2

2

0

20 1

)(

j

jjt

j

jt ExE

12220

210 )1()()(

ttt xVxV

Procesos autoregresivos (AR)

• La autocovarianza del proceso es, donde; indica la desviación con respecto a la media.

tx~

01

02

12122

01111

)~)~(()~~(

)~)~(()~~(

)~)~(()~~(

ttttt

ttttt

ttttt

xxExxE

xxExxE

xxExxE

Procesos autoregresivos (AR)

• La función de autocorrelación simple es;

• y tiene un decrecimiento exponencial.

• FAP, al otro lado, sólo tiene un coeficiente diferente de cero. Se puede demostrar con las ecuaciones de Yule-Walker.

0

Procesos autoregresivos (AR)

Procesos autoregresivos (AR)

• AR(2):

• Al calcular las raíces del polinomio tendríamos dos

soluciones y hay los siguientes requisitos (simultáneamente) para tener un polinomio estable.

)1()(

)(

)1(

2212

2

221

2211

LLLdonde

xL

xLL

xxx

tt

tt

tttt

0)1( 221 LL

1

1

1

2

12

12

Procesos autoregresivos (AR)

• Los resultados para la covarianza de AR(1) se puede generalizar.

Procesos autoregresivos (AR)

Procesos media móviles (MA(q))

• Un proceso media móvil de orden q;

• Estos procesos siempre son estacionarios (los momentos de primer y segundo orden son siempre finitas y constantes a largo del tiempo).

• Una condición (que hay que comprobar) para estos procesos es que son invertibles.

tq

qtqtttt

L

x

)(

...2211

Procesos media móviles (MA(q))

• Esta condición implica que las raíces del polinomio están fuera del círculo de unidad. Los procesos MA no invertibles no permiten una representación autoregresiva convergente.

)(Lq

Procesos media móviles (MA(1))

• MA(1):

• La condición de invertibilidad es para un proceso MA(1) es .

• Esperanza:

11 tttx

1

)()( 11 ttt ExE

Procesos media móviles (MA(1))

• Varianza:

• Autocovarianza:

221

112

12

122

112

0

1

)(2)()()()(

ttttttt EEEExE

20

0))(())((

))(())((

3121122

212111111

tttttt

tttttt

ExxE

ExxE

Procesos media móviles (MA(1))

• FAS es:

• La FAP presenta un decrecimiento exponencial;

• Se puede llegar a este resultado general con las ecuaciones de Yule-Walker.

20

1)1( 2

1

1

)1(21

211

1

)1(

k

k

kk

Procesos media móviles (MA(1))

61

41

21

31

2

21

1

3

21

1

21

31

22

212

21

32121

221

313

33

41

21

21

21

212

22

21

111

1

121

1

21221

2

11

1

Procesos media móviles (MA(1))

Procesos media móviles (MA(2))

• Calcular las raíces del polinomio.

0)1( 211 LL

Procesos media móviles (MA(2))

• Para tener un modelos estable;

Procesos media móviles (MA(2))

Procesos media móviles (MA(2))

Procesos media móviles (MA(2))

• Función de autocorrelación simple

Procesos media móviles (MA(2))

Procesos media móviles (MA(2))

Procesos media móviles (MA(q))

• MA(q) con deriva:

• (el mismo resultado)

)()( 2211 qtqtttt ExE

2222

21

22211

20

1

)()(

q

qtqtttt ExE

Procesos media móviles (MA(q))

qsi

qsi

ExxE

qq

qtqtttqtqttttt

0

)(

))(())((

211

121122111

Procesos media móviles (MA(q))

Procesos autoregresivos media móviles (ARMA(p,q))

• Un modelo autoregresivo media móvil (ARMA(p,q)) sigue la forma;

• Es decir, tiene una parte autoregresivo y otra parte media móvil.

Procesos autoregresivos media móviles (ARMA(p,q))

• Debemos comprobar si la parte autoregresiva es estacionaria y la parte media móvil es invertible.

• Si la parte AR es estacionario, se puede escribir como un )(MA

Procesos autoregresivos media móviles (ARMA(p,q))

• Si la parte MA es invertible, se puede expresarlo como un )(AR

Procesos autoregresivos media móviles (ARMA(p,q))

• Los procesos ARMA tienen un FAS como la de su parte AR y una

• FAP como su parte MA.

• ARMA tiene FAS y FAP que decrecen exponencialmente en valor absoluta hacia cero.

• No se puede determinar el orden.

Procesos autoregresivos media móviles (ARMA(p,q))

ARMA(1,1)

• FAS:

111 tttt xx

11)1(

22

1

2111

0 1

21

1

121

))(1(

11

2111

1111

ARMA(1,1)

ARMA(p,q)

• Representar con :

1)1( p

)(MA

tj

jtjt Lx )(0

0

2220 )(

jjtxE

Procesos autoregresivos integrados media móvil;

ARIMA(p,d,q)• Procesos ARIMA presentan raíces

unitarias en el polinomio autoregresivo; no son estacionarios. Se puede factorizar a partir de las raíces unitarias. Podemos escribir;

• Donde no incluye raíces unitarias y es el número de raíces unitarias.

)(* Lr

)()1()(* LLL drd

r

)(* Ldr d

Procesos autoregresivos integrados media móvil;

ARIMA(p,d,q)• Recuerda el operador de diferencias;

ARIMA(p,d,q)

• Por ejemplo, ARIMA(0,1,0) es un paseo aleatorio.

ARIMA(p,d,q)

• Si una serie presenta un correlograma como un AR(1) con ; FAS está muy cerca 1, y no caen rápidamente.

1

ARIMA(p,d,q)

• Si aplicamos el operador de diferencia cuando no es necesario (sobre-diferenciar), tendremos un MA(1) que no es invertible.

• Por ejemplo: Ruido blanco;

ARIMA(p,d,q)

• Cuando el orden de diferencia se ha decidido , se puede escribir un procesos ARIMA como o un .)(AR )(MA

Procesos estaciónales

• Si tenemos datos con información de varias ocasiones durante un año, podemos observar estacionalidad, es decir, un comportamiento económico que depende del tiempo durante un año. (Ejemplos; temperaturas, vacaciones, movimientos turísticos). Los procesos anteriores están pensados para series con sólo una observación cada año, o series sin estacionalidad.

• El numero de estaciones durante el año llamamos s. Por ejemplo, S=12 para datos mensuales, o 4 para trimestrales. Se puede generalizar los procesos explicas arriba para captar estacionalidad.

Procesos estaciónales

Procesos estaciónales

Procesos estaciónales

Procesos estaciónales

• Una serie temporal con estacionalidad puede tener una estructura de dependencia estacional y otra parte regular (no estacional) que sigue un

• Normalmente estos partes pueden interactuar en una especificación multiplicativa. Este es un modelo

Procesos estaciónales

• En estos modelos hay “efectos satélites”. • Por ejemplo

• Nota el término que se nota en FAP y FAS asociados los retardos próximos a los múltiples de S, pero esto no significa que tengamos procesos adicionales de MA(0,1) y SMA(0,1).

Procesos estaciónales

• FAS: Se reproduce la parte regular de la FAS alrededor de los coeficientes estaciónales.

• FAP: Se reproduce la parte regular de la FAS a la izquierda de los coeficientes estaciónales y la parte de FAP a la derecha.

• Signos: – En FAS se multiplica el signo del coeficientes

estacional por el de regular. – En FAP, si el signo del coeficiente estacional es

positivo se inversa el signo a la parte derecha (FAP regular) mientras si es negativo, se inversa el de la izquierda (FAS regular).

Procesos estaciónales