Econometria de daodar

98
Capitulo 9: Modelos unívariados de series temporales Procesos estocásticas Función de autocovarianza, autocorrelación y autocorrelación parcial. Procesos de ruido blanco y paseo aleatorio Teorema de Wold Procesos AR(p) Procesos MA(q) Procesos ARMA(p,q) Procesos ARIMA(p,d,q)

description

Norma se aplicará por todas las entidades al contabilizar los activos intangibles, excepto en los siguientes casos:(a) activos intangibles que estén tratados en otras Normas.(b) activos financieros, definidos en la NIC 32 Instrumentos financieros: Presentación.(c) el reconocimiento y valoración de activos para exploración y evaluación (véase la NIIF 6 Exploración y evaluación de recursos minerales)desembolsos relacionados con el desarrollo y extracción de minerales, petróleo, gas natural y recursos no renovables similares.

Transcript of Econometria de daodar

  • Capitulo 9: Modelos unvariados de series temporalesProcesos estocsticasFuncin de autocovarianza, autocorrelacin y autocorrelacin parcial.Procesos de ruido blanco y paseo aleatorioTeorema de WoldProcesos AR(p)Procesos MA(q)Procesos ARMA(p,q)Procesos ARIMA(p,d,q)

  • Procesos estocsticos Definicin: Un proceso estocstico es una sucesin de variables aleatorias ordenadas en el tiempo (en el caso de series temporales).

    Definicin: Una serie temporal es una realizacin del proceso estadstico, es decir, es una observacin de T variables aleatorias ordenadas en el tiempo.

  • Restricciones a la heterogeneidad temporal del proceso.

    Restricciones de EstacionaridadDefinicin: Un proceso estocstico es estacionario en sentido estricto o fuerte cuando la distribucin de probabilidad conjunta de cualquier parte de la secuencia de variables aleatorias es invariante del tiempo.

  • Restricciones a la heterogeneidad temporal del proceso.Definicin: Un proceso estocstico es estacionario en sentido dbil si los momentos del primero y segundo orden de la distribucin (esperanzas, varianzas, covarianzas) son constantes a largo del tiempo. para todos los .

    para todos y .

  • Restricciones a la heterogeneidad temporal del proceso.Restricciones de memoria del proceso, ergodicidad.

    La relacin entre dos variables aleatorios de un proceso es ms dbil cuando las variables son ms lejanas en el tiempo. Al aumentar el nmero de observaciones de la serie temporal aumenta el nmero de covarianzas, pero no el nmero de parmetros de estimar.

  • Restricciones a la heterogeneidad temporal del proceso.Definicin: Homogenizacin de una serie temporal es cuando a travs de una transformacin el serie temporal es estacionar.

    Queremos tener una serie temporal con una media y varianza (ms o menos) constante a largo del tiempo.

  • Restricciones a la heterogeneidad temporal del proceso.Transformacin Box-Cox:

  • Restricciones a la heterogeneidad temporal del proceso.

    Para conseguir una media constante a largo del tiempo se puede aplicar operadores de diferencia,

    .

    , donde

    es el operador de retardo.

    .

    _1294126784.unknown

    _1294126857.unknown

    _1294126901.unknown

    _1294126816.unknown

    _1294126754.unknown

    Una media estacionaria se puede conseguir a travs diferenciaciones sucesivas.

    _1294471715.unknown

  • Las funciones de autovarianza y autocorrelacinFunciones de autocorrelacin miden la relacin lineal entre variables aleatorias de procesos separadas de una cierta distancia en el tiempo. Estimacin de estas funciones permiten determinar la forma del procesos estocstico.

  • Las funciones de autovarianza y autocorrelacinLa funcin de autocovarianza

    Si el proceso es estacionario, su esperanza es constante a largo del tiempo, y la funcin de autocovarianza no depende del momento en tiempo, slo la distancia temporal.

  • Las funciones de autovarianza y autocorrelacinPara cada retardo hay un valor diferente para la funcin de autocovarianzas, autocovarianza de orden .

    Funcin de autocorrelacin simple (FAS),

  • Las funciones de autovarianza y autocorrelacinSi el proceso es estacionario, los momentos de segunda orden no depende de .

    Una correlograma ensea la FAS en funcin de .

  • Las funciones de autovarianza y autocorrelacinLa funcin de autocorrelacin parcial (FAP) ensea la relacin lineal cuando se ha eliminado la correlacin que estas variables tienen con otras variables.

  • Las funciones de autovarianza y autocorrelacin

    Se puede obtener los coeficientes de FAS a travs regresiones.

    Nota: Si la esperanza de no es cero, hay que aadir una constante en cada regresin.

  • Las funciones de autovarianza y autocorrelacinSe puede demostrar que los coeficientes de FAS se pueden escribir como una funcin de coeficientes de FAP. Esta relacin se llama el sistema de ecuaciones de Yule-Walker.

  • Estimacin de los momentos mustralesPara un proceso estocstico estacionario con ergodicidad, con una sola serie temporal, podemos estimar;

    Media (

    ) (

    )

    Varianza (

    )

    Autocovarianzas (

    )

    Autocorrelaciones (

    )

    Autocorrelaciones parciales (

    )

    _1294578830.unknown

    _1294578864.unknown

    _1294578887.unknown

    _1294578934.unknown

    _1294578843.unknown

    _1294578804.unknown

  • La funcin de autocovarianzaLa funcin de autocovarianza se puede estimar a travs de la funcin de autocovarianza muestral:

  • Funcin de autocorrelacion simpleFuncin de autocorrelacion simple muestral,

  • Funcin de autocorrelacion simple

    Si el proceso es a) estacionario gaussiano (normal) y b)

    para

    , se puede estimar la varianza de

    con esta formula,

    _1294641929.unknown

    _1294641976.unknown

    _1294641907.unknown

    Se puede usar la varianza para contrastar la

    .

    donde

    es el error estndar. Rechazamos la hiptesis si

    es fuera del intervalo (

    ).

    _1294642270.unknown

    _1294642384.unknown

    _1294642411.unknown

    _1294642369.unknown

    _1294642123.unknown

  • funcin de autocorrelacin parcialPara hacer la funcin de autocorrelacin parcial muestral se puede aplicar MCO.

    Donde

    son estimaciones consistentes de la FAP. Bajo los supuestos que el proceso es gaussiano (normal) y que

    , se puede estimar la varianza con,

    de manera que si

    est fuera del intervalo (

    ) rechazamos la hiptesis que

    .

    _1294644187.unknown

    _1294644571.unknown

    _1294644630.unknown

    _1294644669.unknown

    _1294644396.unknown

    _1294642708.unknown

  • Procesos de ruido blancoDefinicin: es un proceso estocstico de ruido blanco si;

    Es un proceso con media = 0, varianza constante, y sin autocorrelacin. No se puede predecir a partir de su pasado.

  • Procesos de paseo aleatorioDefinicin (18)Un proceso estocstico sigue un paseo aleatorio si;

    El valor en un momento es el valor del periodo anterior ms un efecto aleatorio ruido blanco.

  • Procesos de paseo aleatorio

  • Procesos de paseo aleatorioSe puede generalizar el modelo e incorporar una deriva.

  • Procesos de paseo aleatorioMemoria permanente; todo los efectos aleatorios tienen un efecto permanente.

    es una pendiente de una tendencia determinista. est formado por la suma de todo las perturbaciones pasadas.

  • Procesos de paseo aleatorioEl primero momento;

    Si el proceso no es estacionario en media.

  • Procesos de paseo aleatorioLa varianza;

    No es estacionario en varianza; tiene una tendencia (incrementa linealmente). Paseo aleatorio tiene una tendencia en varianza o tendencia estocstica.

    es ruido blanco, y

    _1298972941.unknown

    _1298972957.unknown

  • Procesos de paseo aleatorioOtra manera de llegar al mismo resultado;

  • Procesos de paseo aleatorioAutocovarianza;

    La autocovarianza tampoco es constante

  • Procesos de paseo aleatorioConclusin: Paseo aleatorio no es estacionar. Esto complica la inferencia. De todos modos, hay un camino definida de variacin a largo del tiempo.

  • Procesos de paseo aleatorioSi transformamos el proceso a travs de una diferencia, la transformacin sera estacionaria.

    es estacionario; es un ruido blanco alrededor de la media,

    .

    _1298373029.unknown

    _1298373083.unknown

  • Procesos de paseo aleatorioEs importante detectar si un serie est generada por un pasea aleatorio.

    1) La funcin de autocorrelacin simple puede dar una indicacin.

    Una correlograma presentar los primeros coeficientes muy cerca de 1, y esta va decreciendo suavemente.

  • Procesos de paseo aleatorio

    La FAP, resultara en un primero coeficiente significativo y cerca de uno, mientras los siguientes coeficientes sern cero.

  • Procesos de paseo aleatorioNormalmente un FAS que est decreciendo muy lento con un primer FAP cerca uno y los restos cero, indica que podemos diferenciar para conseguir un serie temporal estacionario.

  • Procesos de paseo aleatorioOtra manera para saber si se debe diferenciar una serie temporal son los contrastes de races unitarias. Constaste de races unitarias. unit roots. Estima la ecuacin;

    Y contrastar si

    _1298374233.unknown

  • Procesos lineales Definicin: Un proceso estocstico es lineal cuando lo podemos escribir como una funcin de una combinacin lineal (posiblemente infinita) de variables aleatorios de ruido blanco.

  • Procesos linealesHay tres tipos de procesos estocsticos lineales; Autoregresivas (AR)Media mvil (MA)ARMA (la combinacin de AR y MA)

    es un trmino aleatorio, independiente e idnticamente distribuido (ruido blanco).

    _1290850708.unknown

  • Procesos linealesSe puede introducir una constante para tener procesos con una media .

    Se puede expresar los procesos con un polinomio de operadores de retardos. El operador de retardos L esta definido por;

    Este operador retarda la serie tantas periodos como el exponente indica.

  • Procesos linealesUtilizando el operador de retardos y la generalizacin con el constante, , podemos escribir los procesos:

    Se puede transformar procesos AR y ARMA en procesos MA.

  • Procesos linealesTeorema de Wold. Cualquier proceso estocstico estacionario se puede representar con una suma de dos procesos.

    Donde es linealmente determinista y es un proceso :

    Donde es ruido blanco.

  • Procesos linealesEl proceso se puede aproximar a travs modelos lineales, cuando el polinomio infinito se puede aproximar bien con un cociente de dos polinomios en

    Transformaciones puede hacer series estacionarios y la teorema permite crear modelos relativamente sencillas a partir de modelos lineales.

  • Procesos autoregresivos (AR)Un proceso autoregresivo se puede escribir,

  • Procesos autoregresivos (AR)Para que un proceso AR sea estacionario el polinomio en el operador de retardos asociados al proceso tiene que ser estable, es decir, al calcular las races del polinomio,

    estas tienen de caer fuera del crculo unidad. Los valores de que satisfacen esto cumple .

  • Procesos autoregresivos (AR)Si hay alguno raz igual a 1 (raz unitario) el proceso AR no es estacionario, y no se pueden expresar como procesos . Si hay alguna raz inferior a 1 el proceso ser explosivo y tampoco estacionario.

  • Procesos autoregresivos (AR)Las condiciones para estacionariedad son:

    (necesaria, pero no suficiente):

    (suficiente, pero no necesario):

  • Procesos autoregresivos (AR)AR(1) estacionariedad

    Condicin necesaria y suficiente:

  • Procesos autoregresivos (AR)Un proceso estacionario se puede escribir como un proceso .

    Se puede llegar a la misma solucin a travs de substitucin recursiva.

  • Procesos autoregresivos (AR)La solucin se usa para calcular los momentos del proceso. Tambin se puede usar para ensear el siguiente resultado, valido por .

    Dado que

    para todos

    .

    _1298884007.unknown

    _1298884038.unknown

  • Procesos autoregresivos (AR)El momento de primer orden es;

    Con estacionariedad tenemos el mismo resultado;

  • Procesos autoregresivos (AR)La varianza del proceso es;

    Tambin se puede llegar a este resultado a travs;

  • Procesos autoregresivos (AR)La autocovarianza del proceso es, donde; indica la desviacin con respecto a la media.

  • Procesos autoregresivos (AR)La funcin de autocorrelacin simple es;

    y tiene un decrecimiento exponencial.

    FAP, al otro lado, slo tiene un coeficiente diferente de cero. Se puede demostrar con las ecuaciones de Yule-Walker.

  • Procesos autoregresivos (AR)

  • Procesos autoregresivos (AR)AR(2):

    Al calcular las races del polinomio tendramos dos soluciones y hay los siguientes requisitos (simultneamente) para tener un polinomio estable.

  • Procesos autoregresivos (AR)Los resultados para la covarianza de AR(1) se puede generalizar.

  • Procesos autoregresivos (AR)

  • Procesos media mviles (MA(q))Un proceso media mvil de orden q;

    Estos procesos siempre son estacionarios (los momentos de primer y segundo orden son siempre finitas y constantes a largo del tiempo). Una condicin (que hay que comprobar) para estos procesos es que son invertibles.

  • Procesos media mviles (MA(q))Esta condicin implica que las races del polinomio estn fuera del crculo de unidad. Los procesos MA no invertibles no permiten una representacin autoregresiva convergente.

  • Procesos media mviles (MA(1))MA(1):

    La condicin de invertibilidad es para un proceso MA(1) es .

    Esperanza:

  • Procesos media mviles (MA(1))Varianza:

    Autocovarianza:

  • Procesos media mviles (MA(1))FAS es:

    La FAP presenta un decrecimiento exponencial;

    Se puede llegar a este resultado general con las ecuaciones de Yule-Walker.

  • Procesos media mviles (MA(1))

  • Procesos media mviles (MA(1))

  • Procesos media mviles (MA(2))

    Calcular las races del polinomio.

  • Procesos media mviles (MA(2))Para tener un modelos estable;

  • Procesos media mviles (MA(2))

  • Procesos media mviles (MA(2))

  • Procesos media mviles (MA(2))Funcin de autocorrelacin simple

  • Procesos media mviles (MA(2))

  • Procesos media mviles (MA(2))

  • Procesos media mviles (MA(q))MA(q) con deriva:

    (el mismo resultado)

  • Procesos media mviles (MA(q))

  • Procesos media mviles (MA(q))

  • Procesos autoregresivos media mviles (ARMA(p,q))Un modelo autoregresivo media mvil (ARMA(p,q)) sigue la forma;

    Es decir, tiene una parte autoregresivo y otra parte media mvil.

  • Procesos autoregresivos media mviles (ARMA(p,q))Debemos comprobar si la parte autoregresiva es estacionaria y la parte media mvil es invertible.

    Si la parte AR es estacionario, se puede escribir como un

  • Procesos autoregresivos media mviles (ARMA(p,q))Si la parte MA es invertible, se puede expresarlo como un

  • Procesos autoregresivos media mviles (ARMA(p,q))Los procesos ARMA tienen un FAS como la de su parte AR y una FAP como su parte MA. ARMA tiene FAS y FAP que decrecen exponencialmente en valor absoluta hacia cero. No se puede determinar el orden.

  • Procesos autoregresivos media mviles (ARMA(p,q))

  • ARMA(1,1)

    FAS:

  • ARMA(1,1)

  • ARMA(p,q)

    Representar con :

  • Procesos autoregresivos integrados media mvil; ARIMA(p,d,q)Procesos ARIMA presentan races unitarias en el polinomio autoregresivo; no son estacionarios. Se puede factorizar a partir de las races unitarias. Podemos escribir;

    Donde no incluye races unitarias y es el nmero de races unitarias.

  • Procesos autoregresivos integrados media mvil; ARIMA(p,d,q)Recuerda el operador de diferencias;

  • ARIMA(p,d,q)Por ejemplo, ARIMA(0,1,0) es un paseo aleatorio.

  • ARIMA(p,d,q)Si una serie presenta un correlograma como un AR(1) con ; FAS est muy cerca 1, y no caen rpidamente.

  • ARIMA(p,d,q)Si aplicamos el operador de diferencia cuando no es necesario (sobre-diferenciar), tendremos un MA(1) que no es invertible.

    Por ejemplo: Ruido blanco;

  • ARIMA(p,d,q)Cuando el orden de diferencia se ha decidido , se puede escribir un procesos ARIMA como o un .

  • Procesos estacinalesSi tenemos datos con informacin de varias ocasiones durante un ao, podemos observar estacionalidad, es decir, un comportamiento econmico que depende del tiempo durante un ao. (Ejemplos; temperaturas, vacaciones, movimientos tursticos). Los procesos anteriores estn pensados para series con slo una observacin cada ao, o series sin estacionalidad. El numero de estaciones durante el ao llamamos s. Por ejemplo, S=12 para datos mensuales, o 4 para trimestrales. Se puede generalizar los procesos explicas arriba para captar estacionalidad.

  • Procesos estacinales

  • Procesos estacinales

  • Procesos estacinales

  • Procesos estacinalesUna serie temporal con estacionalidad puede tener una estructura de dependencia estacional y otra parte regular (no estacional) que sigue un

    Normalmente estos partes pueden interactuar en una especificacin multiplicativa. Este es un modelo

  • Procesos estacinalesEn estos modelos hay efectos satlites. Por ejemplo

    Nota el trmino que se nota en FAP y FAS asociados los retardos prximos a los mltiples de S, pero esto no significa que tengamos procesos adicionales de MA(0,1) y SMA(0,1).

  • Procesos estacinalesFAS: Se reproduce la parte regular de la FAS alrededor de los coeficientes estacinales. FAP: Se reproduce la parte regular de la FAS a la izquierda de los coeficientes estacinales y la parte de FAP a la derecha. Signos: En FAS se multiplica el signo del coeficientes estacional por el de regular. En FAP, si el signo del coeficiente estacional es positivo se inversa el signo a la parte derecha (FAP regular) mientras si es negativo, se inversa el de la izquierda (FAS regular).

  • Procesos estacinales