Contenido - Inicio · Derivación de las ecuaciones (5.10.2) Y(5.10.6) 145 Varianza de...
Transcript of Contenido - Inicio · Derivación de las ecuaciones (5.10.2) Y(5.10.6) 145 Varianza de...
ContenidoPrefacio XVIll
Reconocimientos xxi
1.1 ¿Qué es la econometria? 11.2 ¿Por qué una disciplina aparte? 21.3 Metodología de la econometría 2
l. Planteamiento de la teoría o hipótesis 32. Especificación del modelo matemático
de consumo 33. Especificación del modelo econométrico
de consumo 44. Obtención de información 55. Estimación del modelo econométrico 56. Pruebas de hipótesis 77. Pronóstico o predicción 88. Uso del modelo parafines de controlo de
políticas ·9Elección entre modelos rivales 9
lA Tipos de econometria 101.5 Requisitos matemáticos y estadísticos 111.6 La función de la computadora 111.7 Lecturas sugeridas 12
PARTE UNOMODELOS DE REGRESIÓNUNIECUACIONALES 13
CAPíTULO 1Naturaleza del análisis de regresión 151.1 Origen histórico del término regresión 151.2 Interpretación moderna de la regresión 15
Ejemplos 161.3 Relaciones estadísticas y relaciones
deterministas 191A Regresión y causalidad 191.5 Regresión y correlación 201.6 Terminología y notación 211.7 Naturaleza y fuentes de datos para el análisis
económico 22Tipos de datos 22Fuentes de datos 25Precisión de los datos 27Una observación sobre las escalas de mediciónde las variables 27
Resumen y conclusiones 28Ejercicios 29
CAPíTULO 2Análisis de regresión con dos variables:algunas ideas básicas 342.1 Ejemplo hipotético 342.2 Concepto de función de regresión poblacional
(FRP) 372.3 Significado del término lineal 38
Linealidad en las variables 38Linealidad en los parámetros 38
204 Especificación estocástica de la FRP 392.5 Importancia del término de perturbación
estocástica 412.6 Función de regresión muestral (FRM) 422.7 Ejemplos ilustrativo s 45
Resumen y conclusiones 48Ejercicios 48
CAPíTULO 3Modelo de regresión con dos variables:problema de estimación 553.1 Método de mínimos cuadrados ordinarios
(MCO) 553.2 Modelo clásico de regresión lineal: fundamentos
del método de mínimos cuadrados 61Advertencia sobre estos supuestos 68
3.3 Precisión o errores estándar de las estimacionesde mínimos cuadrados 69
304 Propiedades de los estimadores de mínimoscuadrados: teorema de Gauss-Markov 71
3.5 Coeficiente de determinación r2: una medidade la "bondad del ajuste" 73
3.6 Ejemplo numérico 783.7 Ejemplos ilustrativos 813.8 Una observación sobre los experimentos
Monte CarIo 83Resumen y conclusiones 84Ejercicios 85Apéndice 3A 92
3A. 1 Derivación de estimados de mínimoscuadrados 92
3A.2 Propiedades de linealidad e insesgamientode los estimadores de mínimos cuadrados 92
3A.3 Varianzas y errores estándar de los estimadoresde mínimos cuadrados 93
3AA Covarianza entre g¡ y g2 933A.5 Estimador de mínimos cuadrados de a2 93
3A.6 Propiedad de varianza mínima de los estimadoresde mínimos cuadrados 95
3A.7 Consistencia de los estimadores de mínimoscuadrados 96
CAPíTULO 4Modelo clásico de regresión lineal normal(MCRLN) 97
4.1 Distribución de probabilidad de lasperturbaciones U¡ 97Supuesto de normalidad de U¡ 98
¿Por qué debe formularse el supuesto denormalidad? 99
Propiedades de los estimadores de Mca segúnel supuesto de normalidad 100Método de máxima verosimilitud (MV) 102Resumen y conclusiones 102Apéndice 4A 103Estimación de máxima verosimilitud del modelode regresión con dos variables 103Estimación de máxima verosimilitud del gastoen alimentos en India 105Apéndice 4A Ejercicios 105
CAPíTULO 5Regresión con dos variables: estimación porintervalos y pruebas de hipótesis 1075.1 Requisitos estadísticos 1075.2 Estimación por intervalos: algunas ideas
básicas 1085.3 Intervalos de confianza para los coeficientes de
regresión f31 y f32 109Intervalo de confianza para fJz 109Intervalo de confianza para fJI y fJ2simultáneamente III
5.4 Intervalo de confianza para a2 1115.5 Prueba de hipótesis: comentarios generales 1135.6 Pruebas de hipótesis: método del intervalo
de confianza 113Prueba bilateral o de dos colas 113Prueba unilateral o de una cola 115
5.7 Pruebas de hipótesis: enfoque de la pruebade significancia 115
Prueba de significancia de los coeficientesde regresión: La prueba t 115Prueba de significancia de a2: la prueba i 118
5.8 Prueba de hipótesis: algunos aspectosprácticos 119
Significado de "aceptar" o "rechazar" unahipótesis 119
5.95.10
Hipótesis nula "cero" y regla práctica "2t" 120Formación de las hipótesis nula y alternativa 121Selección del nivel de significancia a 121Nivel exacto de significancia: Valor p 122Significancia estadística y significanciapráctica 123Elección entre los enfoques de intervalos deconfianza y pruebas de significancia en las pruebasde hipótesis 124
Análisis de regresión y análisis de varianza 124Aplicación del análisis de regresión: problemade predicción 126
Predicción media 127Predicción individual 128
Informe de resultados del análisis deregresión 129Evaluación de los resultados del análisis deregresión 130
Pruebas de normalidad 130Otras pruebas del ajuste del modelo 132
Resumen y conclusiones 134Ejercicios 135Apéndice 5A 143Distribuciones de probabilidad relacionadascon la distribución normal 143Derivación de la ecuación (5.3.2) 145Derivación de la ecuación (5.9.1) 145Derivación de las ecuaciones (5.10.2)Y (5.10.6) 145
Varianza de la predicción media 145Tilrianza de la predicción individual 146
5A.25A.35A.4
CAPíTULO 6Extensiones del modelo de regresión linealcon dos variables 1476.1 Regresión a través del origen 147
r2 para el modelo de regresión a trav¿s delorigen 150
6.2 Escalas y unidades de medición 154Advertencia sobre la interpretación 157
6.3 Regresión sobre variables estimdarizadas 1576.4 Formas funcionales de los modelos de
regresión 1596.5 Cómo medir la elasticidad: modelo log-lineal 1596.6 Modelos semilogarítmicos: log-lin y lin-log 162
Cómo medir la tasa de crecimiento:modelo log-lin 162El modelo lin-log 164
6.7 Modelos recíprocos 166Modelo log hipérbola o recíproco logarítmico 172
6.8 Elección de la forma funcional 172
6.9 Nota sobre la naturaleza del término de errorestocástico: término de error estocástico aditivo omultiplicativo 174Resumen y conclusiones 175Ejercicios 176Apéndice 6A 182
6A.1 Derivación de los estimadores de mínimoscuadrados para la regresión a través delorigen 182
6A.2 Prueba de que la variable estandarizada tiene mediacero y varianza unitaria 183
6A.3 Logaritrnos 1846AA Fórmulas para calcular la tasa de crecimiento 1866A.S Modelo de regresión Box-Cox 187
CAPíTULO 7Análisis de regresión múltiple:el problema de estimación 1887.1 Modelo con tres variables: notación y
supuestos 1887.2 Interpretación de la ecuación de regresión
múltiple 1917.3 Significado de los coeficientes de regresión
parcial 191704 Estimación de MCa y MV de los coeficientes de
regresión parcial 192Estimadores de MCa 192Varianzas y errores estándar de los estimadores deMca 194Propiedades de los estimadores de MCa 195Estimadores de máxima verosimilitud 196
7.S El coeficiente múltiple de determinación R2 y elcoeficiente múltiple de correlación R 196
7.6 Un ejemplo ilustrativo 198Regresión sobre variables es tanda rizadas 199Efecto sobre la variable dependiente de uncambio unitario en más de una regresora 199
7.7 Regresión simple en el contexto deregresión múltiple: introducción al sesgo deespecificación 200
7.8 R2 YR2 ajustada 201Comparación de dos valores de R2 203Asignación de R2 entre regresoras 206El "juego" de maximizar R2 206
7.9 La función de producción Cobb-Douglas:más sobre la forma funcional 207
7.10 Modelos de regresión polinomial 2107.11 Coeficientes de correlación parcial 213
Explicación de los coeficientes de correlación simpley parcial 213Interpretación de los coeficientes de correlaciónsimple y parcial 214
Resumen y conclusiones 215Ejercicios 216Apéndice 7A 227
7A.1 Derivación de los estimadores de Mca dados enlas ecuaciones (7.4.3) a (7.4.5) 227
7A.2 Igualdad entre los coeficientes del PIBPC en lasecuaciones (7.3.5) y (7.6.2) 229
7A.3 Derivación de la ecuación (7.4.19) 2297AA Estimación de máxima verosimilitud del modelo de
regresión múltiple 2307A.S Listado de EViews de la función de producción
Cobb Douglas de la ecuación (7.9.4) 231
CAPíTULO 8Análisis de regresión múltiple: el problema de lainferencia 233
8.1 Una vez más, el supuesto de normalidad 2338.2 Pruebas de hipótesis en regresión múltiple:
comentarios generales 2348.3 Pruebas de hipótesis sobre coeficientes de
regresión individuales 235804 Prueba de significancia general de la regresión
muestral 237El método del análisis de varianza en las pruebasde significancia general de una regresión múltipleobservada: la prueba F 238Prueba de significancia general de una regresiónmúltiple: la prueba F 240Una relación importante entre R2 y F 241Prueba de significancia general de una regresiónmúltiple en términos de R2 242La contribución "incremental" o "marginal" de unavariable explicativa 243
8.S Prueba de igualdad de dos coeficientes deregresión 246
8.6 Mínimos cuadrados restringidos: pruebas derestriccionesde igualdades lineales 248
El enfoque de la prueba t 249Enfoque de la prueba F: mínimos cuadradosrestringidos 249Prueba F general 252
8.7 Prueba para la estabilidad estructural o paramétricade los modelos de regresión: la prueba deChow 254
8.8 Predicción con regresión múltiple 2598.9 La triada de las pruebas de hipótesis: razón
de verosimilitud (RV), de Wald (W) y delmultiplicador de Lagrange (ML) 259
8.10 Prueba de la forma funcional de la regresión:elecéión entre modelos de regresión linealy log-lineal 260Resumen y conclusiones 262
Ejercicios 262Apéndice 8A: Prueba de la razónde verosimilitud (RV) 274
CAPíTULO 9Modelos de regresión con variablesdicótomas 2779.1 Naturaleza de las variables dicótomas 2779.2 Modelos ANOVA 278
Precaución con las variables dicótomas 2819.3 Modelos ANOVA con dos variables
cualitativas 2839.4 Regresión con una mezcla de regresoras
cualitativas y cuantitativas: los modelosANCOVA 283
9.5 La variable dicótoma alternativa a la prueba deChow 285
9.6 Efectos de interacción al utilizar variablesdicótomas 288
9.7 Uso de las variables dicótomas en el análisisestacional 290
9.8 Regresión lineal por segmentos 2959.9 Modelos de regresión con datos en panel 2979.10 Algunos aspectos técnicos de la técnica con
variables dicótomas 297Interpretación de variables dicótomas en regresionessemilogarítmicas 297Variables dicótomas y heteroscedasticidad 298Variables dicótomas y autocorrelación 299¿Qué sucede si la variable dependiente esdicótoma? 299
9.11 Temas para estudio posterior 3009.12 Ejemplo para concluir 300
Resumen y conclusiones 304Ejercicios 305Apéndice 9A: Regresión semilogarítmica conregresora dicótoma 314
PARTE DOSFLEXIBILIZACIÓN DE LOS SUPUESTOSDEL MODELO CLÁSICO 315
CAPíTULO 10Multicolinealidad: ¿qué pasa si las regresorasestán correlacionadas? 320
10.1 Naturaleza de la multicolinealidad 32110.2 Estimación en presencia de multicolinealidad
perfecta 32410.3 Estimación en presencia de multicolinealidad
"alta" pero "imperfecta" 325
10.4 Multicolinealidad: ¿tanto paranada? Consecuencias teóricas de lamulticolinealidad 326
10.5 Consecuencias prácticas de lamulticolinealidad 327
Estimadores de MCa con varianzas y covarianzasgrandes 328Intervalos de confianza más amplios 330Razones t "no significativas" 330Una R2 alta pero pocas razones t significativas 331Sensibilidad de los estimadores de MCa y sus erroresestándar ante cambios pequeños en los datos 331Consecuencias de la micronumerosidad 332
10.6 Ejemplo ilustrativo 33210.7 Detección de la multicolinealidad 33710.8 Medidas correctivas 342
No hacer nada 342Procedimientos de reglas prácticas 342
10.9 ¿Es la multicolinealidad necesariamente mala?Quizá no, si el objetivo es sólo la predicción 347
10.10 Ejemplo ampliado: los datos Longley 347Resumen y conclusiones 350Ejercicios 351
CAPíTULO 11Heteroscedasticidad: ¿qué pasa si la varianzadel error no es constante? 36511.1 Naturaleza de la heteroscedasticidad 36511.2 Estimación por MCO en presencia de
heteroscedasticidad 37011.3 El método de mínimos cuadrados generalizados
(MCG) 371Diferencia entre Mca y MCG 373
11.4 Consecuencias de utilizar MCO en presencia deheteroscedasticidad 374
Estimación por Mca con heteroscedasticidad 374Estimación por MCa sin heteroscedasticidad 374Nota técnica 376
11.5 Detección de la heteroscedasticidad 376Métodos informales 376Métodosformales 378
11.6 Medidas correctivas 389Cuando se conoce a7: método de los mínimoscuadrados ponderados 389Cuando no se conoce a7 391
11.7 Ejemplos para concluir 39511.8 Advertencia respecto de una reacción exagerada
ante la heteroscedasticidad 400Resumen y conclusiones 400Ejercicios 401Apéndice 11A 409
11A.1 Prueba de la ecuación (11.2.2) 40911 A.2 Método de mínimos cuadrados ponderados 40911A.3 Prueba de que E(a2) # a2 en presencia de
heteroscedasticidad 41011AA Errores estándar robustos de White 411
CAPíTULO 12Autocorrelación: ¿qué pasa si los términos deerror están correlacionados? 41212.1 Naturaleza del problema 41312.2 Estimación de MCO en presencia de
autocorrelación 41812.3 Estimador MELI en presencia de
autocorrelación 4221204 Consecuencias de utilizar MCO en presencia de
autocorrelación 423Estimación por MCO tomando en cuenta laautocorrelación 423Estimación por MCO ignorando laautocorrelación 423
12.5 Relación entre salarios y productividad en el sectorde negocios de Estados Unidos, 1960-2005 428
12.6 Detección de la autocorrelación 4291. Método gráfico 429
11.Prueba de "las rachas" 431IJI. Prueba d de Durbin-Watson 434IV Una prueba general de autocorrelación: la
prueba de Breusch-Godfrey (BF) 438¿Por qué tantas pruebas para laautocorrelación? 440
12.7 Qué hacer cuando hay autocorrelación: medidascorrectivas 440
12.8 Especificación incorrecta del modelo frente aautocorrelación pura 441
12.9 Corrección de la autocorrelación (pura): elmétodo de los mínimos cuadrados generalizados(MCG) 442
Cuando se conoce p 442Cuando no se conoce p 443
12.10 El método Newey- West para corregir los erroresestándar de MCO 447
12.11 MCO versus MCGF y CHA 44812.12 Otros aspectos de la autocorrelación 449
Variables dicótomas y autocorrelación 449Modelos ARCH y GARCH 449Coexistencia de la autocorrelación y laheteroscedasticidad 450
12.13 Ejemplo para concluir 450Resumen y conclusiones 452Ejercicios 453Apéndice 12A 466
12A.1 Prueba de que el término de error VI en la ecuación(12.1.11) está autocorrelacionado 466
12A.2 Pruebas de las ecuaciones (12.2.3), (12.2.4) y(12.2.5) 466
CAPíTULO 13Creación de modelos econométricos:especificación del modelo y pruebas dediagnóstico 46713.1 Criterios de selección del modelo 46813.2 Tipos de errores de especificación 46813.3 Consecuencias de los errores de especificación del
modelo 470Omisión de una variable relevante (subajuste de unmodelo) 471Inclusión de una variable irrelevante (sobreajuste deun modelo) 473
1304 Pruebas de errores de especificación 474Detección de variables innecesarias (sobreajuste deun modelo) 475Pruebas para variables omitidas y forma jitncionalincorrecta 477
13.5 Errores de medición 482Errores de medición en la variabledependiente Y 482Errores de medición en la variableexplicativa X 483
13.6 Especificación incorrecta del término de errorestocástico 486
13.7 Modelos anidados y no anidados 48713.8 Pruebas de hipótesis no anidadas 488
Método de discriminación 488Método de discernimiento 488
13.9 Criterios para la selección de modelos 493El criterio R2 493R2 ajustada 493Criterio de información Akaike (CIA) 494Criterio de información Schwarz (CIS) 494Criterio Cp de Mallows 494Advertencia sobre los criterios de selección demodelos 495Pronóstico ji cuadrada (X2) 496
13.10 Otros temas relacionados con la creación demodelos econométricos 496
fulores atípicos, apalancamiento e influencia 496Mínimos cuadrados recursivos 498Prueba de la falla de predicción de Chow 498Datos faltantes 499
13.11 Ejemplos para concluir 5001. Un modelo de determinación de salarios por
hora 500
2. Función de consumo real de Estados Unidos,1947-2000 505
13.12 Errores no normales y regresoras estocásticas 509l. ¿Qué pasa si el término de error no está
distribuido normalmente? 5092. Variables explicativas estocásticas 510
13.13 Advertencia para el profesional 511Resumen y conclusiones 512Ejercicios 513Apéndice l3A 519
13A.1 Prueba de que E(b12) = fh + f33b32[ecuación (13.3.3)] 519
13A.2 Consecuencias de la inclusión de una variableirrelevante: propiedad de insesgamiento 520
13A.3 Prueba de la ecuación (13.5.10) 52113AA Prueba de la ecuación (13.6.2) 522
PARTE TRESTEMAS DE ECONOMETRÍA 523
CAPíTULO 14Modelos de regresión no lineales 52514.1 Modelos de regresión intrínsecamente lineales
e intrínsecamente no lineales 52514.2 Estimación de modelos de regresión lineales y no
lineales 52714.3 Estimación de modelos de regresión no lineales:
método de ensayo y error 52714.4 Métodos para estimar modelos de regresión no
lineales 529Búsqueda directa o método de ensayo y error, o delibre derivación 529Optimización directa 529Método de linealización iterativa 530
14.5 Ejemplos ilustrativo s 530Resumen y conclusiones 535Ejercicios 535Apéndice 14A 537
14A.1 Derivación de las ecuaciones (14.2.4)y (14.2.5) 537
14A.2 Método de linealización 53714A.3 Aproximación lineal de la función exponencial
dada en (14.2.2) 538
CAPíTULO 15Modelos de regresión de respuestacualitativa 54115.1 Naturaleza de los modelos de respuesta
cualitativa 541
15.2 Modelo lineal de probabilidad (MLP) 543No normalidad de las perturbaciones u¡ 544Varianzas heteroscedásticas de lasperturbaciones 544No cumplimiento de O ~ E(Y;lX¡) ~ 1 545Valor cuestionable de R2 como medida de la bondaddel ajuste 546
15.3 Aplicaciones del MLP 54915.4 Alternativas al MLP 55215.5 El modelo logit 55315.6 Estimación del modelo logit 555
Datos de nivel individual 556Datos agrupados o duplicados 556
15.7 Modelo logit agrupado (glogit): ejemplonumérico 558
Interpretación del modelo logit estimado 55815.8 El modelo logit para datos no agrupados o
individuales 56115.9 Modelo probit 566
Estimación de probit con datos agrupados:gprobit 567El modelo pro bit para datos no agrupados oindividuales 570Efecto marginal de un cambio unitario en el valorde una regresara sobre los diversos modelos deregresión 571
15.10 Modelos logit y probit 57115.11 Modelo tobit 574
Ilustración del modelo tobit: modelo de Ray Fair paralas relaciones extramaritales 575
15.12 Creación de modelos para datos de cuenta: modelode regresión de Poisson 576
15.13 Otros temas de los modelos de regresión derespuesta cualitativa 579
Modelos ordinales logit y probit 580Modelos multinomiales logit y probit 580Modelos de duración 580
Resumen y conclusiones 581Ejercicios 582Apéndice 15A 589
15A.1 Estimación de máxima verosimilitud de losmodelos probit y logit para datos individuales(no agrupados) 589
CAPíTULO 16Modelos de regresión con datos de panel 59116.1 ¿Por qué datos de panel? 59216.2 Datos de panel: un ejemplo ilustrativo 59316.3 Modelo de regresión con MCO agrupados o de
coeficientes constantes 594
16.4 Modelo de mínimos cuadrados con variabledicótoma (MCVD) de efectos fijos 596
Advertencia sobre el modelo de MCVD de efectosfijos 598
16.5 Estimador de efectos fijos dentro del grupo(DG) 599
16.6 Modelo de efectos aleatorios (MEFA) 602Prueba del multiplicador de Lagrange de Breuschy Pagan 605
16.7 Propiedades de varios estimadores 60516.8 Modelo de efectos fijos y modelo de efectos
aleatorios: algunos lineamientos 60616.9 Regresiones con datos de panel: algunos
comentarios para concluir 60716.10 Algunos ejemplos ilustrativo s 607
Resumen y conclusiones 612Ejercicios 613
CAPíTULO 17Modelos econométricos dinámicos:modelos autorregresivos y de rezagosdistribuidos 61717.1 El papel del "tiempo" o "rezago" en
economía 61817.2 Razones de los rezagas 62217.3 Estimación de modelos de rezagas
distribuidos 623Estimación ad hoc de los modelos de rezagasdistribuidos 623
17.4 Método de Koyck para los modelos de rezagasdistribuidos 624
Mediana de los rezagas 627Rezago medio 627
17.5 Racionalización del modelo de Koyck: modelo deexpectativas adaptativas 629
17.6 Otra racionalización del modelo de Koyck:el modelo de ajuste de existencias o de ajusteparcial 632
17.7 Combinación de los modelos de expectativasadaptativas y de ajuste parcial 634
17.8 Estimación de modelos autorregresivos 63417.9 Método de variables instrumentales (VI) 63617.10 Detección de autocorrelación en modelos
autorregresivos: prueba h de Durbin 63717.11 Ejemplo numérico: demanda de dinero en Canadá
de 1-1979 a IV-I988 63917.12 Ejemplos ilustrativos 64217.13 El método de Almon para los modelos de rezagas
distribuidos: rezagas distribuidos polinomiales(RDP) o de Almon 645
17.14 Causalidad en economía: prueba de causalidad deGranger 652
Prueba de Granger 653Nota sobre causalidad y exogeneidad 657
Resumen y conclusiones 658Ejercicios 659Apéndice 17A 669
17A.1 Prueba de Sargan para la validez de losinstrumentos 669
PARTE CUATROMODELOS DE ECUACIONESSIMULTÁNEAS y ECONOMETRÍA DESERIES DE TIEMPO 671
CAPíTULO 18Modelos de ecuaciones simultáneas 67318.1 Naturaleza de los modelos de ecuaciones
simultáneas 67318.2 Ejemplos de modelos de ecuaciones
simultáneas 67418.3 Sesgo en las ecuaciones simultáneas: inconsistencia
de los estimadores de MCO 67918.4 Sesgo de las ecuaciones simultáneas: ejemplo
numérico 682Resumen y conclusiones 684Ejercicios 684
CAPíTULO 19El problema de la identificación 689
19.1 Notación y definiciones 68919.2 Problema de identificación 692
Subidentificación 692Identificación precisa o exacta 694Sobreidentificación 697
19.3 Reglas para la identificación 699Condición de orden para la identificación 699Condición de rango para la identificación 700
19.4 Prueba de simultaneidad 703Prueba de especificación de Hausman 703
19.5 Pruebas de exogeneidad 705Resumen y conclusiones 706Ejercicios 706
CAPíTULO 20Métodos de ecuaciones simultáneas 71120.1 Enfoques para la estimación 71120.2 Modelos recursivos y mínimos cuadrados
ordinarios 712
20.3 Estimación de una ecuación exactamenteidentificada:el método de mínimos cuadradosindirectos (MCI) 715
Ejemplo ilustrativo 715Propiedades de los estimadores por MCl 718
20.4 Estimación de una ecuación sobreidentificada:método de mínimos cuadrados en dos etapas(MC2E) 718
20.5 MC2E: ejemplo numérico 72120.6 Ejemplos ilustrativos 724
Resumen y conclusiones 730Ejercicios 730Apéndice 20A 735
20A.1 Sesgo en los estimadores de mínimos cuadradosindirectos 735
20A.2 Estimación de los errores estándar de losestimadores de MC2E 736
CAPíTULO 21Econometría de series de tiempo: algunosconceptos básicos 73721.1 Repaso rápido a una selección de series de
tiempo económicas de Estados Unidos 73821.2 Conceptos fundamentales 73921.3 Procesos estocásticos 740
Procesos estocásticos estacionarios 740Procesos estocásticos no estacionarios 741
21.4 Proceso estocástico de raíz unitaria 74421.5 Procesos estocásticos estacionarios en tendencia
(ET) y estacionarios en diferencias (ED) 74521.6 Procesos estocásticos integrados 746
Propiedades de las series integradas 74721.7 El fenómeno de regresión espuria 74721.8 Pruebas de estacionariedad 748
l. Análisis gráfico 7492. Función de autocorrelación (FAC) y
correlograma 749Significancia estadística de los coeficientes deautocorrelación 753
21.9 Prueba de raíz unitaria 754La prueba Dickey-Fuller aumentada (DFA) 757Prueba de la significancia de más de un coeficiente:prueba F 758Las pruebas de raíz unitaria Phillips-Perron(PP) 758Prueba de cambios estructurales 758Crítica de las pruebas de raíz unitaria 759
21.10 Transformación de las series de tiempo noestacionarias 760
Procesos estacionarios en diferencias 760Procesos estacionarios en tendencia 761
21.11 Cointegración: regresión de una serie de tiempocon raíz unitaria sobre otra serie de tiempo con raízunitaria 762
Prueba de cointegración 763Cointegración y mecanismo de corrección de errores(MCE) 764
21.12 Algunas aplicaciones económicas 765Resumen y conclusiones 768Ejercicios 769
CAPíTULO 22Econometría de series de tiempo:pronósticos 77322.1 Enfoques de los pronósticos económicos 773
Métodos de suavizamiento exponencial 774Modelos de regresión uniecuacionales 774Modelos de regresión de ecuacionessimultáneas 774Modelos ARIMA 774Modelos VAR 775
22.2 Creación de modelos AR, PM YARIMA paraseries de tiempo 775
Proceso autorregresivo (AR) 775Proceso de medias móviles (MA) 776Proceso autorregresivo y de promedios móviles(ARMA) 776Proceso autorregresivo integrado de promediosmóviles (ARlMA) 776
22.3 Metodología de Box-Jenkins (BJ) 77722.4 Identificación 77822.5 Estimación del modelo ARIMA 78222.6 Verificación de diagnóstico 78222.7 Pronóstico 78222.8 Otros aspectos de la metodología BJ 78422.9 Vectores autorregresivos (VAR) 784
Estimación de VAR 785Pronóstico con el modelo VAR 786VARy causalidad 787
Algunos problemas en la creación demodelos VAR 788Una aplicación de VAR: un modelo VAR de laeconomía de Texas 789
22.10 Medición de la volatilidad de las series de tiempofinancieras: modelos ARCH y GARCH 791
¿Qué hacer cuandoARCH está presente? 795Advertencia sobre la prueba d de Durbin-Watsony el efecto ARCH 796Nota sobre el modelo GARCH 796
22.11 Ejemplos para concluir 796Resumen y conclusiones 798Ejercicios 799
APÉNDICE ARevisión de algunos conceptos estadísticos 801A.lA.2
Operadores de sumatoria y de producto 801Espacio muestral, puntos muestrales ysucesos 802Probabilidad y variables aleatorias 802
Probabilidad 802Variables aleatorias 803
Función de densidad de probabilidad (FDP) 803Función de densidad de probabilidad de una variablealeatoria discreta 803Función de densidad de probabilidad de una variablealeatoria continua 804Funciones de densidad de probabilidadconjunta 805Función de densidad de probabilidad marginal 805Independencia estadística 806
Características de las distribuciones deprobabilidad 808
Valor esperado 808Propiedades de los valores esperados 809Varianza 810Propiedades de la varianza 811Covarianza 811Propiedades de la covarianza 812Coeficiente de correlación 812Esperanza condicional y varianza condicional 813Propiedades de la esperanza y la varianzacondicionales 814Momentos superiores de las distribuciones deprobabilidad 815
Algunas distribuciones de probabilidad teóricasimportantes 816
Distribución normal 816Distribución X2 (ji cuadrada) 819Distribución t de Student 820Distribución F 821Distribución binomial de Bernoulli 822Distribución binomial 822Distribución de Poisson 823
Inferencia estadística: estimación 823Estimación puntual 823Estimación por intervalos 824Métodos de estimación 825Propiedades de las muestras pequeñas 826Propiedades de las muestras grandes 828
Inferencia estadística: pruebas de hipótesis 831Método del intervalo de confianza 832Método de la prueba de significancia 836
Referencias 837
APÉNDICE BNociones básicas de álgebra matricial 838B.l Definiciones 838
Matriz 838rector columna 838Vector renglón 839Trasposición 839Submatriz 839
B.2 Tipos de matrices 839Matriz cuadrada 839Matriz diagonal 839Matriz escalar 840Matriz identidad o unitaria 840Matriz simétrica 840Matriz nula 840rector nulo 840Matrices iguales 840
B.3 Operaciones matriciales 840Adición de matrices 840Resta de matrices 841Multiplicación por escalar 841Multiplicación de matrices 841Propiedades de la multiplicación de matrices 842Trasposición de matrices 843Inversión de matrices 843
B.4 Determinantes 843Cálculo de un de~rminante 844Propiedades de los determinantes 844Rango de una matriz 845Menor 846Co/actor 846
B.S Forma de encontrar la inversa de una matrizcuadrada 847
6.6 Diferenciación matricial 848Referencias 848
APÉNDICE eMétodo matricial para el modelode regresión lineal 849Cl Modelo de regresión lineal con k variables 849C2 Supuestos del modelo clásico de regresión lineal en
notación matricial 851C3 Estimación por MCO 853
Una ilustración 855Matriz de varianza-covarianza de ~ 856Propiedades del vector de MCa ~ 858
C4 Coeficiente de determinación R2 en notaciónmatricial 858
CS Matriz de correlación 859
e6 Pruebas de hipótesis sobre coeficientes deregresión individuales en notación matricial 859
e7 Prueba de significancia global de la regresión:análisis de varianza en notación matricial 860
es Pruebas de restricciones lineales: prueba F generalcon notación matricial 861
e9 Predicción mediante regresión múltiple:formulación matricial 861
Predicción media 861Várianza de la predicción media 862Predicción individual 862Varianza de la predicción individual 862
e10 Resumen del método matricial: un ejemploilustrativo 863
e11 Mínimos cuadrados generalizados (MCG) 867e12 Resumen y conclusiones 868
Ejercicios 869Apéndice CA 874
CA.1 Derivación de k ecuaciones normales osimultáneas 874
CA.2 Derivación matricial de las ecuacionesnormales 875
CA.3 Matriz de varianza-covarianza de ~ 875CAA Propiedad MELI de los estimadores de MCa 875
APÉNDICE DTablas estadísticas 877
APÉNDICE EResultados de computadora de EViews,MINITAB, Excel y STATA 894E.l EViews 894E.2 MINITAB 896E.3 Excel 897EA STATA 898E.S Comentarios finales 898
Referencias 899
APÉNDICE FDatos económicos en la World Wide Web 900
Bibliografía selecta 902
Índice de nombres 905
Índice analítico 909