Econometría I Tema 1 Especificación

download Econometría I Tema 1 Especificación

of 57

Transcript of Econometría I Tema 1 Especificación

Dpto.deEconomaCuantitativaUniversidadComplutensedeMadridEconometraITema1Especicaci onyEstimaciondel ModeloLineal GeneralMarcosBujosaMaterial de apoyo para el curso Econometra Ic [email protected]:6deoctubrede2008 Versi on2.03Copyright c _ 20042008 Marcos Bujosa [email protected] derechos reservados. Esta obra esta bajo una licencia Reconocimiento-CompartirIgual de CreativeCommons.Paraverunacopiadeestalicencia,visitehttp://creativecommons.org/licenses/by-sa/2.5/es/deed.es o enve una carta a Creative Commons, 559 Nathan Abbott Way, Stanford, California94305, USA.Puede encontrar la ultima version de este material en:http://www.ucm.es/info/ecocuan/mbb/index.html#ectr1IndiceIndice 1EspecicacionyEstimaci ondelModeloLinealGeneral 31. Introduccion 31.1. El punto de vista estadstico: Regresion como descomposicion ortogonal . . . . . . . . . . . 31.2. El punto de vista del Analisis Economico: Regresion como modelo explicativo . . . . . . . . 42. ModeloClasicodeRegresionLineal 52.1. Tres primeros supuestos en el Modelo Clasico de Regresion Lineal . . . . . . . . . . . . . . . 52.2. Variacion de los supuestos 2 y 3 en algunos casos especiales: . . . . . . . . . . . . . . . . . . 11. Supuestos del Modelo con Muestras Aleatorias . . . . . . . . . . . . . . . . . . . . . 11. Supuestos del Modelo con Regresores No Estocasticos . . . . . . . . . . . . . . . . . 123. EstimacionMCO(MnimosCuadradosOrdinarios) 123.1. Cuarto supuesto del Modelo Clasico de Regresion Lineal . . . . . . . . . . . . . . . . . . . . 133.2. Algunas expresiones que seran empleadas frecuentemente . . . . . . . . . . . . . . . . . . . 133.3. Algunos casos particulares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14. Modelo con solo una constante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14. Modelo Lineal Simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15. Modelo con tres regresores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18. Modelo Lineal General. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214. PropiedadesalgebraicasdelaestimacionMCO 214.1. Propiedades basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214.2. Mas propiedades algebraicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24. Proyecciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24. Regresion particionada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25. Regresion en desviaciones respecto a la media. . . . . . . . . . . . . . . . . . . . . . 26. A nadiendo regresores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27. Correlaciones parciales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284.3. Medidas de ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2925. PropiedadesestadsticasdelosestimadoresMCO 325.1. Esperanza de los estimadores MCO | x. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325.2. Varianza de los estimadores MCO | x. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345.3. Momentos de los valores ajustados y| xy de los errores e| x. . . . . . . . . . . . . . . . . . 366. DistribuciondelosestimadoresMCObajolahipotesisdeNormalidad 376.1. Quinto supuesto del Modelo Clasico de Regresion Lineal . . . . . . . . . . . . . . . . . . . . 376.2. Estimacion de la varianza residual y la matriz de covarianzas . . . . . . . . . . . . . . . . . 386.3. Cota mnima de Cramer-Rao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417. Estimacionpormaximaverosimilitud 428. Ejercicios 439. Bibliografa 4410.Trasparencias 44A. Geometradelmodeloclasicoderegresionlineal 46A.1. Geometra del estimador MCO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47B. DerivaciontradicionaldelasEcuacionesNormales 48C. CasoGeneral 49C.1. Modelo Clasico de Regresion Lineal General . . . . . . . . . . . . . . . . . . . . . . . . . . . 50. Ecuaciones normales en el Modelo Lineal General . . . . . . . . . . . . . . . . . . . . 50D. UnaexpresionalternativadelasestimacionesMCO 50SolucionesalosEjercicios 51Este es un material de apoyo a las clases. En ning un caso sustituye a los libros de texto que guran en elprograma de la asignatura; textos que el alumno debe estudiar para afrontar el examen nal con ciertasgarantas de exito.Referencias recomendadas para la asignatura: Novales (1993), Wooldridge (2006), Verbeek (2004)Otra referencia seguida en la elaboracion de este material es el captulo 1 de Hayashi (2000), que se puededescargar desde:http://www.pupress.princeton.edu/chapters/s6946.pdf3EspecicacionyEstimaci ondelModeloLinealGeneralCaptulos 1, 2 y 3 y secciones 4.1, 4.2, 6.2 y 6.3 de Wooldridge (2006)Apendices E1, E2 y E3 de Wooldridge (2006)1. IntroduccionLease el Captulo 1 de Wooldridge (2006)Otra referencia seguida en la elaboracion de este material es el captulo 1 de Hayashi (2000), que se puededescargar desde:http://www.pupress.princeton.edu/chapters/s6946.pdf1.1. Elpuntodevistaestadstico:Regresioncomodescomposicionortogonal Descomposicionortogonal ycausalidad 1Y = E(Y [ T) +Udonde el conjunto de informacion es T : (X = x) ; por tantoY = E(Y [ X) +Udonde E( Y [ x) es una funcion arbitrarialecturaestadstica: de izquierda a derecha.Siempre es cierta. No implica causalidad ni conclusiones teoricaslecturateorica: de derecha a izquierda.Interpretacion puede ser falsa (regresiones espurias)De Spanos (1999, Captulo 7, en particular la Seccion 7.5.3)SeaYunavariablealeatoriaconsegundomomentonito,esdecir,E_[Y[2_< ,yunconjuntodeinformacion T; entonces siempre podemos encontrar una descomposicion deYcomo la siguiente:Y = E(Y [ T) +U (1.1)dondeE(Y [ T): es el componente sistematico1U: es el componente NO-sistematicoLa existencia de dicha descomposicion2esta garantizada siempre que E_[Y[2_< .Ambos componentes deYsatisfacen las siguientes propiedades1. E( U [ T) = 02. E_U2T_= Var( Y [ T) < 3. E_U _E(Y [ T)__= 0 por tanto amboscomponentessonortogonales.Supondremos que disponemos de una sucesion de variables aleatoriasYn(paran = 1, . . . , N) y de unamatriz de variables aleatorias X[Nk]; y que nuestro conjunto de informacion T esT : (X = x)esdecir, el conjuntodevariablesaleatorias X(entotal Nkvariables)hatomadoconjuntamentelamatriz de valoresx.Siendo as, la descomposicion ortogonal para cadaYnqueda como sigue:Yn = E(Yn[ X) +Un1vealaSeccion??,enlap agina??,delTema2delcursodeIntroduccionalaEconometradeLECO2Si interpretamoslasvariablesaleatoriasconvarianzanitacomoelementosdeunespaciovectorial, entoncesE(Y | D)representaunaproyeccionortogonal, yladescomposici on(1.1)esanalogaal teoremadeproyeccionortogonal (Luenberger,1968), conE(Y | D)comoel mejorpredictorenel sentidodelapropiedadECSV4enlapagina??del Tema2del cursodeIntroduccionalaEconometradeLECO.Seccion1:Introduccion 4Notesequeestaesunadescomposicionpuramenteestadstica.Unicamentenosdicequesi disponemosde cierta informacion acerca de las variables X, podemos descomponer la variableYnen dos partes. Perono hay una teora economicadetras; por tanto no dice si hay relaciones de causalidad entre las variables.Podra ocurrir que:1. bienlasvariablesXgeneraranparcialmenteaY(yportanto, al conocer T: (X = x)sabemosque parte deYes debida a Xy que parte no)2. obienque Ycausa(ogenera)lasvariablesX(yportanto, al observar T: (X = x)sabemosquecabeesperar quehaocurridoconlavariablecausante Y; comocuandovemosllover por laventana, y entonces sabemos que hay nubes en el cielo3. o bien, que hay alguna otra causa com un (y quiza desconocida) que genera conjuntamente tanto aYcomo a X(y observar lo que ha ocurrido con X(la informacion T) nos indica que cabe esperarque ha ocurrido conY(puesto que tienen un causante com un).La descomposicion ortogonalYn = E(Yn[ X) +Unse lee de izquierda a derecha (es decir, puedo descomponer Yn en las dos partes descritas a la derecha),y no hay una teoradetras.1.2. ElpuntodevistadelAnalisisEconomico:RegresioncomomodeloexplicativoComo economistas deseamos que la descomposicion estadstica de mas arriba sea reejo de las relacionesteoricas entre XyY. En este sentido queremos leer la relacion de derechaaizquierda, es decirY(porejemploel consumo)estageneradoporunafunciondelasvariablesX(porejemplounafunciondelarenta) junto a otras causas distintas de la renta (U).Esta vision sugiere algunos de los nombres dados tanto paraYcomo para X. No obstante (y a pesardelos nombres), nodebemos nuncaperder devistaqueladescomposicionortogonal es unarelacionestadsticaquesiempre3podemosencontrar;peroqueengeneralnopermitesacarconclusionesteoricasdeella(regresionesespurias).Soloenaquelloscasosenquelasvariablessituadasaderechaeizquierdaprovienen de un modelo teorico bien establecido, que nos sugiere que variables son causantes (y por ellolas situamos a derecha) y cuales son causadas (izquierda) quiza podamos sacar conclusiones. La palabraquiza, se debe a que con frecuencia los datos disponibles no miden aquellos conceptos empleados en losmodelos teoricos (consumo permanente, preferencias, nivel de precios, utilidades, aversion al riesgo, etc.),obienaquelosmodelosnoestancorrectamenteespecicados(temasqueseveranenotroscursosdeeconometra). Modeloderegresi on 2Yn = h_X_+Un = h_1, X

2, . . . , X

k_+Undonde :Yn: Vble. endogena, objetivo, explicada (o regresando)X =_1, X

1, . . . , X

k Vbles. exogenas, de control, explicativas (o regresores)Un: factor desconocido o perturbacionSuponemos que la variable aleatoriaYen el momenton, es decir,Ynes funcion del vectorXny deUn.Llamamos a Y vble. endogena (porque consideramos que se determina su valor o caractersticas a travesdelmodelo),vble.objetivo(porqueesunamagnitudquedeseamoscontrolar,porejemplolainacionsisomos la autoridad monetaria) o simplementeregresando.LamatrizX= _1, X

1, . . . , X

k: estaconstituidapor kcolumnas devariables quellamamosexogenas (porque consideramos que vienen dadas de manera externa al modelo), o vbles. de control (porquetenemos capacidad de alterar su valor para, a traves del modelo, controlar Y; por ejemplo jar la ofertamonetaria o los tipos de interes en el ejemplo anterior), o simplementeregresores.Un es el efecto conjunto de otras variables o circunstancias que inuyen en la observacion de Yn, y quedecidimos no contemplar en el modelo por alguna razon (dicultad o imposibilidad de observarlas) o sen-cillamente que desconocemos. Tambien puede ser sencillamente un error cometido al medirYn. LlamamosaUnperturbacion.3siempreycuandoE|Yn|2 < Seccion2:ModeloClasicodeRegresionLineal 5 Tiposdedatos 3Datos temporales (series de tiempo)Seccion cruzadaDatos de panel2. ModeloClasicodeRegresionLineal ModeloClasicodeRegresi onLineal 4Modelo especial en el que la descomposicion ortogonalYn = E(Yn[ X) +Unes tal que E( Yn[ x) es una funcion lineal dexnVar( Yn[ x) es una constante (homocedasticidad)QUE DEBO SUPONER PARA QUE ESTO SE CUMPLA?(al menos como lectura estadstica!)En el analisis de regresion estamos interesados en estimar los dos primeros momentos de Yn condicionadosa X = x, es decir, E( Yn[ x) y Var( Yn[ x).El modelo Modelo Clasico de Regresion Lineal es un caso particular en el que E( Yn[ x) es funcion linealdexn(losregresoresconsubndicen, esdecir, del instanten, odelaempresan, odel pasn, odelindividuon, . . . ) y Var( Yn[ x) es una funcion constante (por tantoYn[ x es homocedastica).A continuacion, vamos a describir los tres supuestos de un modelo econometrico que garantizan la exis-tencia de una descomposicion ortogonal como la del modelo clasico de regresion lineal. El cuarto supuesto,que garantiza que la estimacion de la relacion lineal es unica, lo veremos en la seccion siguiente.2.1. TresprimerossupuestosenelModeloClasicodeRegresionLinealCaptulos 2 y 3 de Wooldridge (2006)Seccion 6.2 de Wooldridge (2006)Apendice E1 de Wooldridge (2006) Supuesto1: linealidad 5h() es lineal: Yn = h_Xn_+Un = a1 +a2Xt2 +a3Xt3 + +akXtk +Unpor lo tantoY1 = a1 +a2X12 +a3X13 + +akX1k +U1Y2 = a1 +a2X22 +a3X23 + +akX2k +U2 YN= a1 +a2XN2 +a3XN3 + +akXNk +UNoYn = Xn +Undonde = (a1, . . . , ak)

, y Xn =_1 Xn2Xn3 Xnkes decirY[N1]= X[Nk][k1]+ U[N1]dondeY =_Y1, . . . , YN

, X =_1, X

2, . . . , X

k, U =_U1, . . . , UN

es decir,X =__1 X12X13. . . X1k1 X22X23. . . X2k...................1 XN2XN3. . . XNk__;Seccion2:ModeloClasicodeRegresionLineal 6o bien X =__X1X2...XN__=_1, X

2, . . . , X

k; donde X

j =__X1jX2j...XNj__por tantoY =_1, X

2, . . . , X

k +U=a1 +a2X

2 +a3X

3 + +akX

k +Ues decir__Y1Y2...YN__=a1

__11...1__+a2

__X12X22...XN2__+a3

__X13X23...XN3__+ +ak

__X1kX2k...XNk__+__U1U2...UN__ Supuesto1: linealidad 6Modelo InterpretacionYn = Xn +Un =dYndXnCambioesperadoenniveldeYncuandoXnaumentaunaunidadln(Yn) = ln(Xn) +Un =XnYndYndXnCambioporcentual (entan-topor uno) esperadoenYncuandoXnaumentaununopor ciento (en tanto por uno,ie,0.01)ln(Yn) = Xn +Un =1YndYndXnCambioporcentual (entan-to por uno) esperado enYncuandoXnaumentaunaunidadYn = ln(Xn) +Un = XndYndXnCambioesperadoenel nivelde Yncuando Xnaumentaununoporciento(entantoporuno)Mas tipos de modelos lineales en Ramanathan (1998, Captulo 6, pp. 232 y siguientes) y en el materialpreparado por J. Alberto Mauricio http://www.ucm.es/info/ecocuan/jam/ectr1/Ectr1-JAM-Guion.pdfEjemplo1. [funciondeconsumo:]CONn = 1 +2RDn +UndondeCONnyRDnson el consumo y la renta disponible del individuo n-esimo respectivamente, yUnsonotrosfactoresqueafectanalconsumodelindividuon-esimodistintosasurentadisponible(activosnancieros, estado de animo, etc.).Aqu la variable exogenaY es el consumo (CON), y los regresores sonX1 =1 (una constante) yX2 larenta disponible (RD).Ejemplo2. [ecuaciondesalarios:] Supongamos el siguiente modelo no-lineal en los parametrosSALARn = e1+2EDUCn+3ANTIGn+4EXPERn+Un;dondeSALARnesel salariodel individuon-esimo, EDUCnsonsusa nosdeeducacion, ANTIGnsusa nos de antig uedad en la empresa, yEXPERnsus a nos de experiencia en el sector de la empresa.Al tomar logaritmos tenemos un nuevo modelo para ln(SALARn) que es lineal en los parametros:ln(SALARn) = 1 +2EDUCn +3ANTIGn +4EXPERn +UnSeccion2:ModeloClasicodeRegresionLineal 7Enestecasolainterpretaciondeunvalorcomo2=0.03esqueuna noadicional enlaformacioneducativa implica un incremento esperado del salario del 3 %.Ejemplo3. [funciondeproduccionCobb-Douglas:] Pensemos en la clasica funcion de produccionQn = cKn2Ln3dondeQneslaproduccionelelmomenton, Kneselcapitalempleadoenelinstanten; Lneltrabajoempleadoenn. Supongamos, ademas, quehayunefectoaleatorioadicional ndebidoaotrascausasofactoresQn = cKn2Ln3n;tomando logaritmos tenemosln Qn = 1 +2 ln Kn +3 ln Ln +Un,donde1 = ln c, yUn = ln n(es decir,n = eUn. )En este caso, un valor como2 = 5 es interpretado como que un incremento de capital del 1 % (0.01)aumenta la produccion en un 5 %Nota1. Denimos la esperanza de una matriz Xcomo la matriz de las esperanzas de sus elementos, esdecirE(X) E_______X11X12 X1NX21X22 X2N............XN1XN2 XNN_______2666666666664E(X11) E(X12) E(X1N)E(X21) E(X22) E(X2N)............E(XN1) E(XN2) E(XNN)3777777777775 Supuesto2: Esperanzacondicional deUEstrictaexogeneidad 7E( U[ x) = 0[N1]es decirE( U[ x) =__E( U1[ x)E( U2[ x)...E( UN[ x)__=__00...0__E( Un[ x) E( Un[ x

2, . . . , x

k) E( Un[ x1; . . . ; xN)paran = 1, . . . , N.E( Un[ x) E( Un[ x

2, . . . , x

k) E___Un[__x1...xN_____paran = 1, . . . , N.Ejemplo4. [funciondeconsumo: (continuacion del Ejemplo 1 en la pagina anterior)]Estricta exogeneidad implica que para el individuo n-esimoE( Un[ 1, rd) = E( Un[ (rd2, rd3, , rdk)) = 0,es decir, la esperanza de la perturbacion n-esima, condicionada a todas y cada una de las rentas disponibles,es cero.Ejemplo5. [ecuaciondesalarios: (continuacion del Ejemplo 2 en la pagina anterior)]Estricta exogeneidad implica que para el individuo n-esimoE( Un[ 1, educ, antig, exper) = 0,Seccion2:ModeloClasicodeRegresionLineal 8es decir, la esperanza de la perturbacion del individuo n-esimo, condicionada no solo a los a nos de edu-cacion, antig uedad y experiencia de dicho individuo sino a los a nos de educacion, antig uedad y experienciade todos los trabajadores es cero. Supuesto2: Esperanzacondicional deUEstrictaexogeneidad 8E( U[ x) = 0[N1]___E(UnX) = 0 ortogonalidad Un XE(Un) = 0por tanto Cov(Un, X) = 0(ortogonalidad entre lo que conozco Xy lo que desconozcoUn)Comentario. Enel casoderegresioncondatos temporales, laexogeneidadestrictaimplicaquelosregresores son ortogonales a las perturbaciones pasadas, presentes y futuras. Esta es una restriccion muyfuerte, que no se cumple en general con datos temporales (se discutira en el segundo trimestre [EconometraII]).A continuacion aparecen las demostraciones de la transparencia anterior T8 :Proposicion2.1. Si E( Un[ x) = 0, entonces E(UnX) = 0[Nk]Demostracion.E(UnX) =_

_unxf (un, x) dundxkN dx11=_

_unxf ( un[ x) f (x) dundxkN dx11=_un__

_xf (x) dxkN dx11_f ( un[ x) dun=_un [E(X)] f ( un[ x) dun=[E(X)]_unf ( un[ x) dun=E(X)E( Un[ x)=E(X)0 = 0[Nk]por hipotesisUna importante implicacion de E( Un[ x) = 0, es que entonces E(Un) = 0 ya queE(Un) =E(E(Un[ x)) por el Tade las esperanzas iteradas.=E(0) = 0 por ser E( Un[ x) las realizaciones de E(Un[ x)Y de los dos resultados anteriores se deriva queCov(Un, X) = E(UnX) E(Un)E(X) = 0[Nk] 0E(X) = 0[Nk]Ejercicio6. [Relacionsi ysolosi entrelafuncionderegresionlinealylossupuestos1y2]Demuestre que los supuestos 1 y 2 implican la primera condicion del Modelo Cl asico de Regresion Lineal,esto es, que la funcion de regresion deYnsobre los regresores es linealE( Yn[ x) = xn .Recprocamente, demuestre que si dicha condicion se verica para todon = 1, . . . , N, entonces necesaria-mente se satisfacen los supuestos 1 y 2.Seccion2:ModeloClasicodeRegresionLineal 9Solucion:E( Yn[ x) =E( Xn +Un[ x) por el Supuesto 1= xn +E( Un[ x) puesto que Xn = xn= xn por el Supuesto 2.Recprocamente, suponga que E( Yn[ x) = xn para todo n = 1, . . . , N. Denamos Un = YnE( Yn[ x) .Entonces, por construccion el Supuesto 1 se satisface ya queUn = YnXn . Por otra parteE( Un[ x) =E( Yn[ x) E( E(Yn[ x) [ x) por la denicion que aqu damos aUn=0;pues E( E(Yn[ x) [ x) = E( Yn[ x) , ya que:E( E(Yn[ x) [ x) =_ __ytf (Un[ x) dun_f (Un[ x) dun=_ __(Un +xn)f (Un[ x) dun_f (Un[ x) dun=xn +_ __Unf (Un[ x) dun_f (Un[ x) dun=xn +E( E(Un[ x) [ x)=xn +E( Un[ x) =E( Xn +Un[ x) = E( Yn[ x)Ejercicio 6 Supuesto3: Perturbacionesesfericas 9homocedasticidadE_Un2x_= 2paran = 1, 2, . . . , NnoautocorrelacionE( UiUj[ x) = 0 sii ,= j parai, j = 1, 2, . . . , NDenicion1. Denimos la matriz de varianzas y covarianzas de un vector columnaYcomoVar(Y) E__Y E(Y)__Y E(Y)_

_(2.1)Ejercicio7. Demuestre que Var(Y) = E_Y Y

_E(Y) E_Y

_.Nota2. Por tanto la matriz de varianzas y covarianzas de un vector columnaYes de la formaVar(Y) Var_____Y1...YN_____ E_Y Y

_E(Y) E_Y

_=2666666666664E(Y12)E(Y1Y2) E(Y1YN)E(Y22) E(Y2YN)......E(YN2)37777777777752666666666664[E(Y1)]2E(Y1)E(Y2) E(Y1)E(YN)[E(Y2)]2 E(Y2)E(YN)......[E(YN)]23777777777775=26666666666642Y1Y1Y2 Y1YN2Y2 Y2YN......2YN3777777777775Aplicando la denicion de varianza al vector de perturbaciones, y teniendo en cuenta los dos supuestosSeccion2:ModeloClasicodeRegresionLineal 10anteriores, tenemos que la matriz de varianzas y covarianzas de las perturbaciones esVar( U[ x) =E_UU

x_E( U[ x) E_U

x_=E_____U1...UN___U1 UNx_____0...0___00por el Supuesto 2=__E( U12[ x) E( U1U2 | x) ... E( U1UN | x)E( U2U1 | x) E( U22[ x) ... E( U2UN | x)............E( UNU1 | x) E( UNU2 | x) ... E( UN2[ x)____0 000 00............0 00__=_____20 . . . 00 2. . . 0............0 0 . . . 2_____por el Supuesto 3 Supuestos2y3: Implicacionconjunta 10Var( U[ x) =_____Var( U1 | x) Cov( U1,U2 | x) ... Cov( U1,UN | x)Cov( U2,U1 | x) Var( U2 | x) ... Cov( U2,UN | x)............Cov( UN,U1 | x) Cov( UN,U2 | x) ... Var( UN | x)_____=_____20 . . . 00 2. . . 0............0 0 . . . 2_____= 2I[NN]Elsupuestodequelamatrizdevarianzasycovarianzasdelaperturbaciones(condicionadaax)es2veces la matriz identidad (estructura denominada perturbaciones esfericas) =__20 0 . . . 00 20 . . . 00 0 2. . . 0...............0 0 0 . . . 2__es una restriccion muy fuerte, ya que implica:1. queladispersion(lavarianza)del efectodeterminoperturbacionasociadaacadaobservacion(oa cada instante, o a cada individuo, etc) es identica a la de las demas (no sabemos exactamente aque se debe la perturbacion que afecta a cadaYn pero la dispersion (incertidumbre) de ese efecto esidentica para todos).Dicho de otra forma: las perturbacionesUnson hocedasticas, ya queVar( Un[ x) = 2para todon = 1 : N.2. quelacovarianzaentrelasperturbacionesdeobservacionesdistintas(odeinstantes,oindividuosdiferentes) es cero. Dicho de otra forma: las perturbaciones no tienen correlacion serial, ya queCov( Ui, Uj[ x) = 0 parai ,= j.Estoa nadidoal supuestodedistribucionconjuntaNormal_verSupuesto5masadelante T31_signicara que las perturbaciones son independientespara las distintas observaciones.Ejemplo8. [ecuaciondesalarios: (continuacion del Ejemplo 2 en la pagina6)]Estricta exogeneidad y perturbaciones esfericas implican conjuntamente que: aunque el factor desco-nocidoUndecadael individuon-esimoesdesconocido; laincertidumbre(lavarianza)dedichofactorSeccion2:ModeloClasicodeRegresionLineal 11condicionada a los a nos de educacion, antig uedad y experiencia de todoslos individuos es la mismaen cada caso (Supuesto curioso! no?).Hay cierto factor que inuye en los salarios de Pepito y Juanito; no se que es, pero la incertidumbreque tengo sobre el es la misma (la dispersion del efecto que tiene el factor desconocido es la misma) paraambos casos.Nota 3 (Relacion entre la funcion cedastica contante y los supuestos 1 y 3). Notese que con los supuestos1 y 3 tambien se cumple la segunda condicion del modelo clasico de regresion lineal ya queVar( Yn[ x) = Var( 1 +2Xn +Un[ x) = Var( Un[ x) = 22.2. Variaciondelossupuestos2y3enalgunoscasosespeciales: SupuestosdelModeloconMuestrasAleatoriasSi (Y, X) es una muestra aleatoria simple, i.e.. Yn, Xn es i.i.d. paran = 1, . . . , N; entonces,E( Un[ x) =E( Un[ xn)E_Un2x_=E_Un2xn_y tambien E( UiUj[ x) =E( Ui[ xi) E( Uj[ xj) parai ,= jCon lo que los los supuestos 2 T7 y 3 T9 quedan reducidos asupuesto2: E( Un[ xn) = 0supuesto3: E_Un2xn_= 2> 0para todon = 1, . . . , N(Notese que los regresores estan referidos exclusivamente a la observacion n-esima)En general este supuesto no es adecuado para modelos con datos de series temporales ya que las muestrasno son i.i.d. (no son muestras aleatorias simples puesto que suele haber correlacion entre los datos).Ejemplo9. [ecuaciondesalarios: (continuacion del Ejemplo 2 en la pagina6)]Con muestras aleatorias, estricta exogeneidad implica que para el individuo n-esimoE( Un[ 1, educ, antig, exper) = E( Un[ 1, educn, antign, expern) = 0,es decir, la esperanza de la perturbacion del individuo n-esimo, condicionada exclusivamente a los a nosde educacion, antig uedad y experiencia de dicho individuo es cero, independientemente de lo que ocurracon el resto de trabajadores. Por supuesto, tambien ocurre con la varianza condicionada:Var( Un[ 1, educ, antig, exper) = Var( Un[ 1, educn, antign, expern) = 2I,Ejercicio10. Demuestre queE( UiUj[ x) = E( Ui[ xi) E( Uj[ xj) parai ,= jpara el caso de muestrasaleatoriassimples (m.a.s.)Pista.E( UiUj[ x) = E( E(Ui[ XUj)Uj[ x)debido a que Ui, Xi es independiente de Uj, X1, . . . , Xi1, Xi+1, . . . , XN parai ,= j, junto conel teorema de las esperanzas iteradas.Seccion3:EstimacionMCO(MnimosCuadradosOrdinarios) 12 SupuestosdelModeloconRegresoresNoEstocasticosSilosregresoressonnoestocasticos,esdecirsonlamatrizdeterministax,entoncesnoesnecesariodistinguirentrefuncionesdedensidadcondicionales, f (un[ x) , eincondicionales, f (un) ; portantolossupuestos 2 T7 y 3 T9 quedan reducidos asupuesto2: E(Un) = 0supuesto3: E_Un2_= 2> 0 y E(UiUj) = 0 parai ,= jpara todon, i, j = 1, . . . , N(Estossonlossupuestosempleadosenlamayoradelibrosdetexto, comoporejemploenNovales(1993))Este caso no puede suponerse con modelos autorregresivos o de ecuaciones simultaneas.La interpretacion geometrica de estos supuestos aparece en la Seccion A en la pagina46 del Apendice.Queda un cuarto supuesto acerca del rango de la matriz de regresores y un quinto supuesto acerca de ladistribucion conjunta deUque enunciaremos mas adelante (vease Supuesto 4 T13 y Supuesto 5 T31 )3. EstimacionMCO(MnimosCuadradosOrdinarios)Captulos 2 y 3 de Wooldridge (2006)Apendice E1 de Wooldridge (2006) Terminodeerror 11Las perturbacionesUnno son observablesPerolaspodemosestimarparaunhipoteticovalor deyunamuestraconcreta yn, xnNn=1deYn, XnNn=1. en=ynxn =ynynConsideremos la Suma de los Residuos al Cuadrado para todonSRC() N

n=1_ynxn _2= (y x)

(y x) = e

e Mnimoscuadradosordinarios: Ecuacionesnormales 12El Supuesto 2 del modelo implica que Un X (ortogonalidad).LaSRC() es mnima para valores tales que los errores e = y xson ortogonales a los regresores de la muestra x e x x

e = 0.Asx

e = 0; x

_y x_= 0; x

y x

x = 0es decirx

y =x

x (3.1)Estimacion MCO es la solucion a dichas ecuacionesProposicion3.1. La suma de residuos al cuadrado SRC() es mnima para = .Seccion3:EstimacionMCO(MnimosCuadradosOrdinarios) 13Demostracion. Sea una estimacion de, entonces e

e = (y x)

(y x) =(y x +x x)

(y x +x x) sumando y restandox=_ e +x( )_

_ e +x( )_= e

e +( )

x

x( ) ya que x

e = 0.Y puesto que ( )

x

x( ) es una suma de cuadrados (por tanto semi-denido positivo), se deducequeSRC(cualquier ) = e

e e

e =SRC().Para una interpretacion geometrica, vease tambien la Seccion A.1 en la pagina47 del apendice.La demostracion anterior es, para mi gusto, mas elegante que la que aparece en la mayora de los manuales(b usquedadelmnimodelasumaresidualigualandoacerolasprimerasderivadas).Noobstante,enlaSeccion B en la pagina48 del apendice se muestra la derivacion tradicional de las ecuaciones normales.Para que la solucion al sistema de ecuaciones normales (3.1) sea unica es necesario que se cumpla uncuarto supuesto.3.1. CuartosupuestodelModeloClasicodeRegresionLineal Supuesto4: Independencialineal delosregresores 13El rango de X[Nk]esk con probabilidad 1.n umero de observaciones kVectores columna 1, X

2, . . . , X

klinealmente indep.Este supuesto implica que x

x es de rango completo, es decir, que existe la matriz (x

x)1.Se dice que existe multicolinealidad perfecta cuando el Supuesto 4 NO se satisface; es decir, cuando haydependencia lineal entre los regresores, o lo que es lo mismo: hay multicolinealidad perfecta cuando algunode los coecientes de correlaci on lineal entre dos regresores es uno en valor absoluto.El Supuesto4garantizalaunicidaddelassoluciones. Si nosecumplenoesposibleencontrarlaestimacionMCO de los parametros (pues hay innitas soluciones posibles).Ejemplo11. [ecuaciondesalarios: (continuacion del Ejemplo 2 en la pagina6)]Que pasa si todos los individuos de la muestra nunca han cambiado de empresa?Entonces a nosdeexperienciay a nosdeantig uedadcoinciden. Por tanto no es posible discriminar elefecto por separado de ambas variables; solo podemos calcular su efecto conjunto.ln(SALARn) = 1 +2EDUCn + (3 +4)EXPERn +UnVolveremos sobre esto en la Seccion 3 sobre Multicolinealidad en la pagina8 del Tema 33.2. AlgunasexpresionesqueseranempleadasfrecuentementeLas expresiones que aparecen a continuaci on seran empleadas repetidamente durante el curso.Denotamos a la media aritmetica de los elementos del vectory de ordenNcomo:y = (

yn)/N.Seccion3:EstimacionMCO(MnimosCuadradosOrdinarios) 14Nota4. Seanx ey vectores de ordenN, entonces

n(xnx)(yny) =

nyn(xnx) paran = 1, . . . , N.Demostracion.

n(xnx)(yny) =

nyn(xnx) y

n(xnx)=

nyn(xnx) y0 =

nyn(xnx) paran = 1, . . . , N.Nota5. Seanx ey vectores de ordenN, entonces

n(xnx)(yny) =

nynxnNy x =y

xNy x.Ejercicio12. Compruebe la igualdad de la nota anterior.As pues, del ejercicio anterior,Nsxy =

n(xnx)(yny) = y

x Ny x, es decirsxy =

n(xnx)(yny)N=y

xNy x; (3.2)dondesxyes la covarianza muestral entre los elementos dex ey; por tanto, la expresion de mas arribaes el analogo muestral de Cov(X, Y) = E([X E(X)][Y E(Y)]) = E(XY) E(X) E(Y) .Nota6. Seaz un vector de ordenN, entonces n(znz)2= nz2nNz2=z

z Nz2Demostracion. De la Nota 4 sabemos que n(znz)(yny) =

nyn(znz), por tanto, siy = z

n(znz)2=

nzn(znz)=

nz2nz

nzn=

nz2nNz2= z

z Nz2paran = 1, . . . , N;Es decir,s2z =

n(znz)2N=z

zNz2; (3.3)dondes2zeslavarianzamuestral deloselementosdez; portanto, laexpresionanterioresel analogomuestral de Var(Z) = E_[Z E(Z)]2_= E_Z2_[E(Z)]2.3.3. Algunoscasosparticulares Modeloconsolounaconstante Modelo1: Novblesexplicativas 14Si no se nada (T : );Y = h(1) +Udondeg() es lineal; por lo tantoYn = a1 +UnE(Yn[conjunto de informacion vaco) = E(Yn) = aVeamos que nos da la estimacion MCOx

y = x

x es decir1

y = 1

1ay calculando los productos escalares,

yn = N a; a =

ynN= y (3.4)Seccion3:EstimacionMCO(MnimosCuadradosOrdinarios) 15Notese como la estimacion MCO consiste en sustituir el momentos teorico E(Yn) por su analogo muestral(la media aritmetica).En este caso los residuos del modelo son las deviaciones de los datos respecto a su media, ya que e = y y = y y. (3.5) ModeloLinealSimple Modelo2: ModeloLineal Simple 15Si (T : X

= x

);Y = h(1, X

) +Udondeg() es lineal; por lo tantoYn = a +bXn +Un;entoncesE( Yn[ xn) =E( a +bXn +Un[ xn)=a +bxn + E( Un[ xn) = a +bxn.Por lo tanto, es funcion lineal yE( Yn[ xn) = E(Y) Cov(Y, X)Var(X)E(X). .a+ Cov(X, Y)Var(X). .bxn; (3.6)para todoxn RX,Veanse las ecuaciones (??) y (??) Seccion ?? (??) del Tema 2 del curso de Introduccion a la Econometrade LECO, pagina ??. Modelo2: ModeloLineal Simple 16SeaYn = a +bXn +Un; entoncesy =_____y1y2...yN_____; x =_____1 x11 x2......1 xN_____; =_ab_y loas ecuaciones normales sonx

y = x

x es decir_1 1 . . . 1x1x2. . . xN______y1y2...yN_____=_1 1 . . . 1x1x2. . . xN______1 x11 x2......1 xN______ab_ Modelo2: ModeloLineal Simple 17

yn= aN + b

xn

xnyn= a

xn+ b

x2n; (3.7)dividiendo porNla primera igualdad, despejando ay sustituyendo en la segunda, y empleando (3.2) y(3.3)y = a +bxsxy=bs2x(3.8)es decirb =sxys2x(3.9)ya = y sxys2xx = y b x (3.10)Supuesto 4 (independencia lineal de regresores) solucion unica.Seccion3:EstimacionMCO(MnimosCuadradosOrdinarios) 16Notese como las estimaciones MCO consisten en sustituir los momentos teoricos de la Ecuacion (3.6) porsus analogos muestrales.Ejercicio13. Empleando el sistema de ecuaciones (3.7), obtenga el segundo sistema (3.8) de la transpa-rencia anterior.Ejercicio14. Como afectara al problema de estimacion que la variable x fuera un vector de constantesc?Ejemplo15. [preciodelasviviendas:]n Precio Supercie1 199.9 10652 228.0 12543 235.0 13004 285.0 15775 239.0 16006 293.0 17507 285.0 18008 365.0 18709 295.0 193510 290.0 194811 385.0 225412 505.0 260013 425.0 280014 415.0 3000Cuadro1:Supercie(enpiesalcuadrado)ypreciodeventadelospisos(enmilesdedolares)(Ramanathan,1998,pp.78)Planteamos el modelo Yn = a+bXn+Un, donde Yn es el precio del piso n-esimo, Xn es su supercie, y Unson otros factores que inuyen en el precio del piso, pero ortogonales al la supercie del mismo (situacion,estado de mantenimiento, servicios, etc.) Deseamos saber cual es el efecto marginal del incremento de lasupercie de un piso en su precio. Por lo tanto necesitamos estimar el valor del parametrob.Puesto que

nxn = 26 753

nx2n = 55 462 515

nyn = 4 444.9

nxnyn = 9 095 985.5De 3.7 en la pagina anterior tenemos el sistema de ecuaciones lineales4 444.9 = a 14 +b26 7539 095 985.5 = a 26 753 + b55 462 515cuya solucion nos da la estimacion por mnimos cuadrados dea yb:a = 52.3509b = 0.13875;que tambien podemos calcular a partir de (3.9) y (3.10) en la pagina anteriora = y xsxys2x= 52.3509b =sxys2x= 0.13875Seccion3:EstimacionMCO(MnimosCuadradosOrdinarios) 17Estimaciones MCO utilizando las 14 observaciones 114Variable dependiente: priceVariable Coeciente Desv. tpica Estadsticot valor pconst 52,3509 37,2855 1,4041 0,1857sqft 0,138750 0,0187329 7,4068 0,0000Media de la var. dependiente 317,493D.T. de la variable dependiente 88,4982Suma de cuadrados de los residuos 18273,6Desviacion tpica de los residuos ( ) 39,0230R20,820522R2corregido 0,805565Grados de libertad 12Criterio de informacion de Akaike 144,168Criterio de informacion Bayesiano de Schwarz 145,447SalidadelprogramalibreGretl(GnuRegression,EconometricsandTime-seriesLibrary)

price = 52, 3509(1,404)+ 0, 138750(7,407)sqftN= 14R2= 0, 8056 F(1, 12) = 54, 861 = 39, 023(entre parentesis, los estadsticost)Por lo tanto, el precio de venta esperado de un piso con una supercie de 1800 pies cuadrados, E( Y [ 1800),sera de y7 = 52.3509 + 0.1391800 = 302101.5sinembargoy7=285. Estadiscrepancia(el error e7puededeberseaquedichopisoestaenunamalasituacion, dispone de pocos servicios, etc.)n Precio Supercie Precioestimado ErrorE( P | supercie) b e1 199.9 1065 200.1200 -0.220002 228.0 1254 226.3438 1.656193 235.0 1300 232.7263 2.273684 285.0 1577 271.1602 13.839845 239.0 1600 274.3514 -35.351426 293.0 1750 295.1640 -2.163977 285.0 1800 302.1015 -17.101488 365.0 1870 311.8140 53.186009 295.0 1935 320.8328 -25.8327810 290.0 1948 322.6365 -32.6365311 385.0 2254 365.0941 19.9058712 505.0 2600 413.1017 91.8982613 425.0 2800 440.8518 -15.8518014 415.0 3000 468.6019 -53.60187Cuadro2: Supercie(enpiesalcuadrado),preciodeventa(enmilesdedolares),precioestimado,yerroresestimados.Seccion3:EstimacionMCO(MnimosCuadradosOrdinarios) 18 EstimacionMCO: Interpretaciongraca 181502002503003504004505005501500 2000 2500 3000pricesqftpriceversussqftE(P|superficie)y7y12E(P|2600)= y12 e>0regresion a ojo GNU Gretl (este ejemplo) data listContinuaci ondelejemplopreciodelasviviendasenlap agina34 ModelocontresregresoresEjercicio16. Repita los pasos dados en la transparencia T16 y llegue hasta el sistema de ecuacionesequivalente a ( 3.7 en la pagina15) para los siguientes modelos:(a)Yn = aX1n +bX2n +cX3n +Un(b)Yn = a +bX2n +cX3n +UnEjercicio17. Obtenga la siguiente solucion del segundo sistema de ecuaciones del ejercicio anterior.a =y bx2cx3(3.11)b =sx2y s2x3 sx3y sx2x3s2x2s2x3 _sx2x3_2(3.12)c =sx3y s2x2 sx2y sx2x3s2x2s2x3 _sx2x3_2(3.13)Notese que si la covarianza entre x2 y x3 es cero, la estimacion deb del modelo Yn = a+bX2n+cX3n+Uncoincide exactamente con la estimacion deb en el modelo restringidoYn = a +bX2n +Un en el que se haquitado el regresorX3n.Ejercicio18. Si lacovarianzaentrex2yx3escero, Conlaestimaciondequemodelorestringidocoincide la estimacion de c?Nota7. Si los regresores de una regresion m ultiple tienen correlacion muestral cero entre si (por tantoson ortogonales), entonces las estimaciones de las pendientes de la regresion m ultiple son las mismas quelas estimaciones de las pendientes de las regresiones simples.Multicolinealidad perfecta: Ejercicio19. Como afectara al problema de estimacion que los regre-soresx2yx3tuvieran un coeciente de correlacion muestral con valor absoluto igual a uno?Seccion3:EstimacionMCO(MnimosCuadradosOrdinarios) 19Relacionentrelosmodelosdetresregresoresylosdedos. Considere los siguientes modelos deregresion simple1. Y = ayx2 +byx2 X2 +U : Regresion deYsobreX22. Y = ayx3 +byx3 X3 +U : Regresion deYsobreX33. X2 = ax2x3 +bx2x3 X3 +U : Regresion deX2sobreX3(Notese como los subndices de los coecientes describen cada regresion)Que relacion tienen las estimaciones MCO de estos tres modelos con las estimaciones MCO del modeloY = a +b X2 +c X3 +U : Regresion deYsobreX2yX3descritas en las ecuaciones (3.12) y (3.12)?Si multiplicamosydividimos(3.12)y(3.12)por s2x2s2x3obtenemoslassiguientesexpresionesenterminos de los coecientes MCO de las tres regresiones anteriores:b =byx2 byx3

bx2x31 r2x2x3(3.14)c =byx3 byx2

bx2x31 r2x2x3(3.15)donderx2x3es la correlacion muestral entre ambos regresores.Modelo simuladoPn = 100 + 3Sn130Dn +UnModelo simuladoPn = 100 + 3Sn130Dn +UnModelo 1Pn = 1 +2Sn +UnModelo 1: estimaciones MCO utilizando las 500 observaciones 1500Variable dependiente: precioVariable Coeciente Desv. tpica Estadsticot valor pconst 8,86429 11,7399 0,7551 0,4506superc 2,99968 0,166441 18,0225 0,0000Media de la var. dependiente 218,374D.T. de la variable dependiente 47,0678Suma de cuadrados de los residuos 669080,Desviacion tpica de los residuos ( ) 36,6542R20,394756R2corregido 0,393541Grados de libertad 498Criterio de informacion de Akaike 5022,46Criterio de informacion Bayesiano de Schwarz 5030,89Seccion3:EstimacionMCO(MnimosCuadradosOrdinarios) 20Modelo simuladoPn = 100 + 3Sn130Dn +UnModelo 2Pn = 1 +2Dn +UnModelo 2: estimaciones MCO utilizando las 500 observaciones 1500Variable dependiente: precioVariable Coeciente Desv. tpica Estadsticot valor pconst 310,482 6,32078 49,1208 0,0000distanci 130,54 8,61143 15,1599 0,0000Media de la var. dependiente 218,374D.T. de la variable dependiente 47,0678Suma de cuadrados de los residuos 756399,Desviacion tpica de los residuos ( ) 38,9727R20,315768R2corregido 0,314394Grados de libertad 498Criterio de informacion de Akaike 5083,80Criterio de informacion Bayesiano de Schwarz 5092,23Modelo simulado: Pn = 100 + 3Sn130Dn +UnModelo 3Pn = 1 +2Sn +3Dn +UnModelo 3: estimaciones MCO utilizando las 500 observaciones 1500Variable dependiente: precioVariable Coeciente Desv. tpica Estadsticot valor pconst 98,9950 8,70328 11,3744 0,0000superc 3,06214 0,111940 27,3553 0,0000distanci 133,93 5,44707 24,5876 0,0000Media de la var. dependiente 218,374D.T. de la variable dependiente 47,0678Suma de cuadrados de los residuos 301877,Desviacion tpica de los residuos ( ) 24,6454R20,726925R2corregido 0,725826F(2, 497) 661,506Criterio de informacion de Akaike 4626,52Criterio de informacion Bayesiano de Schwarz 4639,17Ejercicio20.Coincidenlosvaloresestimadosparalosparametros2y3enel modeloPn=1 +2Sn 3Dn + Unconlosvaloresobtenidosparalaspendientesenlosmodelosrestringidosanteriores?Que podemos armar entonces sobre la covarianza muestral de los regresores distanciay supercie?Seccion4:PropiedadesalgebraicasdelaestimacionMCO 21 ModeloLinealGeneral ModeloLineal General 19En general tenemos mas de una variable exogena por lo que (T : X = x);Yn = Xn +Un= _1, Xn2, . . . , Xnk[k1]+Un;entoncesE( Yn[ xn) = E__1, Xn2, . . . , Xnk +Unxn_== E__1, xt2, . . . , xtk +Unxn_== E( a1 +a2xn2 + +akxnk +Un[ xn) == a1 +a2xn2 + +akxnk + E( Un[ xn)= a1 +a2xn2 + +akxnk = xn;dondexn = (1, xn2, . . . , xnk).Necesitamos conocer el valor de los elementos de,(a1, a2, , ak).que dependen de las varianzas y covarianzas de _Yn, Xn.(Vease la Seccion C.1 del apendice)La expresion general de las ecuaciones normales esx

y = x

x .El Supuesto 4 garantiza (con probabilidad 1) que la matriz x

x es invertible. Por tanto la estimacion MCOdel vector se puede expresar como = (x

x)1x

y .(Vease la Seccion D para una interpretacion de esta expresion.)4. PropiedadesalgebraicasdelaestimacionMCO4.1. PropiedadesbasicasCaptulos 2 y 3 de Wooldridge (2006)Apendice E1 de Wooldridge (2006) Mnimoscuadradosordinarios: Propiedadesalgebraicas 20El vector de residuos evaluado en = ese[N1]= y x Reordenando las ecuaciones normales x

y = x

x tenemosx

(y x ) = 0; x

e=0 y

e=0 (4.1)La propiedadx

e = 0es el analogo muestral de las condiciones de ortogonalidad derivadas del Supuesto 2 T8 (recuerdese quedos vectores de n umerosa yb son ortogonales sia

b =

aibi = 0.)Estapropiedadindicaqueel terminodeerrorestimado, e, esortogonal atodosycadaunodelosregresores.Del mismo modo que hemos denido ecomo e = y x , denimos los valores ajustados ycomo y = x ;entonces y

=

x

, y por tanto y

e =

x

e =

0 = 0.Practica 21. Con alg un programa econometrico estime un modelo del tipoYn = 1 +2Xn2 +3Xn3 +Un.Seccion4:PropiedadesalgebraicasdelaestimacionMCO 22Obtenga los residuos ey los valores ajustados y. Compruebe quex1

e =0x2

e =0 y

e =0Calcule los valores medios de e, yey. Explique los resultados. A nadir script de Gretl Mnimoscuadradosordinarios: Maspropiedadesalgebraicas 21y

y = y

y + e

e (TaPitagoras T46 ) (4.2)Ya quey

y =( y +e)

( y +e) puesto que e = y y= y

y+ 2 y

e+ e

e desarrollando el producto= y

y+ e

e ya que de (4.1) y

e = 0 Sumasdecuadrados 22SRC N

n=1 en2= e

eSTC N

n=1(yny)2= y

y Ny2SEC N

n=1( yn y)2= y

y +Ny22Ny yPor tanto,STC = Ns2ydondes2yes la varianza muestral dey; por el contrario, las sumasSRCySECno son necesariamenteNveces las varianzas de ey y(aunque veremos que as ocurre si el modelo tienetermino cte.).Ejercicio22. Verique las igualdades de la transparencia anterior.Caso especial (Modelos con termino constante). Cuando hay termino constante en el modelo (el primerregresor es un vector de unos tal y como hemos presentado el modelo aqu) se verica que1

e = 0; N

n=1 en = 0 e=0.Y puesto que para cadan, se verica queyn = yn + en, entonces sumando paran = 1, . . . , NN

n=1yn =N

n=1 yn + 0 o bien 1

y = 1

y y= yAdemas, de(4.2)

y2n =

yn2+

e2;restando a derecha e izquierdaNy2(que es igual aN y2),

y2nNy2=

yn2N y2+

e2;y empleando el resultado de laNota 6 en la pagina14N

n=1(yny)2=N

n=1( yn y)2+N

n=1 en2o bien (y y)

(y y) = ( y y)

( y y) + e

e .Seccion4:PropiedadesalgebraicasdelaestimacionMCO 23Dividiendo porNtenemoss2y=s2b y+s2b eya que e = 0; y dondes2zes la varianza muestral dez.Ejercicio23. Demuestre que y

y = y

y; es decir, yn2=

ynyn.Casoespecial (Modelosconterminoconstante). Lasumaexplicadadecuadrados, SEC,sepuedeex-presar como:SEC = y

y +Ny22Ny y= y

y Ny2ya quey = ypor haber termino cte.=Ns2b ypor laNota 6otras expresiones son:=

x

x Ny2sustituyendo ypor x = y

y N yy por Ejercicio 23 y pory = y=Nsb y ypor laNota 4Ademas, enestecasoenparticular, lasumatotal decuadrados, STC, sepuededescomponerenlasuma:STC = SEC +SRCya quey

y = y

y + e

e de (4.2) (pagina 22)y

y Ny2= y

y Ny2+ e

e restando a ambos ladosNy2STC = y

y Ny2+SRC por denicion deSTCySRCSTC =SEC +SRC por haber termino constantey = yEsta relacion sugiere el nombre de suma explicada de cuadrados, ya que descomponemos la variabilidadde la variable que queremos estudiar (y) en dos partes: SRC es la variabilidad de los residuos (aquello queel modelo no explica) ySECes la variabilidad de y, que es la estimacion de la esperanza condicionadaa los datos (aquello que explica el modelo).En esta discusion se debe tener presente que el termino explicacion es enga noso. En el ejemplo delprecio de las viviendas y su supercie, es sensato suponer que los precios dependen de las caractersticasde las viviendas, y en particular, que parte de las variaciones de los precios se deben a la variacion en lasupercie de las viviendas; por ello, el nombre de suma explicada de cuadrados toma todo su sentido.Ahora bien, suponga que estima el modelo:Sn = 1 +2Pn +Un.En este modelo, la supercie es funcion del precio de la vivienda, y por ser un modelo lineal con terminoconstante, larelacionalgebraicaSTC=SEC+SRCsecumple. Peronotienesentidosuponer quelascaractersticasdelaviviendasedebenal precio; delocontrariopodramossuponerquesi el pisoexperimenta un alza en su precio, entonces, en consecuencia su supercie aumentara. Esto es absurdo, ypodemos concluir que la relacionSTC=SEC + SRCes puramente algebraica, y que su interpretacionsolo es posible cuando el modelo estimado tiene sentido desde el punto de vista de la Teora Economica.La unica interpretacion posible a las estimaciones es de caracter puramente estadstico (y no de TeoraEconomica):siunpisotieneunpreciomuyelevado,cabeesperarqueelpisoseagrande.(Esteesunbuen momento para que lea de nuevo la Introduccion a este Tema 1 en la pagina3).Seccion4:PropiedadesalgebraicasdelaestimacionMCO 244.2. Maspropiedadesalgebraicas. ProyeccionesSi se cumple el cuarto supuesto, entoncesx

x es de rango completo y existe la matriz (x

x)1. Soloentonces, es posible despejar en las ecuaciones normales (3.1) para obtener la expresion: = (x

x)1x

y .Llamamos estimacion MCO dey a y = xque es igual a y = x = x(x

x)1x

y .Por otra parte, e =y y = y x=y x(x

x)1x

y=(I x(x

x)1x

) ySi llamamos p x(x

x)1x

y m I p, entonces y = py yx; e = my yx.donde yx es la parte de y que se puede expresar como funcion lineal de las x; e yx es la parte de y que nose puede expresar como funcion lineal de las x, es decir, la parte dey ortogonal a las x.Ademas sabemos quey = y + e, por tantoy = py +my = yx+yx.(vease la gura de la Transparencia T46); y p+m = I .Nota 8. La inversa de una matriz simetrica es simetrica, as pues, (x

x)1es una matriz simetrica, y portanto _(x

x)1

= (x

x)1. La traspuesta de un producto de matrices a y b es [ab]

= b

a

.Ejercicio24. Cual sera la expresion de la traspuesta del producto de tres matrices (abc)

?Ejercicio25. Demuestre que p

m = p

(I p) = 0.Se puede vericar (empleando el resultado del ejercicio anterior) que y

e = 0, pues y

e = (py)

my = y

p

my = y

0y = 0;resultado que ya vimos en la Ecuacion 4.1 en la pagina21. Por tanto, podemos concluir que:LaestimacionMCOseparael vectoryendoscomponentes, yy e, ortogonalesentresi(perpendiculares). Laprimeracomponente yesunacombinacionlineal delosregresores(laparte deyque se puede describir mediante un modelo lineal con las variables explicativas). Lasegundacomponenteeslapartedeyortogonal alosregresores(loquenosepuededescribirlinealmente con los regresores, ni siquiera de manera aproximada).Ejercicio26. Demuestre que m

= m y que m

m = m,De los ejercicios y resultados anteriores, se deduce quey

y =(py +my)

(py +my)=y

p

py +y

m

my pues p

m = pm

= 0= y

y + e

e (expresion que ya obtuvimos en (4.2); T. de Pitagoras)(vease la gura de la Transparencia T46).LaestimacionMCOdey,esdecirelvector y= py,seobtieneproyectandoysobreelconjuntodetodaslascombinacioneslinealesdelosregresores(todoslosposiblesmodeloslinealesgeneradosconlosregresores x), para seleccionar aquel cuya suma de residuos al cuadrado e

ees menor. (compare la gurade la Transparencia T46 con la gura inmediatamente anterior).Seccion4:PropiedadesalgebraicasdelaestimacionMCO 25De manera analoga, los residuos e = myson la proyeccion del vectorysobre el espacio ortogonal alanterior (al de los modelos lineales obtenidos como combinaciones lineales de los regresores x). Es decir, ees la parte deyque no es expresable en funcion de un modelo lineal de x (o lo que es lo mismo, no esexplicable como combinacion lineal de los regresores).Por tanto, la matriz p es una aplicacion lineal que proyecta el vectory sobre las x (sobre el espaciovectorial expandido por las columnas los regresores de la matriz x); y la matriz m es una aplicacionlineal que proyecta el vectory sobre el espacio ortogonal a las x (sobre el espacio vectorial ortogonal alexpandido por las columnas de la matriz x);ProyectoresortogonalesDenicion2. Decimos que una matriz q es simetrica si se verica que q

= q.Denicion3. Decimos que una matriz q es idempotente si se verica que qq = q.Denicion4. Seaqunamatrizidempotente(qq=q). Si ademaslamatrizessimetrica(q=q

),entonces se dice que la matriz q es un proyector ortogonal.Ejercicio27. Verique que p y m son proyectores ortogonales. RegresionparticionadaWooldridge (paginas 85 y ejercicio 3.17 de la pagina 119 2006). Pero mejor en:Johnston y Dinardo (paginas 88 a 95 y 116 a 118 2001)Novales (paginas 85 a 86 1993)Pe na (paginas 390 a 392 2002)Enlapartedecontrastaciondehipotesisseranecesario, enocasiones, tenerexpresionesexplcitasdesub-vectores de =__1

2__Para ello vamos a reescribir el modelo lineal de la forma Y =X11 +X22 +U y tambien las ecuacionesnormales 3.1 en la pagina12 del siguiente modo__x1

x2

__x1x2_ _12_=_x1

yx2

y_o mejor a unx1

x11 +x1

x22 = x1

yx2

x11 +x2

x22 = x2

y(4.3)donde x =_x1... x2, es decir, hemos dividido la matriz de regresores en dos conjuntos de columnas, cadauno asociado a los parametros de los vectores 1y 2.Si pre-multiplicamoslaprimeradelasecuacionesporx2

x1(x1

x1)1ylarestamosdelasegunda,tenemos_x2

x2x2

x1(x1

x1)1x1

x2_2 = x2

y x2

x1(x1

x1)1x1

y (4.4)Vamos ha denir los proyectoresp1 = x1(x1

x1)1x1

y m1 = I p1El primero de ellos es una aplicacion lineal que proyecta cualquier vectorz sobre el primer conjuntode regresores x1, y el segundo lo proyecta sobre el espacio ortogonal al primero. Por tanto p1z realiza laregresion MCO del vector z sobre los regresores x1 y m1z son los residuos (los errores) de dicha regresion.Sustituyendo p1y m1en (4.4) tenemos2 = (x2

m1x2)1x2

m1y (4.5)y sustituyendo esta expresion en las ecuaciones normales (4.3)1 = (x1

x1)1x1

(y x22) (4.6)Seccion4:PropiedadesalgebraicasdelaestimacionMCO 26Es sencillo vericar que, de nuevo, m1

= m1. y que m1

m1 = m1. Por lo que (4.5) se puede escribircomo2 = (x2

m1

m1x2)1x2

m1

m1yEnestaexpresion,m1ysonlosresiduosobtenidosalrealizarlaregresiondeysobreelsubconjuntoderegresoresx1(lapartedeyortogonal ax1). Ym1x2esunamatrizcuyascolumnassonlosresiduosobtenidos realizando la regresion de cada una de las columnas de x2 sobre x1 (la parte de x2 ortogonal ax1).Notese que si llamamosyx1 = m1y a los residuos de la primera regresion, y x2x1 = m1x2a la matrizde residuos de las regresiones de las columnas de x2, entonces (4.5) se puede escribir como2 = (x2x1

x2x1)1x2x1

yx1Este resultado nos indica que podemos estimar 2mediante regresiones auxiliares:1. Realizamoslaregresiondeysobreel primerconjuntoderegresoresx1yobtenemosel vectorderesiduosyx12. Realizamos las regresiones de cada una de las columnas de x2sobre las variables x1, almacenandolos residuos de cada regresion en las columnas de x2x1.3. por ultimo, 2se obtiene de la regresion deyx1 sobre x2x1, es decir, 2 = (x2x1

x2x1)1x2x1

yx14. las estimaciones de 1se pueden recuperar de (4.6)Notese que si2 = 2; es decir, si el sub-vector se reduce a un escalar (un unico parametro), entonces laexpresion (4.5) se reduce a2 =2 = ( x

2[1N]m1[NN]x2[N1])1x2

m1y =x2

m1yx

2[1N]m1[NN]x2[N1](4.7)Regresionortogonalparticionada. Suponga que ambos grupos de regresores _x1... x2, son ortogo-nalesentresi (x1

x2=0), esdecir, estanincorrelados. Enestecaso, lasecuaciones4.3enlapaginaanterior se reducen ax1

x11 = x1

yx2

x22 = x2

y;y por lo tanto los vectores de coecientes 1 y 2 se pueden estimar por separado mediante las regresionesdeYsobre X1, y deYsobre X2. Esta es una generalizacion de la Nota 7 en la pagina18. RegresionendesviacionesrespectoalamediaWooldridge (paginas 63, 64, 90 2006). Pero mejor:Novales (paginas 86 a 91 1993)Johnston y Dinardo (paginas 84 a 88 2001)Gujarati (Seccion 6.1 2003, hay version castellana de este manual)Un caso particular de la regresion particionada es que el primer grupo de regresores se limite a la columnade unos. Es decir x =_1... x2, donde x1 = 1. En este casop1 = x1(x1

x1)1x1

= 1(1

1)11

=11

N=__1N1N

1N1N1N

1N ......1N1N

1N__por lo quem1y = (I p1) y =__y1yy2y...yN y__= y y1Seccion4:PropiedadesalgebraicasdelaestimacionMCO 27es decir, y = m1y son las desviaciones de los elementos del vector columna y respecto de su media muestraly(son los residuosyx1y1 de la primera regresion en el paso 1; aqu x1 = 1. Vease la Ecuacion 3.5 enla pagina15). De manera similar, m1x2da como resultado una matriz x21 x2en la que aparecen lasdesviaciones de los datos de cada una de las columnas de X2respecto de sus respectivas medias (son losresiduos de las regresiones auxiliares del paso 2).Ahora es inmediato estimar 2como (paso 3)2 = ( x

2 x2)1 x

2 y (4.8)esdecir, enunmodeloconterminoconstante, laestimaciondetodoslosparametrosexceptoel delaconstante. se pueden obtener mediante la regresion de las variables del modelo en desviaciones respecto asu media. Por ultimo (paso 4)1 = (1

1)11

(y x22) =1

(y x22)N= y 2x23x3 kxk(4.9)En denitiva, si en el modeloYn = 1 +2X2n + +kXkn deseamos estimar por MCO solo2,3,. . . , k. Basta restar la media muestral a cada una de las variables del modelo, y realizar la regresion en unnuevo modelo sin termino constante y con las nuevas variables transformadas.Yn = 2 X2n + +k Xkn.Practica 28. Verique con un programa econometrico la armacion anterior.Notese ademas, que la expresion (4.8) se puede reescribir como:2 =_ 1N x

2 x2_1_ 1N x

2 y_;donde1N x

2 x2 es la matriz de covarianzas muestrales de los regresores, y1N x

2 y es el vector de covarianzasmuestrales entre los regresores y el regresando (que es la contrapartida muestral de la Ecuacion C.1 en lapagina49). A nadiendoregresoresSuponga que ha estimado por MCO el siguiente modeloY= X +U.PosteriormentedecideincluircomoregresoradicionallavariableZ;entonceselnuevomodeloampliadosera:Y= X +c Z+U.Podemos aplicar los resultados de la regresi on particionada para obtener el coeciente, c, asociado al nuevoregresorZdel siguiente modo (de 4.5 en la pagina25):c = (z

mz)1z

my = (zx

zx)1zx

yx; (4.10)donde yx son los residuos de la regresion MCO de y sobre x (la parte de y que no se puede expresar comofuncion lineal de las x, es decir, la parte de y ortogonal a las x), y zx son los residuos de la regresion MCOde z sobre x (la parte de z ortogonal a las x), es decir zx= mz, e yx=my; donde m =_I x(x

x)1x

.Practica 29. Verique con un programa econometrico la armacion anterior. Los pasos a seguir son1. Calcule los residuos MCO con el modelo reducido.2. Calcule los coecientes estimados en el modelo ampliado. Fjese en el valor obtenido para el coecientec asociado al nuevo regresor4.3. Calcule los residuos en la regresion de la nueva variable explicativazsobre los antiguos regresoresx.4. Calcule por MCO la regresion de los residuos del punto 3 sobre los residuos del punto 1; y compareel valor estimado con el obtenido en el punto 2.4Notesequeel restodecoecientespuedediferirrespectodelosobtenidosenlanuevaregresion. Estoseraas siemprequeelnuevoregresortengacorrelaci onconlosdelmodeloinicial.Seccion4:PropiedadesalgebraicasdelaestimacionMCO 28Sumaderesiduos: Cuando se a naden regresores a un modelo, la suma de residuos al cuadrado nuncacrece; dehechosueledisminuir. Estosecumpleinclusosi lavariablea nadidanotienening unsentidodentro del modelo (ninguna relacion teorica). Veamoslo:Del modelo inicial obtendremos los residuos e = y x;por otra parte, los residuos con el modelo ampliado son e = y xz c.(notese que si x

z ,= 0 entonces ,= ; y que si c ,= 0 entonces e ,= e.)De (4.6) sabemos que = (x

x)1x

(y z c) = (x

x)1x

z c.Sustituyendo en eobtenemos e =y x +x(x

x)1x

z c z c= e mz c= e zxc de (4.10)As pues, e e = e

e +c2_zx

zx_2czx

eTeniendo en cuenta que de (4.10) c = (zx

zx)1zx

yx y que e = my = yx tenemosc2_zx

zx_= c_zx

zx_c = c_zx

zx_(zx

zx)1zx

yx= czx

yx= czx

e .Por lo que nalmente e e. .SRC= e

e..SRCc2_zx

zx_. .0(4.11)por lo que la suma de residuos al cuadrado del modelo ampliado SRC nunca sera mayor que la del modeloreducido SRC. CorrelacionesparcialesSupongaquetienetresvariables;porejemplo,larentar,laedadeyeln umerodea nosdeestudiooformacionfde una serie de individuos.Rn = 1 +2Fn +3En +UnQuerramos saber el grado de relacion lineal entre dos de ellas, una vez descontado la relacion lineal quela tercera tiene con ellas. En nuestro ejemplo nos podra interesar conocer el grado de relacion lineal de larenta con la formacion, una vez descontado el efecto lineal que la edad tiene con ambas (notese que tantoparaformarsecomoparagenerarrentasesnecesarioeltranscursodeltiempo,porloquegeneralmentehay una relacion directa entre la edad y las otras dos variables).Lasoluci onestomarlapartedeambasvariables, rentayeducacion, ortogonal alatercera,laedad; y observar la correlacion de dichas partes (que ya no mantienen relacion lineal ninguna con lavariable edad).El modo de hacerlo es sencillo una vez visto lo anterior:1. Se toman los residuos de la regresion de la variable rentarsobre la variable edade y la constante(modelo lineal simple); es decir, se obtienere.2. Se toman los residuos de la regresion de la variable formacion f sobre la variable edad e y la constante(modelo lineal simple); es decir, se obtienefe.3. Por ultimo se calcula el coeciente de correlacion simple de ambos residuosrrefe.Dichocoecienteeslacorrelacionparcial delavariablerentarconlavariableformacionf, unavezdescontadoelefectodelaedadesobreambasvariables.Notesequeambosresiduostienemediaceropor ser residuos de un modelo con termino constante.Suponga por tanto que dividimos la matriz de regresores x en dos columnas; por ejemplo la primeravariable no cte.x2y el resto dek 1 regresores (incluyendo el termino cte.) w.x =_x2... w_Seccion4:PropiedadesalgebraicasdelaestimacionMCO 29entonces el coeciente de correlacion parcial de y con x2 una vez descontado el efecto de las demas variables(incluida la constante) wesr(y,x2)z =y

mwx2_y

mwyx2

mwx2=sywx2w_s2yw_s2x2w,donde mw = I w(w

w)1w

.Ejercicio30. Resuelva el ejercicio propuesto no2 del profesor Jose Alberto Mauricio.http://www.ucm.es/info/ecocuan/ectr1/index.html#Material.Ejercicio31. Resuelva el ejercicio propuesto no3 del profesor Jose Alberto Mauricio.http://www.ucm.es/info/ecocuan/ectr1/index.html#Material.4.3. MedidasdeajusteLas medidas de ajuste sirven paraCuanticar la reduccion de incertidumbre que proporciona el modelo estimado.Comparar la bondad de modelos alternativos para la misma muestra Medidasdeajuste: Coecientededeterminaci onR223R2 1 SRCSTC; R2 1 (no acotado inferiormente)Cuando hay termino constanteR2=SECSTC; 0 R2 1 (acotado)CoecientedeDeterminacionoR2es una medida de ajuste frecuente. Cuando el modelo contieneun regresor constante, muestra el poder explicativo de los regresores no constantes. Se dene comoR2 1 SRCSTC;y puesto queSRCySTCson siempre mayores o iguales a cero,R2 1.Cuandoel modelonotienecte. SRCpuedeser mayor que STC, por loque R2noestaacotadoinferiormente.GNU Gretl: ejemplo simuladoCasoespecial (Modelos con termino constante). Si el modelo tiene termino constante, el coecienteR2mide el porcentaje de variacion deyexplicado por los regresores no constantes del modelo; ya queR2= 1 SRCSTC=STC SRCSTC=SECSTCy por tanto 0 R2 1.Notese ademas queR2=SECSTC=SEC2STC SEC=_Nsb y y_2Ns2yNs2b y=N2N2__sb y y_s2ys2b y__2=_rb y y_2, (4.12)donderb y y =sb yysb ysyes el coeciente de correlacion lineal simple entre yyy.Seccion4:PropiedadesalgebraicasdelaestimacionMCO 30Ejercicio32. Calcule el coeciente de determinacionR2para el el ejemplo del precio de las viviendasEjercicio33. Calcule el coeciente de determinacion para el Modelo1:Yn = a +UnPista. piense cuanto valeSECen este caso.Ejercicio34. Verique que, para el caso del Modelo Lineal SimpleYn = a +bXn +Un, el coeciente dedeterminacionR2es el cuadrado del coeciente de correlacion simple entre el regresandoyy el regresorx; es decir, que en este casoR2= r2y x. (N otese que este resultado es diferente de (4.12)).El coeciente de determinacionR2tiene algunos problemas al medir la bondad del ajuste.a nadir nuevas variables al modelo (cuales quiera que sean) nunca hace crecerSRCpero esta sumasi pude disminuir (vease la Seccion )Por tanto elR2del modelo ampliado nunca puede ser menor que el del modelo inicial.Para evitar este efecto se emplea el coeciente de determinacion corregido (o ajustado)R2El coeciente de determinacion corregidoR2de dene comoR2 1 SRCNkSTCN1; = 1 s2b es2yes decir, uno menos la fraccion de la cuasivarianza de los errores con la cuasivarianza muestral del regre-sando. Por ello tambien es siempre menor o igual a uno.1. compara estimadores insesgados de la varianza residual y de la varianza de la variable dependiente2. penalizamodelosconunelevadonumerodeparametros, al corregirporel n umerodegradosdelibertadN k. Otrasmedidasdeajuste 24R2corregido (mejor cuanto mas elevado)R2 1 SRCNkSTCN1= 1 N 1N k(1 R2) 1Criterios de informacion de Akaike y de Schwartz (mejor cuanto mas bajos)AIC =N ln(2) +N ln_ e

eN_+N + 2(k + 1)SBC =N ln(2) +N ln_ e

eN_+N + (k + 1) ln(N)Volver al recuadro del ejemplo del precio de las viviendas (pagina 17).Otras medidas de la bondad del ajuste son los criterios de informacion de Akaike y de Schwartz (mejorcuanto mas bajos)Akaikeprima la capacidad predictiva del modelo (pero tiende a sobreparametrizar)Schwartzprima la correcta especicacionElprogramaGretl(GnuRegression,EconometricsandTime-seriesLibrary)realizauncalculoespecialdeR2cuando el modelo no tiene termino cte. En este caso el R-cuadrado es calculado como el cuadradode la correlacion entre los valores observado y ajustado de la variable dependiente (Vease Ramanathan,1998, Seccion 4.2).Los coecientes de determinacion nos dan informacion sobre el grado de ajuste del modelo, pero ojo! nospueden conducir a enga nos. No es recomendable darles demasiada importancia, hay otras cuestiones sobreel modelo de mayor relevancia a la hora de valorarlo. . .Ejemplo35. [pesodeni nosseg unsuedad:]Seccion4:PropiedadesalgebraicasdelaestimacionMCO 31n PesoKg Edad1 39 72 40 73 42 84 49 105 51 106 54 117 56 128 58 14Cuadro3:Peso(enkilogramos)yedad(ena nos)(Modelo 1Pn = 1 +2EDADn +Un)40455055607 8 9 10 11 12 13 14PesoEdadPesoconrespectoaEdadE( P |e)=a + b eajustadoobservado

Peso Kg = 19, 6910(6,999)+ 2, 93003(10,564)EdadT= 8R2= 0, 9405 F(1, 6) = 111, 6 = 1, 8161(entre parentesis, los estadsticost)(Modelo 2Pn = 1 +2EDADn +3EDADn2+Un)40455055607 8 9 10 11 12 13 14PesoEdadPesoconrespectoaEdadE( P |e)=a + b e + c e2ajustadoobservado

Peso Kg = 5, 11497(0,664)+ 8, 06835(5,159)Edad 0, 252102(3,305)Edad2T= 8R2= 0, 9776 F(2, 5) = 153, 57 = 1, 1148(entre parentesis, los estadsticost)(Modelo 3Pn = 1 +2EDADn +3EDADn2+4EDADn3+Un)40455055607 8 9 10 11 12 13 14PesoEdadPesoconrespectoaEdadE( P |e)=a + b e + c e2+ d e3ajustadoobservado

Peso Kg = 81, 7714(1,904)18, 5964(1,419)Edad + 2, 37778(1,845)Edad2 0, 0836541(2,043)Edad3T= 8R2= 0, 9863 F(3, 4) = 168, 75 = 0, 87188(entre parentesis, los estadsticost)Seccion5:PropiedadesestadsticasdelosestimadoresMCO 325. PropiedadesestadsticasdelosestimadoresMCOCaptulos 2 y 3 de Wooldridge (2006)Apendice E2 de Wooldridge (2006) EstimadorMCO b| x25Los coecientes estimadosvericanx

y = x

x por Supuesto 4 T13 de independencia lineal podemos despejar : = (x

x)1x

yque es una estimacion.El estimadorde los coecientes es = (X

X)1X

Yo bien| x x = (x

x)1x

Y = aY = +aUdondeY = x +Usuponiendo conocidas las realizaciones de los regresores.Nota9. Notese las dimensiones de la matriz:a[kN] (x

x)1x

=__a11a12 a1Na21a22 a2N............ak1ak2 akN__;por lo tanto, son k combinaciones lineales de los Ndatos del vector y, donde los coecientes especcosde cada combinacion son los elementos de cada una de las las de la matriz (x

x)1x

.Del mismo modo, cada uno de los elementos del vector aleatorio es una combinacion lineal de lasNvariables aleatoriasYn.Notese ademas que| x x = aY= a_x +U= +aU= +(x

x)1x

Ues decir:| xes igual al verdadero valor de los parametros m as una combinacion lineal (o suma ponde-rada) de las perturbaciones determinada por los coecientesaijde la matriz a.5.1. EsperanzadelosestimadoresMCO | x Esperanzadel estimadorMCO b| x26Denotemos (X

X)1X

por A[kN]E_ x_=E( +AU[ x)=E( +aU[ x)= +aE( U[ x)=por lo tanto es un estimador insesgado.Seccion5:PropiedadesestadsticasdelosestimadoresMCO 33Si los regresores son NO estocasticos, la demostracion es mas sencilla a unE__=E( +aU)= +aE(U)=Modelo2. [ModeloLinealSimple(casoparticular T16 ).]De 3.7 en la pagina15 resultab =

n(xnx)(yny)

n (xnx)2=

nyn(xnx)

n (xnx)2.es decir,b =

nmnyn, (5.1)dondemn =xnx

n (xnx)2.Por tanto,bes una combinacion lineal de los datosyn(dondemnson los coecientes de dicha combi-nacion); y entonces atambien es combinacion lineal de los datosyn(vease 3.10 en la pagina15).Por 5.1 sabemos queb| x =

mnYn, dondemn =xnx

(xnx)2.Se puede vericar que1. mn = 02. m2n =1Px2n=1P(xnx)2=1Ns2x3. mn(xnx) =

mnxn = 1.Entonces,b| x =

mn(a +bxn +Un)=a

mn +b

mnxn +

mnUn=b +

mnUnyE_b x_= b +

mnE( Un[ x) = b.(Novales, 1997; Gujarati, 2003, pag. 488491 y pag. 100 respectivamente).Por otra parte, de 3.10 en la pagina15 sabemos quea = y bx =1N

ynb 1N

xn.Por lo tanto el estimador condicionado esa| x =1N

Yn_b| x_1N

xncuya esperanza esE(a [ x) =1N

E( Yn[ x) E_b x_1N

xn=1N

E( Yn[ x) b 1N

xn=1N

E( a +bxn +Un[ x) b 1N

xn=1N

a +b 1N

xn +1N

E( Un[ x) b 1N

xn= a.Ejercicio36.VeriquequeelestimadorMCOdelparametroadelModelo1(constantecomo unicoregresor) es insesgado.Seccion5:PropiedadesestadsticasdelosestimadoresMCO 345.2. VarianzadelosestimadoresMCO | x Varianzadel estimadorMCO b| x27Aplicando la denicion de varianza de un vector tenemos:Var_ x_=E__ __ _

x_=E_(x

x)1x

UU

x(x

x)1 x_=(x

x)1x

E_UU

x_x(x

x)1=2(x

x)1Modelo2. [ModeloLineal Simple] Sabemos de (3.7) en la pagina15 que x

x =_NPxnPxnPx2n_ cuyodeterminante esdet x

x [x

x[ = N

x2n_

xn_2= N

(xnx)2;Por tanto la matriz de varianzas y covarianzas del estimador es:2(x

x)1=2N

(xnx)2 _ x2n

xn

xnN_.Notese que

(xnx)2= Ns2x.As pues, podemos deducir queVar(a [ x) =2

x2nN

(xnx)2=2x2Ns2x; y Var_b x_=2

(xnx)2=2Ns2x. (5.2)Ademas, ambos estimadores tienen una covarianza igual aCov_a,b x_=2

xnN

(xnx)2= 2 xNs2x(5.3)Ejemplo37. [continuaciondepreciodelasviviendas:]Podemos calcular la inversa de x

x:(x

x)1=_9.1293e 01 4.4036e 044.4036e 04 2.3044e 07_;as pues, las desviaciones tpicas de a| xyb| xson (vease 5.2)Dt(a [ x) =_2 (9.1293e 01) =2x2Ns2xDt_b x_=_2 (2.3044e 07) =2Ns2x.Pero no conocemos2Un.Continuacion del ejemplo precio de las viviendas en la pagina 40Practica 38. Observe los resultados de las estimaciones del ejemplo del precio de las viviendas. Que es-timacioncreequeesmasable, ladelapendienteoladelaconstante?Conlosdatosdel ejemplodelprecio de las viviendas, repita la regresion pero con las siguientes modicaciones:1. con todos los datos excepto los de la ultima vivienda2. con todos los datos excepto los de las ultimas dos viviendas3. con todos los datos excepto los de la primera y la ultima viviendasSeccion5:PropiedadesestadsticasdelosestimadoresMCO 35Conrman los resultados de estas regresiones su respuesta a la primera pregunta?ejemplo del precio de las viviendas en GNU GretlNota10. Sea a[mN], entonces, aplicando la denicion de la Nota 2Var(aY) =E_aY Y

a

_E(aY) E_Y

a

_=a_E_Y Y

_E(Y) E_Y

_a

sacando factores comunes=aVar(Y) a

Nota11. Sean q[nN]y r[mN]matrices, yv yw vectores de ordenn ym respectivamente. EntoncesE(qU+v) = E(qU) + E(v) = qE(U) +v,yVar(qU+v) = Var(qU) = qVar(U) q

,ademasCov(qU+v, rU+w) = Cov(qU, rU) = qCov(U, U) r

= qVar(U) r

Nota 12. Sean Q[nN]= f(X) y R[mN]= g(X) matrices, y v y w vectores de orden n y m respectivamente;sea ademas X = x, por lo que q = f(x) y r = g(x). EntoncesE( QU+v [ x) = E( qU[ x) + E( v [ x) = qE( U[ x) +v,yVar( QU+v [ x) = Var( qU[ x) = qVar( U[ x) q

;ademasCov( QU+v, RU+w[ x) = Cov( qU, rU[ x) = qVar( U[ x) r

Ejercicio39.Denotemos(X

X)1X

por A[kN]. Sabiendoque = +AU, calculedenuevolaex-presion de Var_ x_ empleando las propiedades de la esperanza y la varianza de vectores de las notasanteriores. Ecienciadel estimadorMCO bx: TadeGauss-Markov 28Con los supuestos 1 a 4,| xeciente entre estimadores lineales e insesgadoses decir, para cualquier estimador lineal insesgado | xVar_ x_ Var_ x_en sentido matricialaEntonces se dice ELIO (BLUE en ingles).aLamatrizhVar exVar bxiesdenidapositivaDe hecho el Taarriba mencionado implica queVar_

j x_ Var_ j x_para j = 1, . . . , k.es decir, la relacion es cierta para cada uno de los estimadores de cada uno de los parametros individuales.Teorema5.1(Gauss-Markov). Sea | xel estimador MCOde , ysea | xotroestimador lineal einsesgadode;entoncesbajolossupuestos1a4,paracualquier v[k1]severicaqueVar_v

x_ Var_v

x_Seccion5:PropiedadesestadsticasdelosestimadoresMCO 36Demostracion. Puesto que | x = f Yes un estimador insesgado, E_ x_= f E( Y [ x) = f x = . Portantolainsesgadezimplicanecesariamentequefx=I .Seag=a+f ,dondea=(x

x)1x

;entoncesgx = 0 (y por tanto g a

= 0[kk]y, trasponiendo, ag

= 0

[kk]). Puesto que Var( Y [ x) = Var( U[ x) = 2Ise deduce que:Var_ x_= f Var( Y [ x) f

= 2_a+g _a

+g

= 2_aa

+ag

+g a

+g g

= 2(x

x)1. .Var(cj [ x)+2g g

,donde g g

es semi-denida positiva.Por tanto, para cualquier vectorv de ordenkVar_v

x_=v

Var_ x_v

=Var_v

x_+2v

g g

v;que implicaVar_v

x_ Var_v

x_.Ejercicio40. Enparticularqueimplicael TeoremadeGauss-Markovparael casoparticulardeunvectorv =_0 . . . 0 1 0 . . . 0; es decir, con un 1 en la posicionj-esima y ceros en el resto?5.3. Momentosdelosvaloresajustados y| xydeloserrores e| xRecuerde las deniciones que aparecen al nal de la Subseccion en la pagina25; y resuelva el siguienteejercicio:Ejercicio41. Denotemos x (x

x)1x

por p.Notese quep x (x

x)1x

= xa.Veriquequepx=x. Demuestreademasquep

=pyquepp=p; esdecir, quepessimetricaeidempotente. PrimerosmomentosdelosvaloresajustadosporMCO 29Denotemos x (x

x)1x

por p, entonces y| x = x | x =x_ +(x

x)1x

U=x +x(x

x)1x

U = x +pU T47as pues:E( y [ x) = x por el Supuesto 2 T7Var( y [ x) =pVar( U[ x) p

=2pp

= 2p por el Supuesto 3 T9Donde hemos empleado los resultados de la Nota 11 en la pagina anterior.Notese que la matriz de varianzas y covarianzas es (en general) una matriz llena (al contrario que lamatriz identidad) por tanto los valores ajustados son autocorrelados y heterocedasticos.Ejercicio42. Denotemos I x(x

x)1x

por m.Notese quem I x(x

x)1x

= I p = I xa.Seccion6:DistribuciondelosestimadoresMCObajolahipotesisdeNormalidad 37Verique que mx = 0, y que am = 0. Demuestre ademas que m = m

y que mm = m; es decir, que mes simetrica e idempotente. PrimerosmomentosdeloserroresMCO 30Denotemos I x(x

x)1x

por m, entonces e| x = Y| x y| x =_x +Ux_ +(x

x)1x

U=_I x(x

x)1x

U = mU T47por tanto,E( e [ x) = 0 por el Supuesto 2 T7yVar( e [ x) =mVar( U[ x) m

=2mm

= 2m por Supuesto 3 T9Notese que la matriz de varianzas y covarianzas es (en general) una matriz llena (al contrario que lamatriz identidad) por tanto los valores ajustados son autocorrelados y heterocedasticos.Ejercicio43. Demuestre que el estimador de la suma residual es

SRC| x = U

mU.6. DistribuciondelosestimadoresMCObajolahipotesisdeNormalidadSecciones 4.1 y 4.2 de Wooldridge (2006)Apendice E3 de Wooldridge (2006)Nota13. Distribucion conjunta normal implica1. distribucion queda completamente determinada por el vector de esperanzas y la matriz de varianzasy covarianzas (lo que ya hemos calculado).2. Correlacion cero implica independencia3. Cualquier transformacion lineal tambien es conjuntamente normal6.1. QuintosupuestodelModeloClasicodeRegresionLineal Supuesto5: DistribucionNormal delasperturbaciones 31Para conocer la distribucion completa necesitamos un supuesto mas sobre la distribucion conjunta de U:U| x N_0,2I_ Y| x N_x ,2I_donde I es la matriz identidad.Puesto que| x = +(x

x)1x

U = +AUes funcion lineal deU, entonces | xtiene distribucion normal multivariante.| x N_ ,2(x

x)1_| x N_ ,2(x

x)1_ es decir (y si el modelo tiene termino constante)____________12...k____________| x N______________________12...k___________, 2___________1

1 1

x

2 1

x

kx

2

1 x

2

x

2 x

2

x

k............x

k

1 x

k

x

2 x

k

x

k___________1___________Seccion6:DistribuciondelosestimadoresMCObajolahipotesisdeNormalidad 38 Distribuci ondel estimadorMCO b| x32As pues,j| x N_j ,2_(x

x)1jj_donde _(x

x)1jjes el elemento (j, j) de la matriz (x

x)1.yj| xjDt_ j x_ N(0 , 1)(apartirdeahoratambiendenotaremoslosestadsticoscondicionados, i.e., b| xo b e| xsencillamentecomo byb e)Modelo2. [ModeloLineal Simple.]Delatransparenciaanterioryde5.2enlapagina34podemosarmar que bajo todos los supuestos del MLSa| x N_a ,2x2Ns2x_yb| x N_b ,2Ns2x_. (6.1) Distribuci ondelosestimadoresdevaloresajustadosyresiduos 33AmbosestimadoressontransformacioneslinealesdeU N;yvistossusprimerosmomentos T29 yT30 : y| x N_x, 2p_pues y| x = x +pU e| x N_0, 2m_pues e| x = mUdonde p = x(x

x)1x

; y m = I x(x

x)1x

6.2. EstimaciondelavarianzaresidualylamatrizdecovarianzasNota14. Llamamos traza a la suma de los elementos de la diagonal de una matriz.El operador traza es un operador lineal con la siguiente propiedad: Sean a y b dos matrices cuadradas,entoncestraza (ab) = traza (ba)Proposicion6.1. traza (m) = N k;Demostracion.traza (m) =traza_I[NN] p[NN]_puesto que m I p=traza (I) traza (p) puesto que traza es lineal=N traza (p)ytraza (p) =traza_x(x

x)1x

_puesto que p x(x

x)1x

= xa=traza_(x

x)1x

x_puesto quetraza (xa) = traza (ax)=traza_I[kk]_= kPor tanto traza (m) = N k.Proposicion6.2. E_ e

ex_= (N k)2Seccion6:DistribuciondelosestimadoresMCObajolahipotesisdeNormalidad 39Demostracion. En T30 vimos que e| x = mU; por tantoE_ e

ex_=E_U

m

mUx_= E_U

mUx_por ser midempotente=N

i=1N

j=1mijE( UiUj[ x) pues el operador esperanza es lineal=N

i=1mii2por el supuesto 3 T9=2traza (m) = 2(N k) por la Nota 14 (Pag. 38) y Proposicion 6.1Por tanto, s2b e b e

b eNkes un estimador insesgado de 2. Consecuentemente emplearemos como estimadorde la matriz de varianzas y covarianzas la expresion (6.2) de mas abajo. Estimaciondelavarianzaresidual 34El parametro2es desconocido T9La cuasivarianza de es2b e e

eN kes un estimador insesgado de2puesto queE_s2b e x_= E_ e

eN kx_=2(N k)N k= 2Estimador de la matriz de varianzas y covarianzas de | xVar_| x_= s2b e(x

x)1(6.2)Proposicion6.3. Si una matriz cuadrada q es idempotente entonces rango (q) = traza (q) .Demostracion. (Demostracion en Rao, 2002, pp. 28)Proposicion6.4. Seael vector Z N(0, I) , yseaqunamatrizsimetricaeidempotente, entoncesZ

qZ 2(rango(q)).Demostracion. (Demostracion en Mittelhammer, 1996, pp. 329) Distribuci oncuandolavarianzadeUesdesconocida 35j j_2_(x

x)1_jj N(0 , 1)sustituyendo2por su estimador, s2b e, tenemos el estadstico T del parametro j -esimo:j j_s2b e_(x

x)1_jj=j j__Var___jj Tj tNk(6.3)Proposicion6.5.Nk2s2b e= b e

b e2 2(Nk)Seccion6:DistribuciondelosestimadoresMCObajolahipotesisdeNormalidad 40Demostracion.N k2s2b e=N k2 e

eN k= e

e2=1 e

e1=1U

m

mU1ya que e = mU=1U

mU1 2(Nk)puesto que m es idempotente,U| x N_0,2I_, por las proposiciones 6.3 y 6.4 en la pagina anteriory la Proposicion 6.1 en la pagina38.Ejercicio44. Teniendo en cuenta que si una v.a.X 2Nkentonces E(X) = N k y Var(X) =2(N k), y puesto que s2b ees una variable aleatoria2Nkmultiplicada por2Nk; calcule la esperanza yla varianza de s2b eProposicion6.6. Las variables aleatorias _ _| xy e| xson independientes.Demostracion. Puestoque _ _| x=aU y e| x=mU, ambasvariablessontransformacioneslinealesdeU,yportantoambastienendistribucionconjuntanormalcondicionadaax(Nota13enlapagina37)Basta, por tanto, demostrar que ambas variables tienen covarianza nulaCov( aU, mU[ x) = aVar( U[ x) m

por el supuesto 2 y la Nota 12 (Pagina 35)= a2I m

por el supuesto 3= 2am = 20 = 0Nota15. Si dos variables aleatoriasX eY son independientes, entonces transformaciones de ellas,h(X)yg(Y), tambien son independientes.Proposicion6.7. El estadstico Tjdedistribuyecomounat conN kgradosdelibertad, esdecir,Tj tNnDemostracion.j j_s2b e_(x

x)1_jj=j j_2_(x

x)1_jj

_2s2b e=Z_cs2b e2=Z_b e

b e/2Nkdonde la parte de numerador es funcion de _ _| xy la del denominador es funcion de e| x. As pues,por la Nota 15 y la Proposicion 6.6 el numerador y el denominador son independientes.Ademas, en numerador tiene distribucion N(0 , 1). Por tanto tenemos una N(0 , 1) dividida por la razcuadrada de un2dividida por sus grados de libertad; este cociente tiene distribucion t de Student conN k grados de libertad.Ejemplo45. [continuaciondepreciodelasviviendas:]La inversa de x

x es:(x

x)1=_9.1293e 01 4.4036e 044.4036e 04 2.3044e 07_;as pues, las desviaciones tpicas de aybson (vease 5.2 en la pagina34)Dt(a) =_2 (9.1293e 01) =2

x2nN

(xnx)2Dt_b_=_2 (2.3044e 07) =2

(xnx)2.Seccion6:DistribuciondelosestimadoresMCObajolahipotesisdeNormalidad 41No conocemos2Un; pero podemos sustituirla por la la cuasi-varianza:Dt(a) =_(1522.8)(9.1293e 01) =(1522.8)

x2nN

(xnx)2= 37.285;Dt_b_=_(1522.8)(2.3044e 07) =(1522.8)

(xnx)2= 0.01873puesto que s2b e= b e

b eNn=18273.6142= 1522.8.Vease los resultados de estimacion en el ejemplo del precio de las viviendas (pagina 17).Por otra parte, Cov_a,b_= (1522.8) (4.4036e 04) =cs2b ePxnNP(xnx)2= 0.671(vease 5.3 en la pagina34).6.3. CotamnimadeCramer-Rao MatrizdeInformaci on 36Funcion de verosimilitud(; y, x) = (22)n2exp_122 (y x)

(y x)_= f (y, x; ) ;donde =_2_Matriz de Informacion paraI() = E_2ln (; Y, X)

x_ CotamnimadeCramer-Rao 37I() =_x

x200 N24_Cota mnima es la inversa de la Matriz de InformacionI()1=_2(x

x)100 24N_Matriz de varianzas y covarianzas de los estimadores MCOb| x,cs2b e=_2(x

x)100 24Nk_I() =E____x

x2_x

Y x

x4_x

Y x

x

4N24 16_Y x

_Y x__x__=_x

x200 N24_1. Lamatrizdevarianzasycovarianzasb| xalcanzalacotamnimadeCramer-Rao.Esdecireselestimador insesgado de mnima varianza (resultado mas fuerte que Tade Gauss-Markov)2. Lavarianzadel estimador s2b enoalcanzalacotamnimadeCramer-Rao. Noobstante, noexistening un estimador insesgadode2con varianza menor a24N.Seccion7:Estimacionporm aximaverosimilitud 42Ejercicio46. Revise el ejercicio numerico no1 del profesor Jose Alberto Mauriciohttp://www.ucm.es/info/ecocuan/jam/ectr1/index.html#Material.Ejercicio47. Resuelva el ejercicio propuesto no1 del profesor Jose Alberto Mauricio.http://www.ucm.es/info/ecocuan/jam/ectr1/index.html#Material.Para los ejercicios practicos con ordenador le puede ser utilEl programa gratuito GRETL. (http://gretl.sourceforge.net/gretl_espanol.html)Tiene documentacion en castellanoGua del usuarioGua de instruccionesTambien puede obtener los datos del libro de texto (Wooldridge, 2006) desde http://gretl.sourceforge.net/gretl_data.htmlla guia de Eviews del profesor Jose Alberto Mauricio (material extenso)(http://www.ucm.es/info/ecocuan/jam/ectr1/Ectr1-JAM-IntroEViews.pdf).Ejercicio48. AnscombeGNU Gretl: ejemplo AnscombeEjercicio49. Replique con el ordenador la practica con ordenador propuesta por el profesor Miguel Jerezhttp://www.ucm.es/info/ecocuan/mjm/ectr1mj/.GNU Gretl MLG peso bbs7. Estimacionpormaximaverosimilitud funci ondeverosimilitudvsfunci ondedensidad 38Los supuestos 1, 2, 3 y 5, implican queY[ x N_x , 2I[NN]_por tanto, la funcion de densidad deYdado x esf (y [ x) = (22)n/2exp_122 (y x)

(y x)_donde los parametros _, 2_ son desconocidos. Estimaci onporMaximaVerosimilitud 39Sustituyendoel vectordesconocido _, 2_porunhipotetico _ , 2_ytomandologsaobtenemosfuncion de verosimilitud logartmicaln (, 2) = n2 ln(2) n2 ln( 2) 12 2(y x)

(y x)Maximizandomaxe,e 2ln (, 2)obtenemos estimaciones maximo verosmilesde _, 2_.atransformacionmon otonaSeccion8:Ejercicios 43 EstimacionporMaximaVerosimilitud: derivacion 40Cond. primer orden en maximizacion: ln (, 2)

= 0 =12e 2e

(y x)

(y x) = 0

MV= (x

x)1x

y ln (, 2) 2= 0 =n2e 2+12e 4(y x)

(y x) = 0 2MV= b e

b eN= s2b e=NkNs2b ePor tanto:la estimacion de coincide con el MCOla estimacion de2es sesgadaEjercicio50.(a) Calcule la esperanza de 2MV . Es un estimador insesgado de2?(b) Calcule la varianza de 2MV(c) Compare su resultado con la cota mnima de Cramer-Rao. Pero es aplicable esta cota a este estimador?8. EjerciciosEjercicio51. Demuestre que en el modelo de regresion simple Yn = a+bXn+Un el supuesto E( Un[ x) = 0implica E( Yn[ x) = a +bXn; donde los regresores son no-estocasticos, yUes la perturbacion aleatoria delmodelo.Ejercicio52.(Constade5apartados)Sean los siguientes datos:Empresa yixixiyix2iA 1 1 1 1B 3 2 6 4C 4 4 16 16D 6 4 24 16E 8 5 40 25F 9 7 63 49G 11 8 88 64H 14 9 126 81sumas 56 40 364 256Cuadro4:dondey son benecios, yx son gastos en formacion de personal de una empresa.Ademas se sabe que las varianzas y covarianzas muestrales son tales que:Ns2y = (yiy)2= 132,Ns2x = (xix)2= 56,Nsxy = (xix)(yiy) = 84,dondeNes el tama no muestral.Seccion9:Bibliografa 44Suponga que se plantea el siguiente modeloYi = a +bxi +Ui,dondeUison otros factores que afectan a los benecios distintos de sus gastos en formacion (el terminode error). Se sabe que la distribucion conjunta de dichos factores es:U N(0, 2I),donde I es una matriz identidad de orden 8, y2es la varianza deUi, cuyo valor es desconocido.(a) Estime por MCO los parametrosa yb del modelo.(b) Cual es el benecio esperado para una empresa que incurriera en unos gastos de formacion de personalde 3?(c) Calculelos residuos delaempresaEyF. Queindicaenestecasoel signodelos residuos?Lacomparacion de los residuos para estas empresas contradice el hecho de que F tiene mayores beneciosque E? Justique su respuesta.(Los siguientes apartados solo tras haber estudiado el tema siguiente)(d) Estime por MCO un intervalo de conanza del 95 % para el parametrob del modelo, sabiendo que lasuma de los residuos al cuadrado es 6.(e) Contraste la hipotesis de que la pendiente del modelo es uno frente a que es menor que uno conun nivel de signicacion del 10 %. Cu al es el p-valor de la estimacion de dicha pendiente?9. BibliografaGujarati, D. N. (2003). Basic Econometrics. McGraw-Hill, cuarta ed. ISBN 0-07-112342-3. Internationaledition. 26, 33Hayashi, F. (2000). Econometrics. Princeton University Press, Princeton, New Jersey. ISBN 0-691-01018-8.2, 3Johnston, J. y Dinardo, J. (2001). MetodosdeEconometra. Vicens Vives, Barcelona, Espa na, primeraed. ISBN 84-316-6116-x. 25, 26Luenberger, D. G. (1968). Optimizationbyvectorspacemethods. Seriesindecisionandcontrol. JohnWiley & Sons, Inc., New York. 3Mittelhammer, R. C. (1996). Mathematical Statistics for Economics and Business. Springer-Verlag, NewYork, primera ed. ISBN 0-387-94587-3. 39Novales, A. (1993). Econometra. McGraw-Hill, segunda ed. 2, 12, 25, 26Novales, A. (1997). EstadsticayEconometra. McGraw-Hill, Madrid, primera ed. ISBN 84-481-0798-5.33Pe na, D. (2002). Regresion y dise no de experimentos. Alianza Editorial, Madrid. ISBN 84-206-8695-6. 25Ramanathan, R. (1998). IntroductoryEconometricswithApplications. Harcourt College Publisher, Or-lando. 6, 16, 30Rao, C. R. (2002). LinearStatistical InferenceandItsApplications. Wileyseriesinprobabilityandstatistics. John Wiley & Sons, Inc., New York, segunda ed. ISBN 0-471-21875-8. 39Spanos, A. (1999).Probability Theory and Statistical Inference. Econometric Modeling with ObservationalData. Cambridge University Press, Cambridge, UK. ISBN 0-521-42408-9. 3Verbeek, M. (2004). A Guide to Modern Econometrics. John Wiley & Sons, Inc., segunda ed. 2Wooldridge, J. M. (2006). Introducci on a la econometra. Un enfoque moderno. Thomson Learning, Inc.,segunda ed. 2, 3, 5, 12, 21, 25, 26, 32, 37, 4210. TrasparenciasListadeTrasparencias1 [Descomposici onortogonalycausalidad]2 [Modeloderegresion]3 [Tiposdedatos]4 [ModeloCl asicodeRegresionLineal]5 [Supuesto1:linealidad]6 [Supuesto1:linealidad]7 [Supuesto2:EsperanzacondicionaldeUEstrictaexogeneidad]8 [Supuesto2:EsperanzacondicionaldeUEstrictaexogeneidad]Seccion10:Trasparencias 459 [Supuesto3:Perturbacionesesfericas]10 [Supuestos2y3:Implicaci onconjunta]11 [Terminodeerror]12 [Mnimoscuadradosordinarios:Ecuacionesnormales]13 [Supuesto4:Independencialinealdelosregresores]14 [Modelo1:Novblesexplicativas]15 [Modelo2:ModeloLinealSimple]16 [Modelo2:ModeloLinealSimple]17 [Modelo2:ModeloLinealSimple]18 [EstimacionMCO:Interpretaci ongraca]19 [ModeloLinealGeneral]20 [Mnimoscuadradosordinarios:Propiedadesalgebraicas]21 [Mnimoscuadradosordinarios:Maspropiedadesalgebraicas]22 [Sumasdecuadrados]23 [Medidasdeajuste:CoecientededeterminacionR2]24 [Otrasmedidasdeajuste]25 [EstimadorMCO b| x]26 [EsperanzadelestimadorMCO b| x]27 [VarianzadelestimadorMCO b| x]28 [EcienciadelestimadorMCO bx:TadeGauss-Markov]29 [PrimerosmomentosdelosvaloresajustadosporMCO]30 [PrimerosmomentosdeloserroresMCO]31 [Supuesto5:DistribucionNormaldelasperturbaciones]32 [DistribuciondelestimadorMCO b| x]33 [Distribuciondelosestimadoresdevaloresajustadosyresiduos]34 [Estimaciondelavarianzaresidual]35 [DistribucioncuandolavarianzadeUesdesconocida]36 [MatrizdeInformacion]37 [CotamnimadeCramer-Rao]38 [funciondeverosimilitudvsfunciondedensidad]39 [EstimacionporM aximaVerosimilitud]40 [EstimacionporM aximaVerosimilitud:derivacion]41 [GeometradelModelolineal]42 [Supuesto2:Regresoresnoestocasticos]43 [GeometradelModelolineal:regresoresnoestocasticos]44 [Estimaciondelaesperanzacondicional:MCO]45 [Estimacionmodelolineal:geometraMCO]46 [Modelolinealestimado:geometraMCO]47 [Geometradelestimador]48 [Mnimoscuadradosordinarios:Ecuacionesnormales(Tradicional)]SeccionA:Geometradelmodeloclasicoderegresionlineal 46A. Geometradelmodeloclasicoderegresionlineal Geometradel Modelolineal 41X =_1, X

2; =_ab_; Y = X +UVision en 3D interactiva Supuesto2: Regresoresnoestocasticos 42Suponemos que realmente disponemos de una unica realizacion de Xque denotamos por x.Es decir, condicionamos a queX = xBajo este supuesto, se mantiene queE(xijUn) = 0 para n, i = 1, . . . , N; y j = 1, . . . , k.Esto signica que, como en el caso general, los regresores son ortogonales a los terminos de perturbacionde todas las observacionesE(xijUn) = xijE(Un) = 0 para todo i, n = 1, . . . , N; y j = 1, . . . , k.por lo queE(xiUn) = xi E(Un) = xi 0 = 0[1k]para todo i, n = 1, . . . , N.Y la correlacion entre los regresores y las perturbaciones es cero, ya queCov(Un, xij) =E(xijUn) E(xij) E(Un)=xijE(Un) xijE(Un) = 0es decir, regresores no estocasticos en un caso particular del caso general: Supuesto 2 T7 (vease tambienla Seccion en la pagina12, Pagina 12)SeccionA:Geometradelmodeloclasicoderegresionlineal 47 Geometradel Modelolineal: regresoresnoestocasticos 43x =_1, x

2; =_ab_; Y = x +UVision en 3D interactivaA.1. GeometradelestimadorMCO Estimaciondelaesperanzacondicional: MCO 44Tenemos realizaciones deYy X; es decir, disponemos dey =_____y1y2...yN_____x =_____1 x11 x2......1 xN_____y buscamos =_ab_ tales quey = x +ey e sea peque no. Estimacionmodelolineal: geometraMCO 451yX2ea 1 y = XbX2x =_1, x

2; =_ ab_; y = y + e; y = x; e = y ySeccionB:DerivaciontradicionaldelasEcuacionesNormales 48 Modelolineal estimado: geometraMCO 46 a 11yX2bX2e y = Xx =_1, x

2; =_ ab_; y = y + e; y = x; e = y y Geometradel estimador 47Vision en 3D interactivaB. DerivaciontradicionaldelasEcuacionesNormales Mnimoscuadradosordinarios: Ecuacionesnormales(Tradicional) 48SRC() = y

y 2

x

y +

x

x Buscamos un vector que minimiceSRCmnbSRC()SRC() = 0; 2 x

y +2 x

x = 0con lo que obtenemos las ecuaciones normalesx

y = x

x (B.1)Estimacion MCO es la solucion a dichas ecuacionesSeccionC:CasoGeneral 49SRC() =(y x)

(y x)=_y

x

_(y x) puesto que (x)

=

x

=y

y

x

y y

x +

x

x=y

y 2y

x +

x

x ya que el escalar

x

y es igual a su traspuesta y

x (por ser escalar)Renombremos algunos terminos. . . por una parte denimosa y

x y por otra c x

x, entoncesSRC() = y

y 2 a +

c .Puesto quey

yno depende de la diferencial deSRC() respecto de esSRC() =2 a+2 c por las propiedades de derivacion matricial=2 x

y +2 x

x sustituyendo ayc;que igualando a cero nos da2 x

y +2 x

x = 0 x

x = x

yLas condiciones de segundo orden son:SRC()

= 2 x

x que es una matriz denida positiva.C. CasoGeneralSeanYn, yXn _Xn2, . . . , Xnk con matriz de varianzas y covarianzasVar__Yn, Xn_=_2YnYnXnXnYnXn_entonces siempre podemos encontrar unos parametros1y =_2, . . . , k, tales queYn = 1 +Xn +Undonde E(Un