Post on 24-Jun-2015
description
1
Tema 3Primera parte
El Modelo Lineal General: Especificación y estimación
Monia Ben Kaabia
2
1) ESPECIFICACIÓN E INTERPRETACIÓN DEL MLG
2) HIPÓTESIS DEL MODELO.
3) RECTA DE REGRESIÓN MUESTRAL Y POBLACIONAL
4) ESTIMACIÓN POR MCO DE LOS PARÁMETROS DE POSICIÓN.
5) PROPIEDADES DE LOS ESTIMADORES MCO DE LOS PARÁMETROS DE POSICIÓN.
6) PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO
7) ESTIMACIÓN MCO DEL PARÁMETRO DE DISPERSIÓN. PROPIEDADES.
8) ESTIMACIÓN DE MÁXIMA VEROSIMILITUD DE LOS PARÁMETROS.
9) BONDAD DE AJUSTE DEL MODELO
10) FORMA FUNCIONAL Y CAMBIO DE ESCALA
INDICE
3
Especificación del Modelo Lineal General (MLG)
Con el MLG se pretende cuantificar una supuesta relación estocástica lineal unidireccional entre una variable Y (Variable endógena o dependiente) y K≥1 variables X1, X2, ,...,Xk(variables explicativas)
Para ello es necesario disponer de una colección de datos o muestra de T observaciones
211
2221212
1211111
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
kTTTT
k
k
xxxy
xxxyxxxy
LMMMM
LL
1- ESPECIFICACIÓN DEL MLG
4
1- ESPECIFICACIÓN DEL MLGEl MLG con (k) variables explicativas y dada una muestra de T observación de cada una de las variables, tiene la siguiente especificación:
T1,2,..,i 2211 =++++= ikikiii uXXXY βββ K
La terminología del MLG es:• Yi: observación i-ésima de la variable endógena o dependientes• X1i, X2i,...,Xki: observaciones i-ésimas de las k variables explicativas o exógenas• ui: i-ésimo valor del término del error o perturbación aleatoria (no observable)• β1, β2, ..., βk, son los parámetros de posición (desconocidos, a estimar)
Por tanto el MLG define una relación:-Lineal entre una variable endógena y k variables explicativas-Estocástica, ya que admite errores de ajuste-Útil para inferir los valores Yi, conociendo los valores de Xji (j=1,2,..,k)
5
1- ESPECIFICACIÓN DEL MLGEl MLG tiene término constante cuando X1i=1 para todo i=1,...,T. En este caso, El MLG con (k-1) variables explicativas y una constante tiene la siguiente especificación:
T1,2,..,i 221 =++++= ikikii uXXY βββ K
β1 es el término constante y β2, β3,...,βk las pendientes del modelo
Muy importante: El MLG es Lineal porque los parámetros que figuran en su lado derecho lo hacen de forma lineal ( a lo sumo,están multiplicados por un término que no depende de ningún parámetro del modelo)
6
1- ESPECIFICACIÓN DEL MLG
• Ejemplos:- Análisis de los determinantes de las ventas anuales de una empresa
tttt uecioGpubventas +++= Pr321 βββ• Venta son las ventas anuales de la empresa en miles de euros
• Gpub son los gatos anuales en publicidad realizados por la empresa en miles de euros
• Precio es el precio de ventas del productos en euros por unidad
- Análisis de los determinantes de los salarios de los trabajadores
iiii uExpEduSalario +++= 321 βββ• Salario del individuo en euros por hora
• Edu es su nivel de educación en años
• Exp es el número de años que lleva trabajando
7
Especificación: representación matricial del MLG
-La información asociada a la variable endógene se almacena en un vector columna Y de tamaño Tx1)
-La información (datos) asociada a las variables explicativas se recoge en una matriz X de tamaño (Txk)
-Las perturbaciones en un vector U de tamaño (Tx1) y los parámetros en un vector B de tamaño (kx1)
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
=
Ty
yy
YM2
1
1
11
2
222
121
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
kTT
k
k
xx
xxxx
K
MOMM
L
L
U 2
1
2
1
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
=
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
=
Tk u
uu
MM
β
ββ
β
1- ESPECIFICACIÓN DEL MLG
8
1- Especificación: Representación Matricial del MLG
UXY += β
1T 1k k T 1T
2
1
2
1
21
22212
12111
2
1
××××
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
+
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
=
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
=
TkkTTT
k
k
T u
uu
xxx
xxxxxx
y
yy
YMM
K
MOMM
L
L
M
β
ββ
(Observaciones Vble. Endógena)
Observaciones en periodo t=1 de todas las variables
Observaciones variable x1
XObservaciones Vbles. Exp.
Parámetros Perturbaciones
9
1- Especificación: MLG con término constante
UXY += β
Y = X β + U
1T1kk T1T1
11
2
1
2
1
2
222
121
2
1
××××
⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜
⎝
⎛
+⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜
⎝
⎛
⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜
⎝
⎛
=⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜
⎝
⎛
TkkTT
k
k
T u
uu
xx
xxxx
y
yy
MMK
MOMMLL
Mβ
ββ
(Observaciones Vble. Endógena)
Observaciones en periodo t=1 de todas las variables
Observaciones variable x1=1 para i=1,...,T
10
1- Especificación: MLG con término constante
obs ventas publicidad precio1 120 8 1002 115 9 1023 130 10 954 142 14 905 148 12 926 144 16 947 165 20 888 160 22 869 175 26 90
10 180 24 86
Ejemplo: ventas de una empresa de aspiradores
tttt uecioGpubventas +++= Pr321 βββTabla de datos para la estimación del modelo
T=1,2,...,10
Especificación en forma matricial
⎟⎟⎟⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜⎜⎜⎜
⎝
⎛
=
180175160165144148142130115120
VENTAS
⎟⎟⎟⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜⎜⎜⎜
⎝
⎛
=
8624190261862218820194161921219014195101
1029110081
X
UXVENTAS += β
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛=
3
2
1
βββ
β
11
1.2- Interpretación gráfica del MLG: Gráfico de nube de puntos
iii uxy ++= 121 ββ i=1,2,..,T
*
* *
*
* *
*
* *
* *
**
*
xi
yi
Pdte = β2
Ord. Origen*
ui
β1
Interpretación de β1
-Gráfica: Ordenada en el origen
Interpretación de β2
- Gráfica: pendiente de la recta de regresión
- Económica: Efecto parcial
- Matemática: Derivada parcial
1- Especificación y interpretación del MLG
12
1-2) Interpretación Económica y matemática del del MLG
Cuando las variables explicativas son continuas (Cuantitativas), los parámetros del MLG pueden interpretarse como:
Matemáticamente: derivadas (parciales) de la variable endógena con respecto a las variables explicativas.
Económicamente: Efecto parcial de las variables explicativas sobre la endógena
iii uxy ++= 110 ββ
i
i
i
i
XY
dxdy
111 Δ
Δ==β
β1 representa la variación absoluta en la variable endógena ante una variación de 1 unidad en la variable X1
13
1.2) Interpretación Económica y matemática del del MLG
Importante. Cuando en el MLG hay mas de una variables explicativas, en la interpretación de los parámetros hay que añadir la coletilla ceteris paribus .
T1,2,..,i 221 =+β++β+β= ikikii uXXY K
βi representa la variación absoluta de la endógena (y) debido a una variación en una unidad de la explicativa (xi), suponiendo que los demás factores en (2) se mantienen constantes.
14
β0: es la constante o el término independiente
β1:mide el cambio absoluto en Y ante un cambio en una unidad en la variable X1, manteniendo X2 constante (efecto ceteris paribus):
β2: mide el cambio en Y ante un cambio en una unidad en la variable X2, manteniendo X1 constante (efecto ceteris paribus)
iiii uxxy +++= 22110 βββ
uxxy Δ+Δ+Δ=Δ 2211 ββ
02 =Δx 11 xy Δ=Δ β
01 =Δx 22 xy Δ=Δ β
1-2) Interpretación Económica y matemática del del MLG
15
Ejemplos del MLG:
iiii uExpLEducSal +β+β+β= 210
β1: mide el efecto ceteris paribus del nivel de educación en el salario percibido. Es decir, representa la variación absoluta en el salario de cualquier trabajador debido a un año adicional de educación, suponiendo que los demás factores se mantienen constantes
β2: mide el efecto ceteris paribus de los años de experiencia en el salario, es decir, representa la variación absoluta en el salario de cualquier trabajador debido a un año adicional de experiencia, suponiendo que los demás factores se mantienen constantes
1-2) Interpretación Económica del del MLG
16
2- Hipótesis del MLG
La especificación completa del MLG no incluye solamente la forma de la relación entre Y y las k variables explicativas;
Sino también la especificación de la distribución de probabilidad de la perturbación así como de la forma en que se han generado los valores de las explicativas
Hace falta establecer una serie de hipótesis básica sobre la parte aleatoria y la parte sistemática del
modelo
17
2- Hipótesis del modelo • Supuesto 1: Muestreo aleatorio:
{(yi, xi1, x2i,…xki); i=1, …, T} muestra aleatoria del modelo poblacional de tamaño T
• Supuesto 2: Ausencia de error de especificación- Lineal- No se omiten variables relevantes- No se incluyen variables irrelevantes
• Supuesto 3: Hipótesis de linealidad en los parámetros. Establece la linealidad en los parámetros en la relación entre la variable endógena y las explicativas. Es decir, en la función de consumo tendremos:
ttt uRC ++= 21 ββ18
2- Hipótesis del modelo • Supuesto 4: Grados de libertad suficientes:Tenemos mucho
mas observaciones en la muestra que parámetros a estimar. Es decir, T-k>0.
• Supuesto 5: Hipótesis de parámetros constantes. Esta hipótesis supone que los parámetros β1, β2, …,βk son constantes en el tiempo
• Supuesto 6. Las variables explicativas son linealmente independientes
Ausencia de multicolinealidad exacta
1)(0||)()(
−′∃⇒
≠′⇒=′⇒=
XXXXkXXrkXr
19
Supuesto 7. Regresores no estocaticos. Esta hipótesis implica que los datos de las variables explicativas son fijos en muestras repetitivas. Es decir:la parte sistemática y aleatoria son independientes:
Cov(X,u)=0Supuesto 8: Hipótesis de convergencia
2- Hipótesis del modelo
xxT TXX
Σ=′
∞→lim Una matriz de constantes
20
2- Hipótesis del modelo Hipótesis referentes a las perturbaciones aleatorias
• Supuesto 9. Esperance cero de las perturbaciones aleatorias: no hay error sistemático
E(U)=0⇒ E(ui)=0 i
T
TT
T
uE
uEuE
u
uu
EUE 0
0
00
)(
)()(
)( 2
1
2
1
1 =
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
=
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
=
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
=×MMM
21
2- Hipótesis del modelo
Supuesto 10: Varianza de las perturbaciones aleatorias es constante a lo largo de la muestra: homoscedasticidad:
i )()var( 22 ∀== σii uEuSupuesto 11: Covarianzas nulas entre un par de perturbaciones aleatorias distintas: Ausencia de autocorrelación en todo instante de tiempo
ji 0)(),cov( ≠∀== jiji uuEuu
22
..
xix1=80 x2=100
y if(yi)
Las varianzas de ui en dos niveles distintos de renta familiar, xi , son identicas.
gasto
Caso Homoscedastico
renta
23
.xtx1 x2
y if(yi)
La varianza de ui aumenta con la renta de la familia xi.
gasto
Caso Heteroscedastico
x3
. .
renta
24
2- Hipótesis del modelo Matriz de varianzas y covarianzas del vector de perturbaciones aleatorias
)(
2121
22112
12121
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
=′
uuuuu
uuuuuuuuuu
EUUE
TT
T
T
L
MOMM
L
L
Teniendo en cuenta S10+S11
TIUUE 2
2
2
2
00
0000
)( σ
σ
σσ
=
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
=′
L
MOMM
L
L
Las perturbaciones que cumplen ambos supuestos se denominan esféricas matriz de varianzas y covarianzas escalar
25
2- Hipótesis del modelo
Supuesto 12. ui se distribuye como una normal
U ~ ),0( 2TIN σ
Nui ≈Teniendo en cuenta: S9+S10+S11+S12
diiN .. ),0( 2σui ~
26
2- Hipótesis del modelo
UYEUYEXUEXUXEYE
=⇒+==+=+=
)(-Y)(Y )()()( βββ
),( 2TIXNY σβ≈
Características de la variable endógena bajo el cumplimiento de las hipótesis básicas del MLG
UXY += β-Media y Varianza
Y es un vector de variables aleatoria
- Distribución: teniendo en cuenta en supuesto 12, entonces:
S.9
[ ] TIUUEYEYYEYEYV 2)())())((()( σ=′=′−−=
S5+S7
),0( 2TINU σ≈S.12:
S10+S11
27
3- Recta de regresión poblacional y muetral
Ejemplo: Función de consumo keynesianoEspecificación del modelo econométrico
Yi=β1+β2Xi+ui
E(Yi) = α + β Xi
Cada media E(Yi) es una función de Xi.
diiN .. ),0( 2σui ~
Teniendo en cuenta las hipótesis básicas del MLG:
Esta ecuación se conoce como
la recta de regresión poblacional (RRP).
28
Yi=α+βXi+ui
80 100 120 140 160 180 200 220
++++
++++
++++
++++
++++
++++
++++150
100
50
X
Y
Para cada valor de X existe una distribución de probabilidad completa de valores de Y
29
++++
Y
X
E(Yi)=α+βXi
80 100 120
897765
Distribución de Ydado X=120
Media: E(Yi)
Recta de Regresión Poblacional+
+++
++++
30
Especificacion Estocastica de la RRP
Dado un nivel de renta Xi, el consumo familiar se concentra alrededor del consumo medio de todas las familias con nivel de renta Xi .. Es decir alrededor de su media E(Yi).
La desviacion de un individuo Yi es: ui = Yi - E(Yi)
o Yi = E(Yi) + ui
o Yi = α + β X i+ uiError estocastico o Perturbación aleatoria
31
La RRP es desconocida, al ser desconocidos los valores de α y β. Al estimarlos obtenemos la recta re regresión muestral (RRM):
ii XˆˆY β+α=
Los valores de diferirán de los de Yi. Estas diferencias reciben el nombre de residuos :
iY
iii uYY =−iu
Los residuos pueden considerarse como estimaciones de las perturbaciones
3-RECTA REGRESIÓN MUESTRAL
32
Recta de Regresión Muestral (RRM)
.
..
.
Y4
Y1
Y2
Y3
x1 x2 x3 x4
}
}
{
{
1
2
3
4 Y = α + βX
x
Y
^ ^ ^
E(Y) = α + βX
(RRM)
(RRP)
Diferentes muestras tienen diferentes RRM
u
u
uu
33
RRM:Yi = α + β Xi
o Yi = α + β Xi + ui
o Yi = b1 + b2 Xi + ei
RRP:Yi = α + β Xi + ui
Yi = estimador de Yi (E(Yi)
β y = estimadores de β y α
Residuo
Término delError
^
^ ^^
^ ^ ^
^
^ α 34Relacion entre Y, u y la recta de regresión verdadera.
.
.
Y4
Y1
Y2
Y3
x1 x2 x3 x4
}
}
{
u1
u2
x
Y (RRM)
(RRP)
E(Y2)
u2Y2^
XˆˆY β+α=X)Y(E β+α=
35
4) Estimación MCO de los parámetros de posición
4.1) Introducción
Supongamos que queremos estimar los parámetros de la función de consumo keynesiano:
Yt=β1+β2Xt+utPara ello, se dispone de una muestra de T datos de consumo y renta que se pude representar en un plano Yt y Xt
Gráfico: Nube de puntos real
* * * ** * * * * * *
* **
Yt
Xt
36
Una estimación de los parámetros del modelo se obtiene ajustando una recta a la nube de puntos
* * * ** * * * * * *
* **
Yt
Xt
Recta de ajuste:
tt XY 21ˆˆˆ ββ +=
El objetivo ahora es conseguir una estimación de los parámetros de manera que se cumpla algún criterio de optimización.
¿Qué criterio?
37
1) Un criterio sería minimizar la suma de los residuos cometidos en toda la muestra
2) Minimizar la suma de los residuos en valor absoluto
3) Minimizar la suma de los cuadrados de los residuos
∑ =iuminProblemas: los errores grandes y (+) se pueden compensar con los grandes y (-)
∑ =iumin Dificultad analítica de obtener una solución para
∑ 2ˆmin iu 221 )ˆˆ(min tt xy ββ −−∑
38
El criterio de optimalidad seria obtener una expresión de que minimice la suma de los cuadrados de los residuos
∑ 2ˆmin iu 221 )ˆˆ(min tt xy ββ −−∑
Ventajas:
- Eliminar la compensación de errores por el signo
- Penalizar más los errores grandes que los pequeños
- Llevar a una solución analítica sencilla.
Este criterio de estimación es el más conocido en Este criterio de estimación es el más conocido en Econometría y se denomina MCO (Mínimos Econometría y se denomina MCO (Mínimos
Cuadrados Ordinarios)Cuadrados Ordinarios)
39
4) Estimación MCO de los parámetros de posición
kikii xxy β++β+β= ˆˆˆˆ221 K
ikikii uxxy ˆˆˆˆ221 +β++β+β= K
iikikiii yyxxyu ˆˆˆˆˆ221 −=β−−β−β−= K
MCO minimiza la SR= ∑ 2iu
∑ 2iu Sxxy kikii =β−−β−β−∑ 2
221 )ˆˆˆ( Kmin = min
residuos
4-2) Estimación del modelo Lineal General
40
∑ 2iu Sxxy kikii =β−−β−β−∑ 2
221 )ˆˆˆ( Kmin = min
Condiciones de primer orden:Condiciones de primer orden:
0)ˆˆˆ(2
0)ˆˆˆ(2
0)ˆˆˆ(2
221
221122
2211
=β−−β−β−−=β∂
∂
=β−−β−β−−=β∂
∂
=β−−β−β−−=β∂
∂
∑
∑
∑
kikiikik
kikiiii
kikii
xxyxS
xxxyxS
xxyS
K
M
K
K
41
En forma matricial:
βββ ˆˆˆ2ˆˆˆ2 XXYXYYUUui ′′+′′−′=′=∑Min S=
0ˆ22ˆˆˆ
ˆ =β′+′−=β∂
′∂=
β∂
∂ XXYXUUS
β′=′ ˆXXYXSistema de ecuaciones normales: k ecuaciones normales y k incógnitas
Condiciones de primer orden:
42
Una solución, si existe, es el estimado MCO del vector de parámetros β:
YX)XX(ˆ 1 ′′=β −
A Solución única si
B ∞ soluciones si
0≠′XX0=′XX
β′=′ ˆ XXYX
0=′XX Multicolinealidad exacta (Falla S.9)
Supuestos utilizados
-S2. Especificación correcta
-S3. Linealidad en los parámetros
-S4.Grados de libertad suficientes
-S5. parámetros constantes
-S6. No multicolinealidad exacta
43
⎟⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜⎜
⎝
⎛
∑∑∑∑∑∑∑
∑∑∑∑∑∑∑∑∑
−
−−2
12
12
132
323
232232
32
kikiikkiiki
kiikikii
i
kiiiiii
kiii
xxxxxxxxxxx
xxxxxxxxx
xxxT
L
LM
MOO
L
L
=
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
∑
∑∑
kii
ii
i
xy
xyy
M2
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
β
ββ
kˆ
ˆˆ
2
1
M
β′=′ ˆ XXYX
Las k ecuaciones normales bajo la forma matricial
4) Estimación MCO de los parámetros de posición
44
1
212
12
132
323
232232
32−
−
−−
⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜
⎝
⎛
∑∑∑∑∑∑∑
∑∑∑∑∑∑∑∑∑
kikiikkiiki
kiikikii
i
kiiiiii
kiii
xxxxxxxxxxx
xxxxxxxxx
xxxT
L
LM
MOO
L
L
⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜
⎝
⎛
∑
∑∑
kii
ii
i
xy
xyy
M2=
⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜
⎝
⎛
kβ
ββ
ˆ
ˆˆ
2
1
M
Expresión matricial del estimador MCO (modelo con término constante)
YX)XX(ˆ 1 ′′=β −
4) Estimación MCO de los parámetros de posición
45
4) Estimación MCO de los parámetros de posiciónEjemplo: ventas de una empresa de aspiradores
tttt uecioGpubventas +++= Pr321 βββ
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛=
⎟⎟⎟⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜⎜⎜⎜
⎝
⎛
135522250531479
180175160165144148142130115120
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛=
⎟⎟⎟⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜⎜⎜⎜
⎝
⎛
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛=′
8546514592923145922977161
92316110
8624190261862218820194161921219014195101
1029110081
86908688949290951021002426222016121410981111111111
XX
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛=′
86908688949290951021002426222016121410981111111111
YX
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛=′′=
−
−
135522250531479
8546514592923145922977161
92316110)(ˆ
1
1 YXXXβ
⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛=⎟
⎟
⎠
⎞
⎜⎜
⎝
⎛
−=
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
−−
−−=
3
2
1
ˆˆˆ
46,120,257,247
135522250531479
384926833984592683272129144939845929144941502841
3274641
βββ
46
4) Estimación MCO de los parámetros de posiciónEjemplo: modelo estimado de las ventas de una empresa de aspiradores
tttt uecioGpubventas ˆPr46,122,257,247 +−+=
Interpretación de los resultados- Las ventas esperadas independientemente del precio y los gastos en publicidad son de 247,57 miles de euros
- Si se incrementan los gastos en publicidad en mil euros, manteniendo el precio constante, las ventas se incrementan en 2,2 mil euros
-Si se incrementa el precio en un euro, manteniendo los gastos en publicidad constantes, disminuirán las ventas en 1,46 mil euros
E(ventas)= = 247,57 siendo Gpub = precio=01β
Δventas = *ΔGpub = 2,2*ΔGpub si ΔPrecio=02β
Δventas = *ΔPrecio = -1,46*ΔPrecio si Δgpub=03β
47
4) Estimación MCO de los parámetros de posiciónEjemplo: modelo estimado de las ventas de una empresa de aspiradores
Dependent Variable: VENTASMethod: Least SquaresDate: 03/08/06 Time: 13:19Sample: 2001 2010Included observations: 10========================================================Variable Coefficient Std. Error t-Statistic Prob. =========================================================C 247.5675 67.35953 3.675315 0.0079PUBLICIDAD 2.203809 0.545412 4.040634 0.0049PRECIO -1.464234 0.648685 -2.257233 0.0586=============================================================
48
5) Propiedades de los estimadores MCO de los parámetros de posición
un vector de variables aleatoriaA) Propiedad en muestras finitas
Los estimadores MCO son ELIO, es decir, lineales, insesgados y óptimos (en el sentido de que cualquier otro estimador lineal e insesgado tiene una matriz de varianzas y covarianzas “mayor”)
Teorema de Gauss Markov
β
49
1) Linealidad de
El estimador MCO de β es una función lineal de las observaciones de la variable endógena Y (Vble aleatoria)
Si Y aumenta al doble, se multiplica por dos.
YAYXXX ′=′′=β −1)(ˆ
β
β
A′ Es una matriz (kxT) de elementos constantes que cumple la siguiente propiedad: IXA =′
TkTkkk
TT
TT
yayaya
yayayayayaya
+++=
+++=
+++=
...ˆ
...ˆ...ˆ
2211
22221212
12121111
β
ββ
M
5) Propiedades de los estimadores MCO de los parámetros de posición
50
2) Insesgadez de
UXXXUXXXXXXX
UXXXXYXXX
′′+=
′′+′′=
+′′=′′=
−
−−
−−
1
11
11
)( )()(
)()()(ˆ
β
β
βββ=β)ˆ(Eβ
5- Propiedades del estimador MCO
Demostración
)()(]ˆ[ 1 UEXXXE ′′+= −ββ
ββ =⇒= ]ˆ[ 0)( EuEsiSupuestos utilizados
-S5. Parámetros constantes
-S7. Las variables explicativas
son deterministas
-S9. E(U)=0
Supuestos utilizados
-S5. Parámetros constantes
-S7. Las variables explicativas
son deterministas
-S9. E(U)=0
Sesgo = 0)ˆ( =− ββE
51
3) Óptimos: Mínima varianza
[ ] 12 )())ˆ(ˆ))(ˆ(ˆ()ˆvar( −′=′−−= XXEEE σβββββ
Propiedades del estimador MCO
Matriz de varianzas y covarianzas del estimador MCO
Demostración:
UXXXUXXX
′′=−
′′+=−
−
1
1
)()ˆ()(ˆ
ββ
ββ
[ ][ ]
[ ] 1211
11
)()()( )()(
)ˆ)(ˆ()ˆ(
−−−
−−
′=′′′′=
′′′′=
′−−=
XXXXXUUEXXXXXXUUXXXE
EVar
σ
βββββ
Supuestos utilizados
- Todos los utilizados anteriormente anteriores (S5, S6 , S9) +
- S10.
- S11.
Supuestos utilizados
- Todos los utilizados anteriormente anteriores (S5, S6 , S9) +
- S10.
- S11.
i )var( 2 ∀= σiuji 0),cov( ≠∀=ji uu
T2I)var( σ=U
52
3) Óptimos: desarrollo de la matriz de varianzas y covarianzas del estimador MCO
12 )()ˆvar( −′= XXσβ
1jh
2hj
1jj
2j )XX()ˆ,ˆcov( y )XX()ˆvar( −− ′σ=ββ′σ=β
Matriz de varianzas y covarinzas
Propiedades del estimador MCO
⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜
⎝
⎛
=
)ˆvar()ˆ,ˆcov()ˆ,ˆcov(
)ˆ,ˆcov()ˆvar()ˆ,ˆcov()ˆ,ˆcov()ˆ,ˆcov()ˆvar(
)ˆ(
21
2212
1211
kkk
k
k
V
βββββ
ββββββββββ
β
LMOMM
L
L
53
3) Optimalidad de Mejor: mínima varianzaEn el sentido de que cualquier otro estimador lineal e insesgadotiene una matriz de varianzas y covarianzas “mayor”
β
CY=β~
[ ] CVarVar =− )ˆ()~( ββC es una matriz semidefinida positiva
Propiedades del estimador MCO
ββ =]~[EDado cualquier tal queSe cumple que:
Demostración
54
Demostración
Dado que las estimaciones de los parámetros β por MCO son una combinación lineal de las perturbaciones y las perturbaciones son Normales, entonces las estimaciones se distribuyen como Normales
Propiedades del estimador MCO
4- Distribuciones de los estimadores MCO
( )12 )(ˆ −′, Ν XXσββ ∼ Supuestos utilizados
- S5.- Parámetros constantes
- S7.- Variables explicativas son deterministas
- S9+S10+S11+S12.
Supuestos utilizados
- S5.- Parámetros constantes
- S7.- Variables explicativas son deterministas
- S9+S10+S11+S12.
)IN(0, T2σU ∼UA
UXXX′+=
′′+= −
βββ
)(ˆ 1
55
Den
sida
d
)ˆ( if β
iii EE βββ == )~()ˆ( iβ
)ˆ( if β
)~( if β
)ˆ( if β)ˆ( if β
Den
sida
d
iiE ββ =)ˆ(iβ
Insesgadez
Eficiencia
Propiedades del estimador MCOInterpretación gráfica de las propiedadesPor tanto, β es un vector determinista, pero su estimador por MCO es un vector de variables aleatorias normales, centradas en el valor que se quiere estimar.
La insesgadez significa que esta muestra probablemente saldrá del entorno del centro de la distribución, que coincide con el verdadero valor.
β
56
CAT.1 Variables explicativas y residuos ortogonales entre si
6. PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO
0ˆ0)ˆ( =′⇒=−′ uXYYX
0ˆˆˆˆ ==′ UXUY β
Demostración:
Se deriva del sistema de ecuaciones normales
CAR.2- La variable endógena estimada es ortogonal al residuo
0ˆ =′−′ βXXYX 0)ˆ( =−′ βXYX
∑ =⇒=′ 0uY0uY ii
57
CAR.3. La suma de los residuos MCO es igual a cero:
Si en el modelo hay término constante
⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛=
⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜
⎝
⎛
=⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜
⎝
⎛
⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛=′
∑
∑∑
0
00
ˆ
ˆˆ
ˆ
ˆˆ111
UX 22
1
21
22221MMM
KMOMM
LL
iki
ii
i
TkTkk
T
ux
uxu
u
uu
xxx
xxx
0ˆ =∑ iu
CAR.4. La media de las variables (endógena estima) y endógena es la misma
0ˆ)ˆ(ˆ =−=−= ∑ ∑∑∑ iiiii yyyyu
YYyy iiˆˆ =⇒=∑ ∑
6. PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO
58
CAR.5. Los residuos son combinación lineal de las perturbaciones aleatorias
En todos los casos
MUUXXXXXUXXUXXYU
=′′−−+=
−+=−=−1)(
ˆ)(ˆˆ
ββ
βββUXXX ′′+= −1)(ˆ ββ
Demostración
MUU =ˆ XXXXIM ′′−= −1)(
Simétrica
Idempotente
Semi-D.P.
CAR.6. Los residuos son combinación lineal de v. endógena
MYU =ˆ
MYYXXXXYXYU =′′−=−= −1)(ˆˆ βYXXX ′′= −1)(βDemostración
6. PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO
59
CAR.7 Los residuos se distribuyen
En todos los casos
),0( 2MN σ
6. PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO
60
Nota- calculo de la suma de los cuadrados de los residuos
YXYYXYXYUUuSR i ′′−′=−′−=′′== ∑ βββ ˆ)ˆ()ˆ(ˆˆ2
βββββ ˆˆ)ˆˆ(ˆˆ XXYYUXXYYYXYYSR ′′−′=+′′−′=′′−′=
YYYYXXYYSR ˆˆˆˆ ′−′=′′−′= βββˆ XY =
0ˆ =′UX
CAR .8 MYYMUUUUSR ′=′=′= ˆˆ
Demostración
MUUMUMUUUMUU ′=′′=′⇒= ˆˆˆ
MYYMYMYUUMYU ′=′′=′⇒= ˆˆˆ
6. PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO
61
22222
2222
ˆˆ'ˆˆ)ˆˆ(
')(
YTYXYTYYYTYYySE
YTYYYTYYyST
ii
ii
−′′=−=−=−=
−=−=−=
∑∑∑∑
βCon T. const YY =ˆ
CAR 9. Si el modelo de regresión tiene término constante, entonces se cumple que:
ST=SE+SRDemostración
YYYYUUSR ˆˆˆ ′−′=′′=
ˆˆˆ ˆˆˆ 22 YTYYUUYTYYYYUUYY −′+′′=−′⇒′+′′=′
Definiciones
Restanto 2YT
6. PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO
62
7) Estimación del parámetro de dispersión y propiedades
7-1) Estimación
kTSR
kTUU
kTu
u ii −
=−′
=−
== ∑ ˆˆˆˆ)var(
22σ
kTMYY
kTMUU
kTYXYY
−′
=−
′=
−′−′
=βσˆ
ˆ 2
63
7-2) Propiedades
A. En muestras finitas:
1) Insesgado
[ ] [ ] [ ] [ ][ ] )()()()(
)()()()ˆˆ(222 kTMtrIMtrUUMEtr
UMUEtrUMUtrEMUUtrEMUUEuuE
T −===′=
′=′=′=′=′
σσσ
22 ˆˆ)ˆ( σσ =⎥
⎦
⎤⎢⎣
⎡−′
=kT
UUEE
)()(
ˆˆ)ˆ( 2
kTMUUE
kTMUUE
kTUUEE
−′
=⎥⎦⎤
⎢⎣⎡
−′
=⎥⎦
⎤⎢⎣
⎡−′
=σ
Propiedades de la traza
- tr(escalar)=escalar
- tr(AB)=tr(BA)
- E[tr(A)]=tr(E[A])
- tr(In)=n
kTItrItrXXXXtrItrXXXXtrItrXXXXItrMtr
kTT
TT
−=−=′′−=
′′−=′′−=−
−−
)()())(()(
))(()())(()(1
11
MUUSR ′=
Demostración
64
2) No lineal
3) No ELIO
kTMYY
kTuu
−′
=−′
=σˆˆˆ 2
7-2) PROPIEDADES DEL PRÁMETRO DE DISPERSIÓN
A. EN MUESTRAS FINITAS:
65
)I,0(NX N2σ≈),0(Nx 2
i σ≈
22 r
AXX χσ
≈′
B. PROPIEDADE ASINTÓTICAS:
Teorema: Sea X=(x1,x2,...,xN) un vector de N variables
aleatorias normales independientes con media cero y varianza
constante
Además si tenemos una matriz A simétrica e idempotente de rango r
66
Aplicando este teorema a nuestro caso se obtiene:
),0( 2TINU σ≈
22 kT
MUU−≈
′χ
σ2
2
ˆˆkT
UU−≈
′χ
σ
2kT2
2ˆ)kT(−χ≈
σσ−
A partir de los supuestos s10+s11+s12
kTMrango −=)(
También tenemos una matriz M simétrica idempotente y de rango (T-k)
XXXXIM ′′−= −1)(
Entonces, aplicando el teorema anterior obtendremos:
Demostración:
kTMUU
kTUU
−′
=−′
=ˆˆ
ˆ 2σ
2ˆ)( σkTMUU −=′
67
kT2)ˆvar(
42
−σ
=σ
-Asintóticamente insesgado
-Consistente
0kT
2lim)var(lim4
T
2
T=
−σ
=σ∞→∞→
B. PROPIEDADE ASINTÓTICAS:
Para demostrara la consistencia, tenemos que calcular primero lavarianza:
Demostración:2
kT2
2ˆ)kT(−χ≈
σσ−
Propiedades de
)(2)(
)(2
2
kTVkTE
kT
kT
−=
−=
−
−
χ
χ
)(2)ˆvar()(ˆ)(var 24
2
2
2
kTkTkT−=
−=⎟⎟
⎠
⎞⎜⎜⎝
⎛ − σσσ
σ
68
A modo de resumen, concluimos que el estimador MCO de σ2 es asintóticamente insegado y consistente,
si bien por lo que respecta a las propiedades para muestras finitas solamente podemos afirmar que es
un estimador insesgado
69
Finalmente sustituyendo por su estimador obtenemos los estimadores de las varianzas y covarianzas de los estimadores MCO del vector β:
2σ 2σ
12 )(ˆ)ˆ(ˆ −′= XXV σβ
⎪⎩
⎪⎨⎧
′==
′==⇒ −
−
12ˆ,ˆ
122ˆ
)(ˆ)ˆ,ˆcov(ˆ
)(ˆ)ˆvar(ˆ
ijjiji
jjj
XXXX
j
σββσσβσ
ββ
β
Es un estimador insesgado
70
8- Estimación por Máxima Verosimilitud (MV) de los parámetros
• El método de MV se basa en la función de verosimilitud de la muestra.
• La función MV se define como la probabilidad de que se den las observaciones muestrales.
• Intuitivamente viene a proporcionar la probabilidad de que para unos determinados parámetros de β y σ2 obtengamos una muestra en concreta.
71
8- Estimación por Máxima Verosimilitud (MV) de los parámetros
• El método de MV consiste en encontrar aquellos valores de los parámetros que maximizan la función de verosimilitud, es decir la probabilidad conjunta de las observaciones de la variable endógena
),,,( 2k21 σβββ K
La función de verosimilitud se puede expresar:
),(),...,,( 221 σβ== fyyyfL T
72
• Sabemos que:
• Por tanto la función de densidad conjunta del vector U será:
• Recordar que:
U = Y-Xβ
),0( 2TIN σU∼
( ) ⎭⎬⎫
⎩⎨⎧ ′
σ−
πσ= UUUf T 22/2 2
1exp2
1)(
La estimación MV Requiere distribución del error
(1)
73
En la función de verosimilitud (1) sustituyendo el vector U como función de las variables observables obtenemos la función de verosimilitud de la muestra Y:
( ) ⎭⎬⎫
⎩⎨⎧ β−′β−
σ−
πσ=σβ= XYXYYfL T ()(
21exp
21),|( 22/2
2
Los parámetros que maximizan L son los mismos que maximizan Lln=l
)()(2
1)ln(2
)2ln(2
ln 22 ββ
σσπ XYXYTTL −′−−−−==l
Maximizamos lnL con respecto a β y σ2
)2(21)ln(
2)2ln(
2ln 2
2 β′β′+β′−σ
−σ−π−== XXXYYYTTLl
74
[ ]
)()(2
12
)(22
1
422
2
β−′β−σ
+σ
−=σ∂∂
β−′−σ
−=β∂
∂
XYXYT
XYX
l
l
Igualando a cero (1 y 2) y llamamos los estimadores máxima verosimilitud de los parámetros, obtenemos
2~y ~
σβ
2~~~~2
~
σ=β′β′+′β′−′
β′=′
TXXYXYY
XXYX
1
2
3
4
YXXX ′′=β −1)(~
A partir de 3 y 4 la estimación MV de
TXXYXYY β′β′+′β−′
=σ~~~
2~2
β=β ˆ~
Tuu ˆˆ′
= kTuu
−′
=σˆˆˆ 2 22 ~ˆ σ≠σ
Condiciones de primer orden
UXYYYU ˆ~~~ =−=−= β
75
Propiedad de los estimadores MV de los parámetros de posición
Dado que los estimadores MV de β son iguales a los MCO, cumplen las mismas propiedades
Lineales
Insesgados
ÓptimosELIO
Eficientes+
Son los de menor varianza entre todos los estimadores insesgados
Su varianza alcanza el límite inferior de la Cota de Cramer-Rao 76
Propiedad del estimadores MV del parámetros de dispersión
1) Para muestras pequeñas
No ELIO
Tk
TkT
TuuEE
22
22 )()ˆˆ()~( σ
−σ=−σ
=′
=σ
-No lineal:
- Sesgado:
Sesgo negativo: MV infraestima el parámetro de dispersión
TMYY ′
=2~σ
TkESesgo
2222 )~()~( σσσσ −=−=
77
Propiedad del estimadores MV del parámetros de dispersión
2) Propiedad asintóticas
a) Insesgadez asintótica22 )~(lim σσ =
∞→E
T
b) Consistencia
2
42 )(2)~var(
TkT σ−
=σ
0)(2lim)~var(lim 2
42 =
σ−=σ
∞→∞→ TkT
TT
Recordar
Bajo el supuesto de normalidad
2k-T2 χ
σMUU ′
Propiedades de
)(2)(
)(2
2
kTVkTE
kT
kT
−
−=
−
−
χ
χ
∼
78
Análisis de la eficiencia de los estimadores MV:Cota de Cramer-Rao
Para obtener la desigualdad de Cramer-Rao, partimos de la Matriz de Información, que el caso del MLG será
⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜
⎝
⎛
σ∂σ∂∂
σ∂β∂∂
σ∂β∂∂
β′∂β∂∂
−=
22
2
2
2
2
22
lnln
lnln
LL
LL
EMI
Cota CR:menor varianza que pueda tener un estimador insesgado
79
A partir de las expresiones de las primeras derivadas de la lnL, obtenemos las segundas derivas:
24
22 ln )σσ
σββ
XXXXLa′
−=′
−=′∂∂
∂
=−′
−=∂∂
∂42
2 )(ln )σ
βσβ
XYXLb
6
2
6422
2
22
)()(12
ln )
σσ
ββσσσσ
UUT
XYXYTLc
′−=
−′−−=∂∂
∂
80
Aplicando la esperanza a cada uno de estos elementos (a,b y c):
2
1
2)( σTuEUUET
ii =⎟
⎠
⎞⎜⎝
⎛=′ ∑
=
22 )()σσ
XXXXEa′
−=′
−
0)()(E ) 444 =′
−=⎥⎦⎤
⎢⎣⎡ ′−=⎥⎦
⎤⎢⎣⎡ −′−
σσσβ UEXUXEXYXb
46
22
6
2
6
2
222
2)(2
22E )
σσσσ
σσ
σσ TTTUUETUUTc −
=−
=′−
=⎥⎦
⎤⎢⎣
⎡ ′−
Demostración
81
Obtenemos la matriz de información:
⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜
⎝
⎛
σ
σ′
=4
2
20
0
T
XX
MI
La cota de C-R es la inversa de la matriz de información:
⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛ ′==
−
−
T
XXMICR 4
12
1 20
0)(σ
σ
82
Denominamos ahora:)(2
)()(
24
12
σσ
βσ
CRT
CRXX
=
=′ −
- Eficiencia del estimador de βTanto los estimadores MV como MCO tienen la varianza mínima que puede alcanzar un estimador insesgado de :
12 )()()~()ˆ( −′=== XXCRVV σβββEficiencia del estimador de σ2
)()(2)~var( 22
42 σσσ CR
TkT
<−
=
)()(
2)ˆvar( 24
2 σσσ CRkT
>−
=
Menor que la cota de Cramer-Rao, pero es sesgado
83
Resumen• Estimación MV • Estimación MCO
YXXX ′′=β −1)(~ YXXX ′′=β −1)(ˆ
β=β ˆ~
TUU ˆˆ~2 ′
=σ
Lineales, Insesgados, Óptimos (ELIO) y eficientesAsintóticamente insesgados y Consistentes
22 ~ˆ σ≠σNo lineal, sesgado yno eficiente
No lineal, Insesgado, no eficiente No ELIO
Asintóticamente insesgados y Consistentes
β~ˆ XYY == UYYYYU ~~ˆˆ =−=−=
kTUU−′
=ˆˆ
ˆ 2σ
84
9. Mediad de ajuste:
DESCOMPOSICIÓN DE LA VARIANZA:
Si entre las variables explicativas se tiene un término constante, La variación muestral de la variable endógena (ST) se puede descomponer en la variación debida a la regresión (SE) (influencia de X2
, X3,...,X
k) y en variación debida
a los residuos (SR):
ST=SE+SR
85
EXPRESIONES:
YXYYUUuSR
YTYXYTYSE
YTYYYTYST
i
i
i
′β′−=′==
−′β′=−=
−=−=
∑∑∑
ˆ'ˆˆ
ˆˆ'
2
222
222
86
El coeficiente de determinación El coeficiente de determinación es una medida del poder explicativo (bondad de ajuste del modelo).
En el MLG con término independiente el R2 puede calcularse:
El mide el porcentaje de la variación de Y que puede atribuirse a las variaciones de todas las explicativas X.
==STSER2
2
2
'
ˆ
YTYYYTYX
−−′β′
22
'ˆ
11YTYY
YXYYSTSRR
−′′−′
−=−= β
R2
87
Yˆ
0y 0
i
2i
2
=⇒
=⇒= ∑Y
R
0u 1 2i
2 =⇒= ∑R
El aumenta de valor al aumentar el número de regresoressean estos relevantes o no. Para eliminar este fenómeno se define el ajustado de grados de libertad”
Características:
10 2 ≤≤ R
R2
R2
88
El Coeficiente de determinación corregido )( 2R
1/)(/ˆˆ
11/
/1 22
−−′−′
−=−
−−=
TYTYYKTuu
TSTKTSRR
)1(11 22 RKT
TR −−−
−=
89
2) si k ↑ y las variables son muy explicativas SR ↓
T-k↓
SR
T-k↓
3) 4) si k=15) el puede tomar valores negativos
↓⇒↑−− 2R
1//TST
kTSR
Características
1) si k ↑ y las variables sonpocas explica
22 RR ≤22 RR =
2R
↑⇒↓−− 2R
1//TST
kTSR