Estadística2011
Clase 6
Maestría en FinanzasUniversidad del CEMA
Profesor: Alberto Landro
Asistente: Julián R. Siri
Clase 6
4. Propiedades de los estimadores de MCO
5. Test de Hipótesis e Intervalos de Confianza
1. Análisis de Regresión
2. Especificación y Estimación
3. Supuestos del modelo de regresión lineal
6. Bondad de Ajuste
7. Test de significatividad global
8. Ejemplos y Ejercicios
•El análisis de regresión se encarga de describir y evaluar la relación entre una variable dada (generalmente conocida como la variable dependiente) y una o más variables explicativas (conocidas como la/s variable/s explicativa/s).
•A diferencia del análisis de correlación, en donde el principal objetivo es medir el grado de asociación linealentre dos variables, aquí estamos interesados en estimar o predecir el valor promedio de una variable sobre la base de valores fijos de otras variables.
1. Análisis de Regresión
• A pesar de que el análisis de regresión tiene que ver con la dependencia de una variable respecto a otras variables, esto no implica causalidad necesariamente. La misma viene dada por consideraciones a priori o teóricas.
•Si decimos que y e x están correlacionadas, significa que estamos tratando a y e x de una manera completamente simétrica.
•En el análisis de regresión tratamos a la variable dependiente (y) y a las variables independientes (x’s) de otra manera. La y es asumida como aleatoria o “estocástica” (por ejemplo, tiene una distribución de probabilidades determinada), mientras que las variables x son tomadas como valores fijos (“no estocásticas”) en muestras repetidas.
1. Análisis de Regresión
• Función de Regresión Poblacional
El valor esperado de la distribución de Y esta funcionalmente relacionado con Xi, pero...
1. Análisis de Regresión
i iE Y X f X
¿Qué forma funcional toma ? if X
Lineal No Lineal
• En cuanto a linealidad, le pedimos a las regresiones que sean
lineales en los parámetros, y no necesariamente en las variables.
•Linealidad en los parámetros remite a que no estén
multiplicados entre sí, divididos, elevados al cuadrado, etc.
•Entre las formas funcionales lineales se destacan:
1. Análisis de Regresión
.
.
exp( . )
Y X
Y X
Y X
• La primer ecuación es lineal en Y y en X.
• La segunda ecuación se puede trasformar en:
La cual es lineal en log Y y en log X
• La tercer ecuación se puede transformar en
La cual es lineal en log Y y en X.
• Veamos la interpretación de cada coeficiente
1. Análisis de Regresión
log log logY X
logY X
• : parte determinística
• : perturbación estocástica (o parte aleatoria).
2. Especificación y Estimación
componentecomponente
no sistemáticosistemático
i i iY E Y X u
iE Y X
iu
• Perturbación Estocástica
–El término incluye todas las variables omitidas por el modelo pero que, en
conjunto, influencian al valor de Y. También incluye información no disponible
(variables no cuantificables), problemas de representación de las variables
(errores de medición) y/o una falla en la forma funcional del modelo.
•Modelo inicial
–Introduciremos el análisis de regresión con un modelo de dos variables, del
tipo:
–En donde:
2. Especificación y Estimación
iu
Y X u = variable dependiente
= ordenada al origen de la recta de regresión
= pendiente de la recta de regresión
= variable independiente
= perturbación estocástica
Y
X
u
• Objetivo: Cuantificar los parámetros
2. Especificación y Estimación
y
ESTIMACIÓN
Estimadores puntuales
POBLACIÓNMuestra
disponible iY X
•Podemos reexpresar la recta de regresión poblacional como:
•El último término es el error de estimación, , que análogamente
podría calcularse de la siguiente manera:
2. Especificación y Estimación
ii iY X u
iu
i ii
ii i
Y Y u
Y X u
•Entonces, ¿cómo determinamos α y β?
•Existen diversos métodos de estimación. El idea es aquél que genere
una recta de regresión para la cual los residuos de estimación sean
iguales a 0. En términos prácticos esto es imposible, por lo que nos
conformamos con minimizar la magnitud de dichos residuos.
2. Especificación y Estimación
y
x
•El criterio más común, que estaremos utilizando en esta reunión, es
el de Mínimos Cuadrados Ordinarios (MCO o MCC, por Mínimos
Cuadrados Clásicos).
•Lo que hacemos es tomar la distancia de cada punto, elevarla al
cuadrado, y minimizar la suma total de dichos cuadrados. De esta
forma la expresión clásica queda así:
2. Especificación y Estimación
2 22
1 1 1
min
n n n
ii i i i
i i i
u Y Y Y X
•En términos gráficos: valor actual y ajustado
2. Especificación y Estimación
y
ix x
iy
iy
iu
ˆiy
iy
•Dado que queremos minimizar respecto a y , diferenciaremos:
•De (1),
•Pero y
2. Especificación y Estimación
t
tt xyL
0)ˆˆ(2ˆ
t
ttt xyxL
0)ˆˆ(2ˆ
(1)
(2)
0ˆˆ0)ˆˆ( ttt
tt xTyxy
yTyt xTxt
•Entonces podemos escribir ó
•De (2) tenemos que:
•Y de (3):
•Substituyendo de (5) en (4), llegamos a que:
2. Especificación y Estimación
(3)
(5)
0ˆˆ xTTyT 0ˆˆ xy
t
ttt xyx 0)ˆˆ(
xy ˆˆ
tttt
tttttt
tttt
xxTxyTyx
xxxxyyx
xxyyx
0ˆˆ
0ˆˆ
0)ˆˆ(
22
2
(4)
•Reordenando,
•Y llegamos finalmente a los estimadores:
2. Especificación y Estimación
ttt yxxyTxxT )(ˆ 22
22
t t
t
x y T x y
x T x
y x
• Supongamos que tenemos los siguientes datos sobre retornos
“extraordinarios” sobre el portfolio de un fund manager (“fondo XXX”),
así como los retornos “extraordinarios” de un índice de mercado:
•Tenemos cierta intuición respecto a la beta de este fondo (que es
positiva), y por lo tanto queremos averiguar si existe una relación entre x
e y, en base a los datos provistos. El primer paso sería graficar los dato
de ambas variables.
2. Especificación y Estimación: un ejemplo
Año, t Fondo XXX Índice de mercado
(r XXX,t - rf t) (rm t - rf t)
1 17,8 13,7
2 39,0 23,2
3 12,8 6,9
4 24,2 16,8
5 17,2 12,3
• Gráfico (diagrama de puntos)
2. Especificación y Estimación: un ejemplo
0
5
10
15
20
25
30
35
40
45
0 5 10 15 20 25
Exceso de retorno del índice de mercado
Exceso
de r
eto
rno
s d
el
fon
do
XX
X
• El modelo clásico de regresión lineal, surgido de la aplicación
de los MCO, necesita de ciertos supuestos para poder realizar
inferencia estadística sobre la variable dependiente, así como
sobre los parámetros poblacionales.
– Los supuestos son 10, destacando los siguientes:
3. Supuestos del modelo de regresión lineal
2 2
I. 0
II. var
III. cov , 0
IV. cov , 0
i i
i i i i u
i j
i j
E u X
u X E u X
u u j i
u X j i
•Entonces, en base a estos supuestos, cada estimador de MCO es
MELI (Mejor Estimador Lineal Insesgado):
–Es lineal (función lineal de una variable aleatoria)
–Es insesgado (su valor promedio es igual al verdadero valor del parámetro)
–Es eficiente (tiene varianza mínima dentro de todos los estimadores lineales
insesgados del parámetro)
Cabe destacar que éstas son propiedades de muestra finita, o sea, se
mantienen independiente del tamaño de la muestra sobre la cual estén
basados los estimadores.
4. Propiedades de los estimadores de MCO
•Los estimadores de MCO, además, presentan las siguientes
propiedades deseables:
–El valor de la media de los residuos es cero.
–Los residuos no están correlacionados con el valor predicho de Y, :
–Los residuos no están correlacionados con Xi.:
4. Propiedades de los estimadores de MCO
ˆiu
iY
0i iE Y u
ˆiu
0iiE X u
ˆiu
• es un estimador insesgado de . Es decir,
•La varianza de es,
•Mientras que la varianza de es,
4. Propiedades de los estimadores de MCO
i i
iiE
2
2
2var
i
u
i
x
T x x
2
2 2var u
ix x
Y como desconocemos , lo reemplazamos por la estimación
muestral, . La misma se estima a partir del siguiente cálculo:
Y agregándole el supuesto de que las perturbaciones se distribuyen
normalmente, obtenemos que:
4. Propiedades de los estimadores de MCO
2
2
2
i
u
uS
n
2
u2
uS
2 22
2 2, ,
i uu
i i
x SN S N
T x x x x
Vamos a mostrar un ejemplo de cómo calcular los parámetros y sus errores
estándar
*Asuma que disponemos de los siguientes datos, calculados de una regresión de y con respecto a
x y una constante, sobre 22 observaciones.
Data:
Cálculos:
Entonces
4. Propiedades de los estimadores de MCO
2 2
830102, 22, 416,5, 86,65,
3919654, 130,6
t t
t t
x y T x y
x u
$ ( * . * . )
*( . ).
830102 22 416 5 86 65
3919654 22 416 50 35
2
$ . . * . . 86 65 035 4165 5912
tt xy ˆˆˆ
tt xy 35.012.59ˆ
Vamos a mostrar un ejemplo de cómo calcular los parámetros y sus errores
estándar (continuación)
Y el cálculo de los errores estándar queda:
4. Propiedades de los estimadores de MCO
0079.0
5.416223919654
1*55.2)(
35.35.41622391965422
3919654*55.2)(
2
2
SE
SE
55.220
6.130
2
ˆ 2
T
us t
•Ya definidas las distribuciones de los estadísticos, podemos realizar
test individuales sobre los parámetros, de la siguiente manera:
5. Test de Hipótesis e Intervalos de Confianza
Caso I Caso II Caso III
Prueba Estadística
Regla de Decisión
Rechazar Rechazar Rechazar
si tcal<-t(,n-2) si |tcal |>t(/2,n-2) si tcal>t(,n-2)
*
( 2)2
2
~ n
i
u
i
t tx
ST x x
*
0
*
1
:
:
H
H
*
0
*
1
:
:
H
H
*
0
*
1
:
:
H
H
0H 0H 0H
*
( 2)2
~ n
u i
t t
S x x
•Y el intervalo de confianza, con un nivel de significación, para los
parámetros poblacionales, quedan definidos de la siguiente manera:
5. Test de Hipótesis e Intervalo de Confianza
%
2 2
2 2
2 22 2
2 22 2
2 2
i i
n u n u
i i
n u i n u i
x xIC t S t S
T x x T x x
IC t S x x t S x x
• La bondad de ajuste de la recta de regresión es equivalente a
determinar cuán bien se ajusta la recta de regresión a los datos
muestrales. Como medida de esto surge el coeficiente de determinación
(ó R2):
•En el contexto de la regresión, es una medida de la proporción de la
variación en la variable dependiente explicada por la/s variable/s
explicativa/s.
6. Bondad de Ajuste
2
2 2cov ,
x y
x yR
• Coeficiente de Correlación: Determina el grado de relación
lineal que existe entre distintas variables. Dicho coeficiente toma
valores entre –1 y 1. De aquí en mas lo llamaremos r o ρ.
• Si el coeficiente de correlación lineal es igual a +1 o –1
podemos afirmar que la relación lineal entre ambas variables es
perfecta. Es decir “ambas variables se mueven juntas”.
• En el caso de dos variables que no tienen relación lineal alguna,
tendremos un ρ igual a cero.
6. Bondad de Ajuste
• Recordemos como se calcula el coeficiente de Correlación:
o
6. Bondad de Ajuste
1 1 1
2 2
2 2
1 1 1 1
*
* * *
n n n
i i i i
i i i
n n n n
i i i i
i i i i
n X Y X Y
n X X n Y Y
cov( , )
*X
x y
y
• Vamos a testear con un nivel de significatividad del 5% si el
coeficiente de correlación lineal entre ambas variables es o no
significativamente distinto de cero.
Planteamos las hipótesis: H0: ρ=0 y H1: ρ≠0
•A fin de realizar nuestro test, utilizaremos el siguiente
estadístico
6. Bondad de Ajuste
22
* 2:
1n GL
r nt t
r
Uno podría plantear, en base a que , lo siguiente:
Donde:
6. Bondad de Ajuste
ii iy y u
2 22
ii iy y u
2
2
2
Suma de los cuadrados totales (STC)
Suma de los cuadrados explicados (SEC)
Suma de los cuadrados residuales (SRC)
i
i
i
y
y
u
• Dividiendo a todo por SCT tenemos que:
•Ahora bien, definiendo al coeficiente de determinación como
•Podemos expresarlo también como:
6. Bondad de Ajuste
1SCE SCR
SCT SCT
22
2
2 2
ii
ii
Y Y y SCER
y SCTY Y
22
2
2 21 1
i i
ii
u u u SCRR
y SCTY Y
Podemos hacer otro análisis sobre la varianza de la regresión conocido
como el test F. Su popularidad radica en que es fácilmente calculada para
regresiones simples y múltiples:
Entonces, plantenado como hipótesis nula que los estimadores no son
conjuntamente significativos, , se realiza el test de
hipótesis.
7. Test de significatividad global
, 11
k n k
SCE kF F
SCR n k
0 : 0iH
Un ejemplo sobre un simple t-test para probar una teoría
financiera
•En 1968 Michael Jensen publicó un paper sobre la presencia y
significatividad de retornos anormales (que luego tomó el nombre
de “Jensen’s alpha”), evaluando la performance anual de 115
fondos mutuales entre 1945 y 1964.
•El modelo: para j = 1, …,
115
•Se interesó en la significancia del alfa, planteando una hipótesis
nula de que no resulta significativo.
8.Ejemplos y Ejercicios
jtftmtjjftjt uRRRR )(
0 : 0jH
Un ejemplo sobre un simple t-test para probar una teoría
financiera
•La distribución de los t-ratios de los alfas para los fondos
mutuales (bruto de costos de transacción):
8.Ejemplos y Ejercicios
Un ejemplo sobre un simple t-test para probar una teoría
financiera
•La distribución de los t-ratios de los alfas para los fondos
mutuales (neto de costos de transacción):
8.Ejemplos y Ejercicios
• E1.Sea n=10, ∑X=40,∑Y=90, el estimador de a1=2 y ρ=0.5 ¿Cuáles de
las siguientes afirmaciones son ciertas?
I. El coeficiente de determinación es igual a 0.25
II. El estimador de a0=1
III. Si X fuera 5, entonces Y sería 11.
IV. La pendiente de la recta de regresión es ascendente hacia la
derecha.
A. Sólo I y IV.
B. Sólo II y III.
C. Sólo I y II
D. Todas son correctas.
•E2.Si una regresión lineal simple tiene un R2 = 0.45. ¿Cuál es el
coeficiente de correlación entre las variables dependiente e
independiente? A. 0.20 B. 0.37 C. 0.55 D. 0.67
8.Ejemplos y Ejercicios
• E3. De una muestra de 200 pares de observaciones se han calculado las
siguientes cantidades:
∑X=11.34, ∑Y=20.72, ∑X2=12.16, ∑Y2=84.96,
∑XY=22.13
Estimar y
XY .
YX .
8.Ejemplos y Ejercicios
• E4. Una muestra de 20 observaciones correspondiente al modelo de
regresión
Donde u se distribuye normalmente con media cero y varianza
desconocida, dio los siguientes datos:
∑X=186.2,
∑Y=21.9,
Estimar α y β y calcular las estimaciones de las varianzas.
4,106))((
4,215)(
9,86)(
2
2
YYXX
XX
YY
8.Ejemplos y Ejercicios
Me pueden escribir a:
Las presentaciones estarán colgadas en:
www.cema.edu.ar/u/jrs06
FIN
Top Related