UNIVERSIDAD CENTROCCIDENTAL LISANDRO ALVARADO
DECANATO DE CIENCIAS Y TEGNOLOGA
DEPARTAMENTO DE INVESTIGACIN DE OPERACIONES Y ESTADSTICA
APUNTES DE ESTADSTICA MATEMTICA
LUZ E. RODRGUEZ Q.
BARQUISIMETO 2015
0.1. Introduccin
La estadstica es una Ciencia que tiene como finalidad facilitar la solucin de problemas en los cuales necesi-
tamos conocer algunas caracteristicas sobre el comportamiento de algn suceso o evento. Caractersticas que nos
permiten conocer o mejorar el conocimiento de ese suceso. Adems nos permiten inferir el comportamiento de
suscesos iguales o similares sin que estos ocurran. Esto nos da la posibilidad de tomar decisiones acertadas y a
tiempo, as como realizar proyecciones del comportamiento de algn suceso. Esto es debido a que solo realizamos
los clculos y el anlisis con los datos obtenidos de una muestra de la poblacin y no con toda la poblacin. Pues
hacerlo con todos los datos o poblacin en algunos casos seria muy difcil y en otros casos casi imposible o impo-
sible. Difcil porque podra tratarse de una situacin donde el nmero de datos es muy grande, como por ejemplo
si quisieramos saber el promedio de goles por juego de un equipo de futbol, a pesar de que se tienen los registros
de todos los resultados de sus juegos, son muchsimos los juegos y llevara tiempo revisar todos los archivos para
obtener esos datos. O bien saber que porcentaje de personas tiene vehculos en una determinada ciudad.
El objetivo de la estadstica es el de hacer inferencias respecto a una poblacin con base en los datos que aporta
una muestra tomada de sta. Toda la teora de probabilidades, variables aleatorias discretas y continuas con sus
respectivas distribuciones, estn ntimamente relacionadas con argumentos matemticos que no se pueden dejar
de lado. En el captulo 1, se describen los momentos y la funcin generadora de momentos de una determinada
poblacin, as como tambin los distintos mtodos para hallar la distribucin de una funcin de variables aleatorias.
En el captulo 2, las variables aleatorias continuas ms usadas se describen con respecto a sus distribuciones, sus
momentos y su funcin generadora de momentos. En el captulo 3, las variables aleatorias bidimencionales se
plantean para dar comienzo al anlisis multivariado, pues muchos de los problemas de la vida real tienen ms
de una variable para poder ser estudiados. En el captulo 4 y 5, se analizan los modelos de regresin lineal y se
describe el anlisis de varianza, cuya utilidad se extiende a muchas reas sociales para representar de una manera
ms adecuada un conjuntos de datos tomados de una poblacin, adems a travs de los modelos lineales se pueden
realizar predicciones.
2
ndice general
0.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1. Variables Aleatorias Continuas 6
1.1. Momentos y funcin generadora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2. Funcin de Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3. Propiedades Reproductivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.4. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2. Distribuciones Continuas 31
2.1. Distribucin uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2. Distribucin exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3. Distribucin Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4. Distribucin Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5. Distribucin 2(Chi-cuadrado) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.6. Distribucin normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.7. Distribucin t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3. Variables Aleatorias Bidimensionales 37
3.1. Distribuciones de probabilidad bivariadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2. Distribuciones de Probabilidad Marginal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3
3.3. Distribuciones de Probabilidad Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4. Variables aleatorias independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.5. Valor Esperado de una Funcin de Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . 53
3.5.1. Valores Esperados Condicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.5.2. La Covarianza de dos Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.3. Valor esperado y varianza de funciones lineales de v.a. . . . . . . . . . . . . . . . . . . . 59
3.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.7. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4. Regresin Mltiple y Correlacin 74
4.1. Modelos Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2. El Mtodos de los Mnimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.3. Ajuste del modelo lineal mediante matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.4. Propiedades de los estimadores de Mnimos Cuadrados. . . . . . . . . . . . . . . . . . . . . . . 79
4.4.1. Para el modelo Y = 0+1 x+ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4.2. Para el modelo lineal de regresin mltiple. . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.5. Inferencia con respecto a los parmetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.6. Prediccin de un valor particular de Y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.7. Comparacin de Modelos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.7.1. Estadstico de la Prueba. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.8. Tcnicas de regresin por pasos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.9. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5. Anlisis de Varianza 96
5.1. Procedimiento del diseo de un experimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.2. Anlisis de varianza para el diseo completamente aleatorizado . . . . . . . . . . . . . . . . . . . 97
4
5.2.1. Comparacin de Medias entre los grupos. . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.3. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5
Captulo 1
Variables Aleatorias Continuas
Recordemos que el proceso por medio del cual se obtiene una observacin es llamado Un Experimento.
Al analizar un experimento podemos tener uno o ms resultados que llamaremos Eventos.
Los eventos se clasifican en simples y compuestos que no se pueden descomponer.
Observacin: Un evento simple corresponde a un punto muestral.
Espacio muestral (S o ): Es el conjunto de todos los posibles puntos muestrales.
Variable Aleatoria: Es una funcin X que asigna a cada uno de los elementos s S un nmero real X(s), es decir,
X : S R
s S X(s) R
Variable Aleatoria Continua: X es una v.a. continua si su conjunto de posibles resultados es un intervalo en la
recta real.
Sea X una v.a. La funcin de Distribucin de X (o funcin de Distribucin acumulada) denotada por F(x), est
dada por
F(x) = P(X x), < x
3. Si x1 < x2 entonces F(x1) F(x2).
Definicin 1. Sea F(x) la funcin de distribucin de una v.a. continua X. Entonces f (x), dada por,
f (x) =ddx
F(x) = F (x)
(siempre y cuando exista la derivada) se denomina Funcin de Densidad de Probabilidad para X.
Observemos que de las definiciones anteriores
F(x) = P(X x) = x
f (t)dt.
Propiedades de f (x).
1. f (x) 0, x
2. +
f (x)dx = 1
3. P(a x b) = b
af (x)dx
Esperanza y varianza de una v.a. continua X con densidad de prob. f (x):
E(X) = = +
x f (x)dx
Var(X) = 2 = +
(x)2 f (x)dx = +
x2 f (x)dx2
Esto es,
Var(x) = E(X2) [E(x)]2
=2 Es la Desviacin Estndar.
Propiedades: X ,Y v.a. a,b,c, R
E(c)=c
E(aX+b)=aE(X)+b
E(X+Y)=E(X)+E(Y)
E(X.Y)=E(x).E(y) si X y Y son independientes
7
Var(c) = 0
Var(aX) = a2Var(X)
Var(XY ) =
Var(x)+Var(y)2Cov(x,y)
Var(x)+Var(y) si X ,Y son indep.
Cov(X ,Y ) = E{[XE(x)][Y E(y)]}
= E(X Y )E(X).E(Y )Teorema 1. (Teorema de Chebyshev)
Sea X una v.a. con media finita y varianza 2 finita. Entonces, para cualquier k > 0,
P(|X| k) 1 1K2
o
P(|X| k) 1K2
.
Ejemplo 1.0.1. El nmero de clientes que visitan un distribuidor de autos los sbados en la maana es una v.a.
con = 18 y = 2 5. Usar el teorema de Chebyshev para calcular
P(8 X 28)
k= 8 k = 8
=10
2 5 = 4
+ k= 28 k = 28
=10= 4
P(8 X 28) 1 142
=1516 0 94
Ejemplo 1.0.2. Determinar k tal que la siguiente funcin pueda servir como densidad de probabilidad una v.a.
f (x) =
kxe4x2 , x > 0
0 , x 0
1ero f (x) 0, as k debe ser > 0
2do +
f (d)dx = 1, esto es +
0kxe4x
2dx = 1
8
Haciendo u = 4x2, du = 8xdx
k
xe4x2dx =
k8
eudu =
k8
eu
+
0kxe4x
2dx = 1 k
8= 1 k=8
Ejemplo 1.0.3. Dada la siguiente funcin
f (x) =
c x para 0 < x < 4
0 en otro caso
a) Determinar c tal que f (x) sea una funcin de densidad de la v.a. X.
b) Hallar F(x) y E(X).
Solucin:
a) Sabemos que si f (x) es una f.d.p. se cumple
+
f (x)dx = 1 0
0dx+ 4
0cx dx+
+4
0 dx = 1
4
0cx dx = 1 cx
2
2
]40= 1
c162= 1 c = 1
8
b) Busquemos F(x)
Para x < 0 F(x) = x
f (t)dt = x
0 dt = 0
Para 0 x < 4 F(x) = x
f (t)dt
= 0
f (t)dt+ x
0f (t)dt =
x0
18
t dt =18
t2
2
]x0=
116
x2
Para x 4 F(x) = x
f (t)dt = 0
0 dt+ 4
0
18
t dt+ x
40 dt =
t2
16
]40= 1
F(x) =
0 si x < 0
x2/16 si 0 x < 4
1 si x 4
9
E(x) = +
x f (x)dx = 0
0 dx+ 4
0x
18
x dx+ +
40 dx =
40
18
x2dx
=18
x3
3
]40=
18
643=
83
Ejercicio: Dada la funcin de densidad
f (x) =
3x2 si 0 < x < 1
0 en otro caso
a) Hallar F(x)
b) Hallar E(x) y Var(x)
1.1. Momentos y funcin generadora de momentos
Definicin 2. Sea Y una v.a., el k-simo momento de Y respecto al origen se define como E(Y k), y se denota
por k, siempre que la esperanza exista.
Notemos que:
1 = E(Y ) = 1er momento (posicin)
2 = E(Y2) = 2+2 2do momento (dispersin)
3 = E(Y3) 3er momento (relacionado con asimetra)
4 = E(Y4) 4to momento (relacionado con la curtosis)
Definicin 3. Sea Y una v.a., el k-simo momento de Y respecto a la media o el k-simo momento central de Y ,
se define como E[(Y )k] y se denota por k.
Notemos que 2 = E[(Y )2] =Var(Y ) = 2.
10
Definicin 4. La funcin generadora de momentos de una v.a. Y es una funcin a valores reales definida por:
mY (t) = E(ety) =
y
ety p(y) si y es discreta
+ e
ty f (y)dy si y es continua
Siempre que el valor esperado exista para todo t (h,h), para algn h > 0.
Notemos que my(t) =(t) = E[ety] se llama funcin generadora de momentos de Y porque
my(t) = 1+ t1+t2
2!2+
t3
3!3+ ...+
tn
n!n+ ...
Adems, observemos que:
1. my(t) = E(ety) es una funcin de todos los momentos k respecto al origen para k = 1,2,3, ...
2. k es el coeficiente detk
k!en la expansin en series de my(t).
Recordemos que:
ety =+
k=0
(ty)k
k!= 1+ ty+
(ty)2
2!+(ty)3
3!+ ...
(a+b)n =n
i=0
(ni
)aibni
El siguiente teorema establece que si existe el momento de orden k de Y , entonces deben existir todos los
momentos de orden inferior.
Teorema 2. Si E(Y k)< , para k Z+, entonces E(Y j)< , para cualquier enero positivo j < k.
Teorema 3. Sea Y una v.a. para la cual existe la f.g.m. my(t). Entonces para cualquier k Z+
k = m(k)(0) =
dkmy(t)dtk
]t=0
Ejemplos:
1. Sea Y una v.a. con distrib. exponencial de parmetro , o sea con densidad
f (y) =1
ey/; > 0, y > 0
11
Hallar my(t),E(y) y Var(y)
my(t) = E(ety) = +
0 ety 1
ey/dy
=1 +
0 e( 1t)ydy =
1 +
0 e( 1t )ydy
=1
1t e( 1t )y
]+0
=1
1t my(t) = (1t)1, t < 1
E(y) = ddt
my(t)]
t=0= (1t)2
]t=0
=
Var(y) = E(y2) [E(y)]2
E(y2) =d2
dt2mY (t)
]t=0
=ddt[(1t)2]
]t=0
= 22(1t)3]
t=0= 22
Var(y) = 222 = 2.
2. Sea X Bin(n, p). Su funcin de probalidad es
p(x) =(
nx
)px(1 p)nx, si 0 x n.
Hallar mx(t),E(x) y Var(X)
mx(t) = E(etx) =n
x=0etx(n
x
)px(1 p)nx
=n
x=0
(nx
)(et p)x(1 p)nx
= (et p+1 p)n = [(et 1)p+1]n
E(X) =ddt
mx(t)]
t=0= n(et p+1 p)n1et p
]t=0
= np
E(X2) =d
dt2mx(t)
t=0
=[n(et p+1 p)n1et p+n(n1)(et p+1 p)n2(et p)2]t=0
= np+n(n1)p2 = np+n2 p2np2Por tanto,
Var(X) = E(X2) [E(X)]2 = np+n2 p2np2 (np)2 = npnp2 = np(1 p) = npq.
Definicin 5. Sea Y1, ...,Yn una m.a. de una v-a Y .
12
El r-simo momento muesral especto al origen est dado por
Mr =1n
n
i=1
Y ri
El r-simo momento muestral respecto a la media muestral Y est dado por:
Mr =1n
n
i=1(YiY )r.
Notemos que
M1 =1n
n
i=1
Yi = Y y M1 = 0, M2 =1n
n
i=1(YiY )2.
Observaciones:
1. ndice de Asimera: La asimetra de una distribucin hace referencia al grado en que los datos se reparten
por encima y por debajo de la tendencia central.
Coeficiente de Asimetra:
g1 =33
=3
(2)3/2=
3(2)3/2
g1 =3(2)
3/2=
M3(M2)3/2
=
1n
n
i=1(YiY )3[
1n
n
i=1(YiY )2
]3/2a) g1 > 0: Asimetra positiva
b) g1 = 0: Simetra
c) g1 < 0: Asimetra negativa
2. ndice de Curtosis: La curtosis hace referencia al grado de apuntamiento de una distribucin.
Coeficiente de Curtosis:
g2 =443 = 4
(2)23
13
g24
(2)23 =
1n
n
i=1(YiY )4[
1n
n
i=1(YiY )2
]2 3
=
nn
i=1(YiY )4[
n
i=1(YiY )2
]2 3a) g2 > 0: Distribucin Leptocrtica
b) g2 = 0: Distribucin Mesocrtica
c) g2 < 0: Distribucin Platicrtica
g2 =0 5 curva normal
Teorema 4. Sea g(y) una funcin de una v.a. Y . Entonces la f.g.m para g(y) est dada por:
mg(y)(t) = E[etg(y)] =
y
etg(y)p(y) si Y es discreta
+ e
tg(y) f (y)dy si Y es continua
Teorema 5. Sea X una v.a. con f-g-m mx(t) entonces si Y = aX +b, a,b R se tiene que:
mY (t) = ebt mX (at).
Teorema 6. Supngase que X e Y son v.a. independientes y sean mx(t), my(t) sus respectivas f.g.m.
Entonces la f.g.m. para la v.a. Z = X +Y est dada por
mz(t) = mx(t)my(t).
Este teorema se puede generalizar a n v.a. independientes, es decir, si Y = x1 + x2 + ...+ xn y mxi(t) existe
para i = 1, ...,n, entonces
mY (t) =n
i=1
mxi(t) = mxi(t)mx2(t)...mxn(t)
14
Teorema 7. Si la f.g.m. de los v.a. X e Y son idnticos para todos los valaores de t en un intervalo alrededor de
t = 0, entonces la distribucin de X e Y deben ser idnticas.
Observacin: Relacin entre los momentos con respecto al origen y los momentos centrales
r =r
i=0(1)i
(ri
)iri
Ejemplo: Sean X e Y v.a. i.i.d. con f.g.m m(t) =(t) = (12t)3/2. Sea Z = 3x2y+5
(a) Hallar la f.g.m. de Z
(b) Hallar la E(Z) y Var(Z)
(a) mz(t) =z(t) = E[et(3x2y+5)]
= e5tmX (3t)mY (2t)
= e5t [12(3t)]3/2[12(2t)]3/2
= e5t(16t)3/2(1+4t)3/2
= e5t(12t24t2)3/2
(b) 1 =ddt
mz(t)t=0
= [5e5t(12t24t2)3/2 + e5t(3
2
)(248t)
(12t24t2)5/2]t=0
E(Z) = 1 = 5+3 = 8
E(Z2) = 2 =d2
dt2mz(t)
t=0
= [25e5t(12t24t2)3/2 +5e5t(32)(248t)(12t24t2)5/2
+15e5t(1+24t)(12t24t2)5/2 +3e5t24(12t24t2)5/2
+3e5t(1+24t)(5
2
)(248t)(12t24t2)7/2]t=0
= 25+15+15+72+15 = 142
Var(z) = E(z2) [E(z)]2 = 14264 = 78
15
1.2. Funcin de Variables Aleatorias
Sea Y una v.a., recordemos que U = h(Y ) es tambin una v.a., por se U una funcin de la v.a. Y . Ac nos
ocuparemos de determinar la distribucin de probabilidad de U .
Utilizaremos tres mtodos para hallar la distribucin de probabilidad de U = h(Y ):
1. Mtodo Directo: Este se aplica, por lo general, cuando la v.a. Y es continua. Si Y tiene funcin de densidad
de probabilidad f (y) y si U es alguna funcin de Y ,
FU (u) = P(U u).
Se puede calcular directamente mediante la integracin de f (y) en la regin para la cual U u. La funcin
de densidad de probabilidad de U se obtiene derivando FU (u).
Ejemplo: Suponga que Y tiene la funcin de densidad dada por
f (y) =
2y, 0 y 1
0, en otro caso
Encuentre la funcin de densidad de probabilidad de U = 3y1.
Solucin:
FU (u) = P(U u) = P(3Y 1 u)
= P(
Y u+13
)
u 2 Entoncesu+1
3> 1 y por lo tanto
FU (u) = P(
Y u+13
)= 1
16
1 u 2 FU (u) = P(
Y u+13
)= u+1
3
f (Y )dy
= u+1
30
2y dy = Y 2]u+1
30
=
(u+1
3
)2
FU (u) =
0 si u 2
y la funcin densidad de U es
fU (u) =d FU (u)
du=
29(u+1) si 1 u 2
0 en otro caso
Ejemplo: Sea U = h(Y ) = Y 2, donde Y v.a. continua con f.d.a. FY (y) y f.d.p. fY (y).
u 0, FU (u) = P(U u) = P(Y 2 u) = 0
u > 0, FU (u) = P(U u) = P(Y 2 u) = P(
u yu) = uu
f (y)dy
= FY (y)]uu
= FY (
u)FY (
u)
FU (u) =
FY (
u)FY (u), u > 0
0, e.o.c.
Como fU (u) = F U (u), tenemos
fU (u) =
1
2
u[ fY (
u)+ fy(u)], u > 0
0 e.o.c
2. Mtodo de las Transformaciones:
17
Este es un mtodo para formular la funcin de densidad de U = h(Y ), siempre y cuando h(y) sea creciente
o decreciente. Supongamos que fY (y) es la funcin de densidad de Y y que h(y) es creciente. Entonces,
u = h(y) creciente de y y = h1(u) es una funcin creciente de u, es decir,
u1 < u2 h1(u1)< h1(u2) (yi = h1(ui); i = 1,2)
Y1 < Y2
Ntese que si h(Y ) y h1(u) son funciones univaluadas de Y y u, respectivamente, la transformacin es uno
a uno.
Suponiendo la existencia de una transformacin uno a uno y adems que U = h(Y ) es una funcin creciente
y diferenciable de y, se puede determinar la f.d.p. de U de la siguiente manera:
FU (u) = P(U u) = P(h(Y ) u)
= P(Y h1(u))
Entonces,
FU (u) = FY (h1(u)).
Luego, al derivar respecto a u obtenemos:
fU (u) =dFU (u)
du=
ddu
[FY (h1(u))]
= fy(h1(u))d
du[h1(u)] como y = h1(u) dy = d[h1(u)]
= fY (h1(u))dydu
.
Si h(y) es decreciente de Y , el resultado es el mismo, excepto que la derivada de una funcin decreciente es
negativa. En general se tiene:
Teorema 8. Sea Y una v.a. continua con f.d.p. fY (y) y defnase U = h(Y ). Si u = h(y) y y = h1(u) son
funciones univaluadas, continuas y diferenciables y si u = h(y) es una funcin creciente o decreciente de y,
18
la f.d.p. de U est dada por
fU (u) = fY (h1(u))dydu
.La cantidad J =
dydu recibe el nombre de Jacobiano de la transformacin.
Ejemplo:
Sea Y una v.a. distribuida normalmente con media y desviacin estndar . Obtener la funcin de densidad
de probabilidad de U = exp(Y ).
Solucin:
La relacin u = exp(Y ) es una funcin creciente y diferenciable de Y . As
y = h1(u) = ln(u) ydydu
=1u,u > 0
por lo tanto
fU (u) = fY (h1(u))dydu
,como
Y N(,2) fY (y) = 12pi
exp{ 1
2
(y
)2},
tenemos que
fU (u) =12pi
exp{ 1
2
(ln(u)
)2},u > 0.
Ejemplos:
a) Sea Y una v.a. que tiene f.d.p. f (y) =
2y, 0 y 1
0, e.c.o.c
Sea U = 3Y +1, hallar fU (u), usando el mtodo de tansformacin.
Notemos que U = h(Y ) = 3Y +1 es creciente. Si u = 3y+1, entonces
h1(u) = y =u1
3y
dydu
=13,
19
luego
fU (u) = fY (h1(u))dydu = fY
(u1
3
)13=
23
(u1
3
)=
29(u1) si 1 u 4
b) Sea Y Uni f (0, pi), hallar f.d.p. de U = c Sen(Y ) donde c es cualquier constante positiva.
Notemos que u = c Sen(Y )es creciente en
(0,pi2
)es decreciente en
(pi2,pi)
Adems, y = h1(u) = Sen1(u/c) y
dydu
=1
1(
uc
)2 1c =
c2
c2u2 1c= (c2u2)1/2
Como
Y Uni f (0, pi) fY (y) =
1pi, si 0 y pi
0 e.c.o.c
Para (0,pi/2); f1(u) =1pi(c2u2)1/2, 0 < u c
Para(pi2,pi)
: f2(u) =1pi(c2u2)1/2, 0 u c
Por lo tanto, la funcin de probabilidad de U es:
fU (u) = f1(u)+ f2(u)
=2pi(c2u2)1/2, 0 u c.
3. Mtodo de las funciones generadoras de momentos.
Este momento se basa en el siguiente teorema de unicidad.
Teorema 9. Supngase que existen para cada una de las siguientes v.a. X y Y las funciones generadoras de
momentos dadas por mX (t) y mY (t), respectivamente. Si mX (t) = mY (T ) para todos los valores de t, entonces X y
Y tienen la misma distribucin de probabilidad.
20
Sea Y una v.a. normal con media y varianza 2, as
mY (t) = exp{
t+2t2
2
}.
Ejemplo:
Sea Y N(,2), demuestre que Z = Y
tiene una distribucin normal estndar.
Notemos que Z =1
Y +(
), as, por teorema
mz(t) = ed t my
(1
t)= e
texp{
t+2
(t
)22
}
mz(t) = exp{
t}
exp{
t+t2
2
}= exp
{ t
2
2
}= exp
{0 t+1
t2
2
}la cual corresponde a la f.g.m de una v.a. normal estndar, por lo tanto Z N(0,1)
Ejemplo: Sea Z una v.a. normal estndar. Demostrar que la distribucin de Y = Z2 es una distribucin Chi-
cuadrado con un grado de libertad.
(a) Usando el mtodo de la f.g.m: Debemos demostrar que my(t) = (12t)1/2, t < 12 .
Como
Z N(0,1), fZ(z) = 12pi
exp{ 1
2z2}.
mY (t) = E[ety] = E[etz2] = +
etz2
f (z)dz
= +
12pi
exp(t z2)exp{ 1
2z2}
dz
= +
12pi
exp{ 1
2
(z
(12t)1/2)2}
dz
= (12t)1/2 +
12pi(12t)1/2 exp
{12
(z
(12t)1/2)2}
dz
= (12t)1/2
21
(b) Usando el mtodo Directo:
Y = Z2,Z N(0,1) fZ(z) = 12pi
exp{ 1
2Z2}
fY (y) =1
2
y[ fz(
y)+ fz(y)],y > 0
=1
2
y
[12pi
exp{ 1
2y}+
12pi
exp{ 1
2y}]
, y > 0
=1
y
2piexp{ 1
2y}
=12pi
Y1/2 exp{ 1
2y}
=1
21/2pi
Y 1/21 exp{ 1
2y},
(12
)=pi
=1
21/2(
12
)Y( 121) exp{ 12
y}, y > 0
Esta es la f.d.p. de una v.a. chi-cuadrado con 1 grado de libertad.
Y = Z2 2(1)
(c) Usando el mtodo de las transformaciones:
Y = Z2,dy = 2z dzdzdy= 12z
= 12yPor teorema: fY (y) = fz(h1(y)).
dzdy y ademsy = |z| z =y
z < 0,y = z2 es decreciente: (1) fY (y) =12pi
exp{ 1
2Y}.
12
yy > 0
z > 0,y = z2 es creciente: (2) fY (y) =12pi
exp{ 1
2Y}.
12
yy > 0
Sumando (1) y (2):
fY (y) =22pi
exp{ 1
2Y}
12
y, Y > 0
=1
21/2pi
y12 exp
{ 1
2Y}, y > 0
22
pi=
(12
) Y 2(1) o Y Gamma
(=
12,= 2
)
1.3. Propiedades Reproductivas
Si dos o ms variables aleatorias independientes que tienen cierta distribucin se suman la variable aleatoria
que resulta tiene la distribucin del mismo tipo que la de los sumandos. Esta propiedad se llama Propiedad Re-
productiva.
Teorema 10. (Propiedad Reproductiva de la Distribucin Normal)
Sean X1,X2, ...,Xn n-variables aleatorias independientes con distribucin N(i,2i ), i = 1,2, ...,n. Sea Y =n
i=1Xi.
Entonces,
Y N(n
i=1
i,n
i=12i ).
Teorema 11. (Propiedad Reproductiva de la Distribucin de Poisson.)
Sean X1, ...,Xn v.a. independientes. Supongamos que Xi Poisson(i), i = 1,2, ...,n y sea Y =n
i=1Xi.
Luego, Y tiene una distribucin de Poisson con parmetro =n
i=1i.
Teorema 12. Sean X1, ...,Xk v.a. independientes tal que Xi 2(ni), i = 1,2, ...,k Entonces, Y =k
i=1Xi tiene una
distribucin Chi-cuadrado con n =k
i=1ni g.l.
Teorema 13. Sean X1, ...,Xk v.a. independientes, cada una con distribucin N(0,1). Entonces Y =k
i=1X2i tiene una
distribucin 2(k).
Ejemplos:
1.- Suponga que la f.g.m. de una v.a. X es de la forma mX (t) = (0 4et +0,6)8
a) Cual es la f.g.m. de la v.a. Y = 3x+2?
23
b) Hallar E(X).
Solucin:
a) mY (t) = e2tmX (3t) = e2t(0 4 e3t +0 6)8
b) E(X) =ddt
mX (t)]
t=0= 8(0 4et +0 6)70 4et
]t=0
= 80 4 = 3,2
X Bin(p = 0 4,n = 8)
E(X) = np = 3,2
2.- Varias resitencias, Ri, i = 1,2, ...,n, se ponen en serie en un circuito. Supngase que cada Ri N(10 ohms,0
16).
a) Si n = 5, cul es la probabilidad de que la resistencia del circuito sobrepase los 49 ohms?
b) Cul debe ser el valor de n de manera que la probabilidad de que la resistencia total exceda los 100
ohms sea aproximadamente 0.05?
Solucin: i = 10 ohms i = 1,2, ...,n y 2i = 0 16 = 0 4.
a) Por Propiedad Reproductiva
Y =5
i=1Ri N
(5
i=1i,
5
i=12i
)con =
5
i=1i = 50 y 2 =
5
i=12i = 0 8
P( 5i=1
Ri > 49)= P
(Y
>4950
0 8
)= P(Z >1 1180)
= P(Z 1 1180) = 0 8665
b) Y =n
i=1Ri, =
n
i=1i = n10, 2 =
n
i=12i = n(0 16) =
n(0 16).
24
P(Y > 100) 0 05
P(
Y
>100n10
0 4n) 0 05
P(
z >100n10
0 4n) 0 05 100n10
0 4n = 1 65
100n10 = 0,66n 10n = 0 066n
n+0 066n10 = 0 (n)2+0 066n10 = 0
n = 0 066(0 066)24(10)
2=0 0666 325
2
n = 3 1295 n 9 79
3.- Supngase que V , la velocidad de un objeto (cm/seg) tiene una distribucin N(0,4). Si K =m2
V 2 ergs. es la
energa cintica del objeto (donde m es la masa), encontrar la f.d.p. de K. Si m = 10 grs., calcular P(K 3).
Solucin:
V N(0,4) fV (v) = 12pi2
exp{ 1
2V 2
4
}
K =m2
V 2V 2 = 2m
KV =
2m
KdVdK= 12
(2m
K)1/2 2
m=
m2k
1m=
12m K
fK(k) = fV (h1(h)dVdK
= 2 12pi2exp{ 1
22K4m
}1
2m K
=1
2pi
2m Kexp{1
2 K
2m
},K > 0.
Haciendo Y =12
V,E(Y ) = 0 y Var(Y ) = 1; Y N(0,1).
Por teorema Y 2 =14
V 2 2(1)(
Gamma(
12,2))
25
Multiplicando por 2m : 2mY 2 =2m4
V 2 2mY 2 = m2
V 2 = K;
Como
Y 2 2(1) mY 2(t) = (12t)1/2
As
mK(t) = mY 2(2mt) = (12(2m)t)1/2
= (14mt)1/2
K Gamma(=
12,= 4m
)Para m = 10 tenemos que K Gamma
(=
12,= 40
), as:
P(K 3) = P(2mY 2 3)
= P(
Y 2 32m
)= P
(2(1)
320
)= P(2(1) 0 15) = 0 75
4.- Demuestre que la distribucin binomial tiene la propiedad reproductiva.
Solucin:
Supongamos que los Xi Bin(i, p) son independientes para i = 1,2, ...,k.
Veamos que Y = Xi+ ...+Xk tiene una distribucin binomial.
Sabemos que mXi(t) = (p et +q) i , para todo i = 1,2, ...,k
As
mY (t) =k
i=1mX i(t) =
k
i=1(p et +q) i = (p et +q)
k
i=1 i
Y Bin(
n =k
i=1 i, p
)
26
5.- Cierto proceso industrial produce un gran nmero de cilindros de acero cuyas longitudes estn distribuidas
normalmenmte con promedio de 3.25 pulgadas y desviacin estndar de 0.05 pulgadas. Si se elige al azar dos de
tales cilindros y se ponen extremo con extremo, cul es la probabilidad de que la longitud combinada sea menor
que 6.60 pulgadas?.
Yi : longitud del cilindro de acero i, i = 1,2.
Yi N(3 25 , (0,05)2)
Notemos que: E(Y1+Y2) = = 1+2 = 6 5 y Var(Y1+Y2) = 2 = 2(0 05)2
P(Y1+Y2 < 6 60) = P((Y1+Y2)
0
0 en cualquier otro punto
donde a y m son constantes positivas. Esta funcin de densidad se emplea con frecuencia como modelo de
la duracin de los sistemas fsicos. Suponga que Y tiene la densidad de Weibull dada.
a) Encuentre la funcin de densidad de U = Y m.
b) Determine E(Y k) para cualquier entero positivo k.
10. La velocidad de una molcula en un gas uniforme en equilibrio constituye una variable aleatoria V , cuya
funcin de densidad est dada por
f (v) = av2ebv2,v > 0
donde b = m/2kT y k,T y m denotan la constante de Boltzmann, la temperatura absoluta y la masa de la
molcula, respectivamente.
a) Deduzca la distribucin de W = mV 2/2, la energa cintica de la molcula.
b) Determine E(W ).
11. Una corriente elctrica fluctuante I se considera una variable aleatoria con distribucin uniforme en el inter-
valo (9,11). Si la corriente fluye por una resistencia elctrica de 2 ohms, determine la funcin de densidad
de probabilidad de la potencia P = 2I2.
29
12. Si Y1 y Y2 son variables aleatorias normales estndares e independientes, determine la funcin de densidad
de U = Y 21 +Y22 .
13. Sean Y1,Y2...Yn variables aleatorias normales independientes con media y varianza 2, y a1,a2, ...,an cons-
tantes conocidas. Determine la funcin de densidad de la combinacin lineal U = ni=1 aiYi.
14. Suponga que Y tiene una distribucin gamma en parmetros = n/2, para algn entero positivo n, y igual
a algn valor determinado. Demuestre que W = 2Y/ tiene una distribucin 2 con n grados de libertad
mediante el mtodo de las funciones generadoras de momentos.
15. Sean Y1 una variable binomial con n1 ensayos y probabilidad de xito p, y sea Y2 otra variable aleatoria
binomial con n2 ensayos y probabilidad de xito tambin dada por p. Si Y1 y Y2 son independientes, determine
la funcin de probabilidad de Y1+Y2.
16. Sea Y1 y Y2 dos variables aleatorias de Poisson independientes con medias 1 y 2, respectivamente. Deter-
mine la funcin de probabilidad de Y1+Y2.
17. Sean Y1,Y2...Yn variables aleatorias de Poisson independientes con medias 1,2, ...,n, respectivamente.
Determine la funcin de probabilidad de ni=1 Yi.
18. Demuestre que si Y1 tiene una distribucin 2, con v1 grados de libertad y Y2 tiene una distribucin 2 con
v2 grados de libertad, entonces U = Y1+Y2 tiene una distribucin 2 con v1+ v2 grados de libertad siempre
que Y1 y Y2 sean independientes.
30
Captulo 2
Distribuciones Continuas
Ac se presentan las distribuciones de probabilidad ms importante y sus propiedades bsicas. La notacin
utilizada se resume en la siguiente tabla:
Densidad de probabilidad f (x) P(a X b) = b
af (x)dx
Distribucin de probabilidad F(x) = P(X x) = x
f (t)dt
Media = E(X)
Varianza 2 = E((X)2)
Sesgo 1 = E((X)3)/3
Curtosis 2 = E((X)4)/4
Funcin generadora m(t) = E(etX )
31
2.1. Distribucin uniforme
Densidad de probabilidad f (x) =1
ba ,a x b
Distribucin de probabilidad F(x) =xaba ,a x b
Media =a+b
2
Varianza 2 =(ba)2
12
Sesgo 1 = 0
Curtosis 2 = 9/5
Funcin generadora m(t) =ebt eat(ba)t
Ejemplo 2.1.1. El tiempo de un viaje (ida y vuelta) de los camiones que transportan el concreto hacia una
construccin, est distribuido uniformemente en un intervalo de 50 a 70 minutos. Cul es la probabilidad de que
la duracin del viaje sea mayor a 65 min. si se sabe que la duracin del viaje es mayor a 55 min.?
X: El tiempo que dura un camin al transportar concreto en un viaje (ida y vuelta); X Uni f (50,70) y por tanto
f (x) =1
7050 =1
20para 50 x 70
y
F(x) =x50
20si 50 x 70
As,
P(X > 65 | X > 55) = P(X > 65)P(X > 55)
=P(1X 65)P(1X 55) =
1 6550201 555020
=13.
32
2.2. Distribucin exponencial
Densidad de probabilidad f (x) = ex =1
ex/, x 0, > 0, > 0
Distribucin de probabilidad F(x) = 1 ex
Media = 1/=
Varianza 2 = 1/2 = 2
Sesgo 1 = 2
Curtosis 2 = 9
Funcin generadora m(t) =
tEjemplo 2.2.1. En un muelle de recepcin llegan en promedio tres camiones por hora para ser descargados,
calcular las probabilidades de que el tiempo entre el arribo de sucesivos camiones sea:
1. menor que 5 minutos;
2. de al menos 45 minutos.
Notemos que = 3 es el nmero de llegadas promedio por hora, suponiendo que el nmero de llegadas sigue un
proceso Poisson con = 3, entonces =13
. Luego, definiendo
X : tiempo entre llegadas sucesivas; X exp(), por tanto,
(1)P(X < 5min) = P(X 0, > 0
Distribucin de probabilidad F(x) = P(X x) = x
f (x)dx
Media =
Varianza 2 = 2
Sesgo 1 = 2/
Curtosis 2 = 3(
1+2
)Funcin generadora m(t) = (1t)
2.4. Distribucin Beta
Densidad de probabilidad f (x) =(+)()()
x1(1 x)1, 0 x 1, ,> 0
Distribucin de probabilidad F(x) = P(X x) = x
f (x)dx
Media =
+
Varianza 2 =
(+)2(++1)
Sesgo 1 =2()++1
(++2)
Curtosis 2 =3(++1)[2(+)2+(+6)]
(++2)(++3)
f.g.m. : No existe en forma cerrada
34
2.5. Distribucin 2(Chi-cuadrado)
Densidad de probabilidad f (x) =ex/2x(n/2)1
2n/2(n/2), x 0, n {0,1,2,3, ...}
Distribucin de probabilidad F(x) = P(X x) = x
f (x)dx
Media = n
Varianza 2 = 2n
Sesgo 1 = 2
2/n
Curtosis 2 = 3+12n
Funcin generadora m(t) = (12t)n/2, t < 1/2
2.6. Distribucin normal
Densidad de probabilidad f (x) =1
2pie(x)2/22 , > 0
Distribucin de probabilidad F(x) = P(X x) = x
f (x)dx
Media =
Varianza 2 = 2
Sesgo 1 = 0
Curtosis 2 = 3
Funcin generadora m(t) = exp(
t+2t2
2
)Ejemplo 2.6.1. Se supone que los resultados de un examen tienen una distribucin normal con una media de 78
y una varianza de 36. Y N(78,36)
35
1. Cal es la probabilidad de que obtenga una nota mayor a 72?
P(Y > 72) = P(
Y
>7278
6
)= P(z >1)
= 1P(z 1)
= 10,1587 = 0,8413
2. Cal es la nota mnima aprobatoria si slo el 28% aprueba?
Debemos hallar c tal que P(Y > c) = 0,281
0,281 = P(Y > c) = P(
z >c78
6
) c78
6= 0,58 c = 81,48
2.7. Distribucin t de Student
Densidad de probabilidad f (x) =1npi
((n+1)/2)(n/2)
(1+
x2
n
)(n+1)/2, n {0,1,2,3, ...}
Distribucin de probabilidad F(x) = P(X x) = x
f (x)dx
Media = 0
Varianza 2 =n
n2 , n 3
Sesgo 1 = 0, n 4
Curtosis 2 = 3+6
n4 , n 5
Funcin generadora m(t):No existe
36
Captulo 3
Variables Aleatorias Bidimensionales
3.1. Distribuciones de probabilidad bivariadas.
Es posible definir diversas v.a. en el mismo espacio muestral.
Definicin 6. Si Y1,Y2 son dos v.a. discretas, la funcin de probabilidad conjunta (o bivariada) de Y1 y Y2 est
dada por
p(y1,y2) = P(Y1 = y1 , Y2 = y2) , < y1,y2
a) Encuentre la distribucin conjunta de Y1 y Y2.
b) Calcular F(1,2), F(1 5,2) y F(5,7)
Solucin:
) El espacio muestral consiste en que dos clientes eligen una de las 3 cajas, as # puntos es 33 = 9, y
S ={{c1,c1},{c1,c2},{c1,c3},{c2,c1},{c2,c2},{c2,c3},{c3,c1},{c3,c2},{c3,c3}
}
) Cada par {ci,c j}= {i, j} representa el evento en que el 1er cliente elige la caja i y el 2do cliente elige la caja
j; i, j = 1,2,3.
) Cada punto en S tiene la misma probabilidad 19
.
a) Debemos hallar p(y1,y2) donde y1,y2 = 0,1,2
Caja Seleccionada
Cliente 1 Cliente 2 Y1,Y2P(0,0) = P({c3,c3}) = 19 c1 c1 2 0P(0,1) = P({c2,c3} o {c3,c2}) = 29 c1 c2 1 1P(0,2) = P({c2,c2}= 19 c1 c3 1 0P(1,0) = P({c1,c3} o {c3,c1}) = 29 c2 c1 1 1P(1,1) = P({c1,c2} o {c2,c1}) = 29 c2 c2 0 2P(1,2) = P( /0) = 0 c2 c3 0 1
P(2,0) = P({c1,c1}= 19 c3 c1 1 0P(2,1) = P( /0) = 0 c3 c2 0 1
P(2,2) = P( /0) = 0 c3 c3 0 0
38
La tabla anterior se construy de la siguiente manera:
p(y1 = 0,y2 = 0) = P(Y1 = 0,Y2 = 0) = P({c3,c3}) = 19p(y1 = 0,y2 = 1) = P(Y1 = 0,Y2 = 1) = P({c2,c3} o {c3,c2}) = 19 +
19=
29
p(y1 = 0,y2 = 2) = P(Y1 = 0,Y2 = 2) = P({c2,c2}) = 19p(y1 = 1,y2 = 0) = P(Y1 = 1,Y2 = 0) = P({c1,c3} o {c3,c1}) = 2/9
p(y1 = 1,y2 = 1) = P({c1,c2} o {c2,c1}) = 2/9
p(y1 = 1,y2 = 2) = 0
p(y1 = 2,y2 = 0) = P({c1,c1}) = 19p(y1 = 2,y1 = 1) = p(y1 = 2,y1 = 2) = 0
Y1
p(y1,y2) 0 1 2 0 1/9 2/9 1/9Y2
1 2/9 2/9 0 2 1/9 0 0b) Calcular F(1,2), F(1 5,2) y F(5,7)
F(1,2) = P(Y1 1,Y2 2) = P( /0) = 0
F(1 5,2) = P(Y1 1 5,Y2 2) =15
Y1=0
2
Y2=0
p(y1,y2)
= p(0,0)+ p(0,1)+ p(0,2)+ p(1,0)+ p(1,1)+ p(1,2)
=19+
29+
19+
29+
29+0 =
89
F(5,7) = P(Y1 5,Y2 7)
=5
Y1=0
7
Y2=0
p(y1,y2) = 1.
39
Se dice que dos v.a. son continuas conjuntamente si su funcin de distribucin F(Y1,Y2) es continua en los dos
argumentos.
Definicin 8. Sean Y1,Y2 v.a. continuas con funcin de distribucin conjunta F(y1,y2). Si existe una funcin no
negativa f (y1,y2) tal que
F(y1,y2) = y1
y2
f (t1, t2)dt2 dt1
para toda < y1,y2 < +, entonces se dice que Y1 y Y2 son v.a. continuas conjuntas. La funcin f (y1,y2) se
llama funcin de densidad de probabilidad conjunta.
Propiedades de la distribucin acumulada bivariada
1. Si Y1 y Y2 son v.a. con funcin de distribucin conjunta F(y1,y2), entonces
(1.1) F(,) = F(,y2) = F(y1,) = 0
(1.2) F(+,+) = 1
(1.3) Si y1 y1 y y2 y2, entonces
F(y1,y2)F(y1,y2)F(y1,y2)+F(y1,y2) 0
2. Si Y1 y Y2 son v.a. continuas conjuntas con una funcin de densidad conjunta dada por f (y1,y2), entonces:
(2.1) f (y1,y2) 0 para toda y1,y2(2.2)
+
+
f (y1,y2)dy1 dy2 = 1
Observaciones:
1. Sean X y Y v.a. continuas, si existe f (x,y) se cumple para cualquier a, b, c, d que
P(a X b,c Y d) = b
a
dc
f (x,y)dy dx
40
2. La funcin de densidad bivariada se encuentra diferenciando F(x,y) con respecto a x e y, es decir, f (x,y) =
2F(x,y)x y
.
Ejemplos:
1. Sean Y1 y Y2 dos v.a. continuas f.d.p.c. dada por
f (y1,y2) =
(y1+ y2) ;0 y1 1,0 y2 1
0, e.c.o.c.
z = y1+ y2, entonces si y1 = 0,z = y2 y si y2 = 0,z = y1.
Determinar la funcin de distribucin acumulativa conjunta, y obtener:
P(Y1 1/2, Y2 3/4)
Calcular P(Y1+Y2 1).
Funcin de distribucin acumulativa conjunta: para 0 y1 1,0 y2 1
* F(y1,y2) = y1
0
y20(u+ v)dv du =
y10
((uv+
V 2
2
)]y20
du
= y1
0
(u y2+ y22
2
)du =
(u2
2 y2+ y
22
2u]y1
0
=y212 y2+ y
22
2y1 = y1 y2
(y1+ y2
2
)* P
(Y1 12 , Y2
34
)= 1/2
0
3/40
f (y1,y2)dy2 dy1
= F(
12,
34
)=
12 3
4
( 12 +
34
2
)=
316
(108
)=
1564
* P(Y1+Y2 1)
= 1
0
1y10
(y1+ y2)dy2 dy1
= 1
0
(y1 y2+
y222
]1y10
dy1
= 1
0
[y1(1 y1)+ (1 y1)
2
2
]dy1 =
12
10(2y12y2+ y212Y1+1)dy1
=12
10(1 y21)dy1 =
12
(y1 y
31
3
)]10=
12
(1 1
3
)=
12 2
3=
13.
41
2. La densidad conjunta de
Y1: Nivel de gasolina que alcanza el tanque cuando se abastece a principio de semana y
Y2: Proporcin del combustible que vende durante la semana, est dada por:
f (y1,y2) =
3y1, 0 y2 y1 1
0, e.c.o.c.
a) Hallar F(1/2,1/3)
b) Calcular P(y2 y12 )
F(1/2,1/3) = P(Y1 12 ,Y2 13)
F(1/2,1/3) =
(I)
1/20
y10
3y1 dy2 dy1 1/2
1/3
y11/3
3y1 dy2 dy1
(II) 1/3
0
y10
3y1dy2dy1+ 1/2
1/3
1/30
3y1 dy2 dy1
(I) : F(1/2,1/3) = 1/2
03y2dy1
1/21/3
3y1(y2]y11/3 dy1
= y31
]1/20 1/2
1/33y1
(y1 13
)dy1
=18[
y31y212
]1/21/3
=18[
18 1
8 1
27+
118
]=
18+
127 1
18=
4861442163888
= 0 10648
P(
Y2 Y12)= 1
0
y1/20
3y1 dy2 dy1
= 1
0
32
y21dy1 =12
y31
]10=
12.
3. En una empresa hay 9 ejecutivos (4 casados, 3 solteros, 2 divorciados). Tres de ellos sern seleccionados al
azar para un ascenso. Si Y1 : # de ejecutivos casados y Y2 : # de ejecutivos solteros entre los tres elegidos para
el cargo, hallar la distribucin de probabilidad conjunta de Y1,Y2.
Y1,Y2 son v.a. discretas as p(y1,y2) = P(Y1 = y1,Y2 = y2); y1,y2 = 0,1,2,3.
42
El nmero de formas de escoger 3 personas de 9 es(9
3
)= 84, es decir #S = 84.
p(0,0) = P(Y1 = 0,Y2 = 0) =P() = 0
p(1,0) = P(Y1 = 1,Y2 = 0) = P(1 casado, 0 soltero, 2 divorciados)
=
(41
)(30
)(22
)(93
) = 484
p(1,1) = P(Y1 = 1,Y2 = 1) = P(1c,1s,1d) =
(41
)(31
)(21
)(93
) = 2484
p(1,2) = P(1c,2s,0d) =
(41
)(32
)(20
)(93
) = 1284
p(1,3) = P( /0) = 0
p(2,0) = p(2c,0s,1d) =
(42
)(30
)(21
)(93
) = 1284
p(2,1) = P(2c,1s,0d) =
(42
)(31
)(20
)(93
) = 1884
p(2,2) = P(2,3) = P( /0) = 0
p(3,0) = P(3c,0s,0d) =
(43
)(30
)(20
)(93
) = 484
p(3,1) = p(3,2) = p(3,3) = P( /0) = 0
P(0,1) =
(40
)(31
)(22
)84
=3
84
P(0,2) =
(40
)(32
)(21
)84
=6
84
P(0,3) =
(40
)(33
)(20
)84
=1
84
Y20 1 2 3
0 0 3/84 6/84 1/84
Y1 1 4/84 24/84 12/84 0
2 12/84 18/84 0 0
3 4/84 0 0 0
43
3.2. Distribuciones de Probabilidad Marginal
Definicin 9. a) Sean Y1 y Y2 v.a. conjuntas discretas con funcin de probablidad conjunta p(y1,y2). Entonces,
las funciones de probabilidad marginal de Y1 y Y2, respectivamente, estn determinadas por:
p1(y1) =y2
p(y1,y2) y p2(y2) =y1
p(y1,y2)
b) Sean Y1 y Y2 v.a. continuas con funcin de densidad conjunta f (y1,y2). Entonces, las funciones de densidad
marginal de Y1 y Y2, respectivamente, estn determinadas por:
f1(y1) = +
f (y1,y2)dy2 y f2(y2) = +
f (y1,y2)dy1
Ejemplo: Usar los ejemplos anteriores para hallar las funciones marginales de y1 y y2.
En el ejemplo 1: f (y1,y2) = y1+ y2,0 y1,y2 1. Y1,Y2 son v.a. continuas
f1(y1) = 1
0(y1+ y2)dy2 =
(y1y2+
y222
]10= y1+
12
; 0 y1 1
f2(y2) = 1
0(y1+ y2)dy1 =
(y212+ y1y2
]10=
12+ y2; 0 y2 1
En el ejemplo de las cajas registradoras, Y1,Y2 son discretas.
p(y1) = y2
p(y1,y2) =
4/9 si y1 = 0
4/9 si y1 = 1
1/9 si y1 = 2
p(y2) =
49
, y2 = 0
49
, y2 = 1
19
, y2 = 2
En el ejemplo 2:
f (y1,y2) =
3y1 , 0 y2 y1 1
0 , e.c.o.c.
f1(y1) = y1
03y1 dy2 = 3y1 y2
]y10= 3y21; 0 y1 1
44
f2(y2) = 1
y23y1 dy1 =
32
y21
]1y2
=32 3
2y22 =
32[1 y22]; 0 y2 1
En el ejemplo 3: Y1 Y2 son v.a. Discretas.
p1(y1) = y2
p(y1,y2) =
1084
, y1 = 0
4084
, y1 = 1
3084
, y2 = 2
484
, y1 = 3
p2(y2) = y1
p(y1,y2) =
2084
, y2 = 0
4584
, y2 = 1
1884
, y2 = 2
184
, y2 = 3
3.3. Distribuciones de Probabilidad Condicional
Recordemos que la Ley Multiplicativa proporciona la probabilidad de la interseccin AB como:
P(AB) = P(A)P(B|A).
Ahora, si consideramos los eventos (Y1 = y1) y (Y2 = y2), representados por el evento bivariable (y1,y2):
p(y1,y2) = p1(y1) p(y2|y1) = p2(y2) p(y1|y2).
Definiciones:
45
1. Si Y1 y Y2 son v.a. discretas conjuntas con f.d.p. conjunta p(y1,y2)) y f.d.p. marginal p1(y1) y p2(y2),
respectivamente, entonces la Funcin de probabilidad discreta condicional de Y1, dado Y2, es
p(y1|y2) = P(Y1 = y1|Y2 = y2) = P(Y1 = y1,Y2 = y2)P(Y2 = y2) =p(y1,y2)p2(y2)
,
siempre y cuando p2(y2)> 0.
2. Si Y1 y Y2 son v.a. continuas conjuntas con f.d. conjunta f (y1,y2), entonces la funcin de distribucin
condicional de Y1, dado Y2 = y2 es
F(y1|y2) = P((Y1 y1)|Y2 = y2).
Esta es una funcin de y1 para un valor fijo de y2.
3. Sea Y1 y Y2 v.a. continuas conjuntas con densidad conjunta f (y1,y2) y densidad marginales f1(y1) y f2(y2)
respectivamente. Para cualquier y2 tal que f2(y2)> 0, la densidad condicional de Y1, dado Y2 = y2, est dada
por
f (y1|y2) = f (y1,y2)f2(y2) .
Anlogamente para cualquier y1 tal que f1(y1) > 0, la densidad condicional de Y2, dado Y1 = y1, est dada
por
f (y2|y1) = f (y1,y2)f1(y1) .
Observemos que:
F(y1|y2) = P(Y1 y1|Y2 = y2) = y1
f (y1|y2)dy1
F(y2|y1) = P(Y2 y2|Y1 = y1) = Y2
f (y2|y1)dy2.
Ejemplos:
4. En una caja se tiene 4 fichas, cada una marcada con dos nmeros as, (3,4), (1,0), (1,4), (2,0). Se definen
las v.a.
46
Y1 : El primer nmero de una ficha extrada al azar.
Y2 : El segundo nmero de esa ficha.
La f.d.p. conjunta de Y1 y Y2 est dada por
p(Y1,Y2) =14
para (Y1,Y2) = (3,4);(1,0);(1,4);(2,0)
Calcular las probabilidades condicionales de Y1 dados los valores de y2:
Solucin:
p1(y1) =y2
p(y1,y2) = p(y1,0)+ p(y1,4) =
p(1,0)+ p(1,4), y1 = 1
P(2,0), y1 = 2
p(3,4), y1 = 3
p2(y2) =y1
p(y1,y2) = p(1,y2)+ p(2,y2)+ p(3,y2) =
p(1,0)+ p(2,0) , y2 = 0
p(1,4)+ p(3,4) y2 = 4
* Las marginales estn dadas por:
p1(y1) =y2
p(y1,y2) =
1/2 , y1 = 1
1/4 y1 = 2
1/4 y1 = 3
=
1/2 , y1 = 1
1/4 , y2 = 2,3
p2(y2) =y1
p(y1,y2) =
1/2 , y2 = 0
1/2 , y2 = 4=
{12
, y2 = 0,4
* Las condicionales de Y1 dado y2:
Para y2 = 0
p(Y1 = 1|y2 = 0) = p(1,0)p2(0) =1/41/2
=12
p(Y1 = 2|y2 = 0) = p(2,0)p2(0) =1/41/2
=12
Para y2 = 4
p(Y1 = 1|y2 = 4) = p(1,4)p2(4) =1/41/2
=12
; P(Y1 = 3|Y2 = 4) = p(3,4)p2(4) =12
47
p(y1|y2) =
p(y1|y2 = 0) = 1/2 para y1 = 1,2
p(y1|y2 = 4) = 1/2 para y1 = 1,3
* La condicional de Y2 dado y1:
p(y2|y1) =
p(y2|y1 = 1) = 1/2 para y2 = 0,4
p(y2|y1 = 2) = 1 para y2 = 0
p(y2|y1 = 3) = 1 para y2 = 4
p(y2 = 0|y1 = 1) = p(1,0)p1(0) =1/41/2
=12
p(y2 = 4|y1 = 1) = p(1,4)p1(1) =1/41/2
=12
p(y2 = 0|y1 = 2) = p(2,0)p1(2) =1/41/4
= 1
p(y2 = 4|y1 = 3) = p(3,4)p1(3) =1/41/4
= 1
5. Dada la siguiente funcin de densidad de probabilidad conjunta
f (y1,y2) =
6(1 y2) , 0 y1 y2 1
0 , e.c.o.c.
a) Hallar las funciones de densidad marginales de Y1 y Y2.
b) Encontrar P(Y2 1/2|Y1 3/4)
c) Encontrar la funcin de densidad condicional de Y1 dado Y2 = y2
d) Encontrar la funcin de densidad condicional de Y2 dado Y1 = y1
e) Encontrar P(Y2 3/4|Y1 = 1/2)
Solucin:
48
a) f1(y1) = 1
y16(1 y2)dy2 =
(6y2 62y
22
]1y1
= 636y1+ 62y21 = 36y1+3y21
= 3(y212y1+1) = 3(y11)2,0 y1 1.
f2(y2) = y2
06(1 y2)dy1 = 6y1(1 y2)
]y20= 6y2(1 y2),0 y2 1.
d) f (y2|y1) = f (y1,y2)f1(y1) =6(1 y2)3(y11)2 =
2(1 y2)(1 y1)2 , y1 y2 1
c) f (y1|y2) = f (y1,y2)f2(y2) =6(1 y2)6(1 y2) =
1y2, 0 y1 y2
e) P(
Y2 34Y1 = 1/2) = 13/4 f
(y2|y1 = 12
)dy2
= 1
3/48(1 y2)dy2 = (8y24y22
]13/4
= 46+ 94
=14
b) P(
Y2 12Y1 34
)=
P(
Y1 34 ,Y2 12
)P(
Y1 34)
P(
Y1 34 ,Y1 12
)= 1/2
0
y20
6(1 y2)dy1 dy2
= 1/2
06y1(1 y2)
]y20
dy2 = 1/2
0(6y26y22)dy2
=
(62
y2263
y32
]1/20=
34 2
8=
12
P(
Y1 34)
= 3/4
0f1(y1)dy1 =
3/40
3(y11)2dy1
= 1/41
3u2du = u3]1/41
=
(14
)3 (1)3
= 164
+1 =6364
P(Y2 12Y1 34 ) = 1/263/64 = 642(63) = 3263 .
49
Otra forma:
P(
Y1 34 ,Y2 12
)= 1/2
0
1/2y1
6(1 y2)dy2 dy1 = 1/2
06(
y2 y22
2
)]1/2y1
dy1
= 1/2
0
[6(
38
)6(
y1 y21
2
)]dy1 =
[94
y16(
y212 y
31
6
)]1/20
=986(
18 1
48
)=
98 6
8+
18=
48=
12
3.4. Variables aleatorias independientes
Recordemos que dos eventos A y B son independientes si P(AB) = P(A).P(B)
Definicin 10. Si Y1 tiene una funcin de distribucin F1(y1), Y2 tiene una funcin de distribucin
F2(y2), y Y1,Y2 tienen una funcin de distribucin conjunta F(y1,y2). Entonces Y1 y Y2 se dicen inde-
pendientes si y slo si F(y1,y2) = F1(y1).F2(y2) para cada (y1,y2) de nmeros reales.
Si Y1 y Y2 son v.a. discretas con f.d.p. conjunta p(y1,y2) y funciones marginales p1(y1) y p2(y2),
respectivamente, entonces la relacin anterior es verdadera si y slo si p(y1,y2) = p1(y1).p2(y2),
los # reales (y1,y2).
Si Y1 y Y2 son v.a. discretas con f.d.p. conjunta f (y1,y2) y las densidades marginales f1(y1) y f2(y2),
respectivamente, la relacin anterior es verdadera si y slo si f (y1,y2) =) f1(y1). f2(y2), los #
reales (y1,y2).
Si Y1 y Y2 no son independientes, se dice que son dependientes.
Ejemplos: Usemos los ejemplos 3 y 5 para ver si las v.a. Y1 y Y2 son independientes o no.
Ejemplo 3:
p(1,1) =2484
= 0,2857, p1(1) =1084
y p2(1) =4584
p1(1).p2(1) =4507056
= 0 064 Y1 y Y2 no son independientes.
50
Ejemplo 5:
f (y1,y2) = 8(1 y2) 0 y1 y2 1
f1(y1) = 3(Y11)2
f2(y2) = 6y2(1 y2), as f1(y1). f2(y2) = 18y2(1Y2)(y11)2.
Como f1(y1). f2(y2) 6= f (y1,y2),Y1 y Y2 son dependientes
Ejemplo 6:
En un supermercado dos clientes estn esperando para pagar sus compras en el mostrador I y un cliente en el
mostrador II. Sean Y1 y Y2 el # de clientes que compran ms de 50 dlares en comestibles en los mostradores
respectivos. Suponga que Y1 y Y2 son dos v.a. binomiales independientes con la probabilidad de que un cliente
gaste ms de 50 dlares igual a 0.2 para el mostrador I y 0.3 para el mostrador II.
a) Obtener la distribucin de probabilidad conjunta para Y1 y Y2.
b) Calcular la probabilidad de que no ms de uno de los tres clientes gaste ms de 50 dlares.
Solucin:
Yi : Nro. de clientes que compran ms de 50$ en el mostrador i, i = 1,2 y1 = 0,1,2;y2 = 0,1
y1 1 0 0
y2 0 1 0
Y1 Bin(2,0 2) p1(y1) =( 2
y1
)(0 2)Y1(0 8)2y1 , y1 = 0,1,2
Y2 Bin(1,0 3) p2(y2) =( 1
y2
)(0 3)Y2(0 7)1y2 , y2 = 0,1
a) p(y1,y2) = p1(y1).p2(y2)
=( 2
y1
)(0 2)y1(0 8)2y2( 1y2)(0 3)y2(0 7)1y2
51
b) B = no ms de uno de los 3 clientes gasten ms de 50$
P(B) = P(Y1 = 0,Y2 = 0)+P(Y1 = 0,Y2 = 1)+P(Y1 = 1,Y2 = 0)
= p(0,0)+ p(0,1)+ p(1,0)
=(2
0
)(0 8)2(10)(0 7)+ (20)(0 8)2((11)(0 3)+ (21)(0 2)(0 8)
= (0 64)(0 7)+(0 64)(0 3)+2 (0 112)
= 0 448+0 192+0 224 = 0 864
Ejemplo 7: Sea
f (y1,y2) =
4y1y2, 0 y1 1;0 y2 1
0, e.c.o.c
Demuestre que Y1 y Y2 son independientes.
Solucin:
f1(y1) = 1
04y1y2 dy2 = 4y1
y222
]10= 2y1,0 y1 1
f2(y2) = 1
04y1y2 dy1 = 4y2
y212
]10= 2y2,0 y2 1
por lo tanto
f (y1,y2) = f1(y2). f2(y2)
Teorema 14. Sean Y1 y Y2 v.a. con una densidad conjunta f (y1,y2), que es positiva si y slo si a y1
b,c y2 d, para las constantes a,b,c y d, y f (y1,y2) = 0 en cualquier otro punto. Entonces Y1 y Y2 son v.a.
independientes si y slo si f (y1,y2) = g(y1).h(y2) en donde g(y1) es slo una funcin no negativa de y1 y h(y2) es
slo una funcin no negativa de y2.
Ejemplos:
52
1. Y1 y Y2 tienen a f (y1,y2) =
2y1, 0 y1 1;0 y2 1
0, e.c.o.c. Y1 y Y2 son independientes?
Observamos que
f (y1,y2) es positiva 0 y1 1; y 0 y2 1
f (y1,y2) = g(y1).h(y2) en donde g(y1) = 2y1 y h(y2) = 1. Luego, por teorema, Y1 y Y2 son indepen-
dientes.
2. Y1 y Y2 tienen a f (y1,y2) =
3y1, 0 y2 y1 1
0, e.c.o.c.
Ac Y1 y Y2 son dependientes, ya que f (y1,y2) es positiva 0 y2 y1 1 y no existen constantes a,b,c y
d tales que la densidad sea positiva en la regin a y1 b;c y2 d.
No se puede aplicar el teorema.
3.5. Valor Esperado de una Funcin de Variables Aleatorias
Definicin 11. Sea g(Y1,Y2, ...,Yk) una funcin de las v.a. Y1, ...,YK , que tienen una funcin de probabilidad
p(y1,y2, ...,yk) . Entonces, el valor esperado de g(Y1,Y2, ...,Yk) es
E[g(Y1, ...,Yk)] =yk
y2y1
g(y1, ...yk).p(y1, ...,yk).p(y1, ...,yk)
Si Y1, ...,Yk son v.a. continuas con la funcin de densidad conjunta f (y1, ...yk), entonces
E[g(Y1, ...,Yk)] =
Yk...
Y2
Y1
g(y1, ...,yk). f (y1, ...,yk)dy1 dy2...dyk
Teoremas:
1. Sea c una constante. Entonces E(c) = c.
53
2. Sea g(y1,y2) una funcin de v.a. Y1 y Y2, y sea c una constante. Entonces
E[c g(y1,y2)] = cE[g(y1,y2)].
3. Sean Y1 y Y2 v.a. con f.d.d. conjunta f (y1,y2), y sean g1(Y1,Y2),g2(Y1,Y2), ...,gk(Y1,Y2) funciones de Y1 y Y2.
Entonces
E[g1(Y1,Y2)+ ...+gk(Y1,Y2)] = E[g1(Y1,Y2)]+ ...+E[gk(Y1,Y2)]
4. Sean Y1 y Y2 v.a. independientes con f.d.d. conjunta f (y1,y2). Sea g(Y1) y h(Y2) funciones de Y1 y Y2,
respectivamente. Entonces
E]g(Y1).h(Y2)] = E[g(Y1)].E[h(Y2)]
siempre y cuando los valores esperados existen.
Ejemplo 8: En cierto proceso para elaborar una sustancia qumica, el producto resultante contiene dos tipos de
impurezas. En una muestra especfica de este proceso, Y1 denota una proporcin de impureza en la muestra y Y2
la proporcin de la impureza tipo I entre todas las impurezas encontradas. Supngase que se puede elaborar un
modelo de la distribucin conjunta de Y1 y Y2 mediante la funcin de densidad de probabilidad siguiente:
f (y1,y2) =
2(1 y1); 0 y1 1;0 y2 1
0 en c.o.c.
a) Encuentre el valor esperado de la proporcin de impurezas tipo I en la muestra (Por definicin).
b) Entontrar E(Y1,Y2) (usando teoremas).
Solucin:
a) Ntese que
Y1: Es la proporcin de impurezas en la muestra, y
Y2: Es la proporcin tipo I en relacin al total de las impurezas en la muestra.
As,
54
Y1 Y2: Es la proporcin de impurezas tipo I en la muestra entera,
entonces debemos hallar E(Y1,Y2).
E(Y1,Y2) = 1
0
10
y1y2,2(1 y1)dy2 dy1 = 2 1
0Y1
y222(1 y1)]10dy1 =
10
y1(1 y1)dy1
=y212 y
31
3
]10=
12 1
3=
16
Se espera que la muestra contenga 16
de impureza tipo I.
b) f (y1,y2) es positiva en 0 y1 1;0 y2 1 (se puede usar teorema).
f1(y1) = 1
02(1 y1)dy2 = 2y2(1 y1)]10 = 2(1 y1); 0 y1 1
f2(y2) = 1
02(1 y1)dy1 = 2y1 y21]10 = 1; 0 y2 1.
Luego,
E(Y1) = 1
0Y1 2(1 y1)dy1 = 2y
21
2 2y
31
3]1
0= 1 2
3=
13
E(Y2) = 1
0y2 dy2 =
y2
2
]10=
12
como f (y1,y2) = f (y1) f (y2), entonces Y1 y Y2 son independientes.
E(Y1,Y2) = E(Y1).E(Y2) =13.12=
16
Ejemplo 9: Sean Y1,Y2 v.a. con f.d. conjunta
f (y1,y2) =
3y1, 0 y2 y1 1
0, e.c.o.c
(dada en el ejemplo 2). Consideremos la v.a. Y1Y2 que denota la cantidad proporcional de gasolina que queda al
final de la semana. Hallar E(Y1Y2).
Solucin: Haciendo g1(Y1,Y2) = Y1 y g2(Y1,Y2) =Y2 tenemos por teorema que:
E[g1(Y1,Y2)+g2(Y1,Y2)] = E[g1(Y1,Y2)]+E[g2(Y1,Y2)]
55
es decir
E(Y1Y2) = E(Y1)+E(Y2) = E(Y1)E(Y2).
Ahora
E(Y1) = +
y1 f1(y1)dy1 = 1
0y1(3y21)dy1
=34
y41
]10=
34
E(Y2) = +
y2 f2(y2)dy2 = 1
0y2
[32(1 y22)
]dy2
=32
y222 3
2y424
]10=
34 3
8=
38
E(Y1Y2) = 34 38=
38.
Otra for ma de calcular E(Y1) y E(Y2) sin usar las marginales
E(Y1) = +
+
y1 f (y1,y2)dy2 dy1 = 1
0
y10
y1(3y1)dy2 dy1
= 1
03y21(y2)
]y10= 1
03y31dy1 =
34
y41
]10=
34
E(Y2) = +
+
y2 f (y1,y2)dy2 dy1 = 1
0
y10
y2(3y1)dy2 dy1
= 1
03y1
y222
]y10
dy1 = 1
0
32
y31dy1 =32
y414
]10=
38
3.5.1. Valores Esperados Condicionales
Definicin 12. Si Y1 y Y2 son dos v.a. cualesquiera, el valor esperado condicional de Y1 dado que Y2 = y2, se
define como:
E[Y1|Y2 = y2] = +
y1 f (y1|y2)dy si Y1 y Y2 son conjuntamente continuas, y
E[Y1|Y2 = y2] =y1
y1 p(y1|y2) si Y1 y Y2 son conjuntamente discretas
56
3.5.2. La Covarianza de dos Variables Aleatorias
Definicin 13. La covarianza de Y1 y Y2 se define como el valor esperado de (Y11)(Y22). En la notacin
de la esperanza, la covarianza ser:
Cov(Y1,Y2) = E[(Y11)(Y22)]
en donde
E(Y1) = 1 y E(Y2) = 2.
Definicin 14. El coeficiente de correlacin lineal de la poblacin, , se relaciona con la covarianza y se define
como
=Cov(Y1,Y2)
12,
donde 1 y 2 son las desviaciones estndar de Y1 y Y2, respectivamente.
Observacin: El coeficiente de correlacin satisface la desigualdad 1 1.
1 o 1 implica una correlacin perfecta con todos los puntos sobre una lnea recta.
= 0 implica covarianza igual a cero y ninguna correlacin
positivo indica que Y2 crece cuando Y1 crece.
negativa indica que Y2 decrece cuando Y1 crece.
Teorema 15. Sean Y1 y Y2 dos v.a. con una funcin de densidad conjunta f (y1,y2). Entonces
Cov(Y1,Y2) = E(Y1Y2)E(Y1).E(Y2)
En el ejemplo 8, la covarianza de Y1 y Y2 es:
Cov(Y1,Y2) = E(Y1Y2) = E(Y1).E(Y2)
=16 1
3.12= 0
57
Teorema 16. Si Y1 y Y2 son dos v.a. independientes, entonces
Cov(Y1,Y2) = 0.
Observacin: El recproco del teorema anterior no es verdadero.
Ejemplo 10: Sean Y1 y Y2 dos v.a. discretas con la distribucin de probabilidad conjunta dada por:
Y1Y2 1 0 1
1 1/16 3/16 1/160 3/16 0 3/161 1/16 3/16 1/16
Demuestre que Y1 y Y2 son dependientes pero con la covarianza cero.
p1(y1) =
5/16 si y1 =16/16 si y1 = 0
5/16 si y1 = 1
p2(y2) =
5/16 si y2 =16/16 si y2 = 0
5/16 si y2 = 1
Notemos que p(1,1) = 166= 5
16.
516
= p1(1).p2(1)
Y1 y Y2 son dependientes.
Ahora,
E(Y1,Y2) =y1y2
Y1 Y2 p(y1,y2)
= (1)(1) 116
+(0)(1) 316
+(1)(1) 116
+(1)(0) 316
+(0)(0)(0)+(1)(0)3
16+
+(1)(1) 116
+(0)(1)316
+(1)(1)116
=1
16 1
16 1
16+
116
= 0
E(Y1) = (1)5/16+(0)6/16+(1)5/16 = 0 y E(Y2) = 0
Cov(Y1,Y2) = E(Y1Y2)E(Y1).E(Y2) = 0.
58
3.5.3. Valor esperado y varianza de funciones lineales de v.a.
Consideremos la siguiente funcin lineal
U1 = a1Y1+a2Y2+ ...+anYn =n
i=1
aiY1
donde, a1,a2, ...,an son constantes y Y1,Y2, ...,Yn son variables aleatorias
Teorema 17. Sean Y1, ...Yn y X1, ...,Xm v.a. con E(Yi) = i y E(X j) = j. Definamos
U1 =n
i=1
aiYi, U2 =m
j=1
b j X j
para las constantes a1, ...,an,b1, ...bm. Entonces se cumple lo siguiente:
a) E(U1) =n
i=1ai i
b) Var(U1) =n
i=1a2i Var(Yi)+2
i< jaia jCov(Yi,Yj) en donde la suma doble se forma (i, j) con i < j
c) Cov(U1,U2) =n
i=1
mj=1
aib j Cov(Yi,X j).
Para U1 = aY y U2 = bX se tiene Cov(aY,bX) = abCov(Y,X).
Ejemplo: Sean Y1,Y2 y Y3 v.a. en donde
E(Y1) = 1,E(Y2) = 2,E(Y3) =1; Var(Y1) = 1,Var(Y2) = 3,Var(Y3) = 5,
Cov(Y1,Y2) =4,Cov(Y1,Y3) = 1/2,Cov(Y2,Y3) = 2
Hallar el valor esperado y la varianza de U = Y12Y2+Y3.
Solucin: a1 = 1, a2 =2, a3 = 1
E(U) = E(Y1)+(2)E(Y2)+E(Y3) = 122+(1) =4,
59
Var(U) = a21Var(Y1)+a22Var(Y2)+a
23Var(Y3)+2a1a2Cov(Y1,Y2)+2a1a3Cov(y1,y3)
+2a2a3Cov(Y2,Y3)
= (1)2(1)+(2)2(3)+(1)2(5)+(2)(1)(2)(4)+(2)(1)(1)(1/2)+(2)(2)(1)(2)
= 27.
3.6. Ejemplos
1. Suponga que Y1,Y2 estn distribuidas uniformemente en el tringulo cuyos vrtices son (-1,0); (1,0) y
(0,1). Calcular:
a) P(
Y1 34 ,Y2 34
)b) P(Y1Y2 0).
Solucin:
Ntesequeelreadeltringuloes12
b.h =12(2)(1) = 1.
Ahora,
1 Y1 0 , Y2 1+Y1, y
0 Y1 1 , Y2 1Y1
f (y1,y2) =
1, y2 y1 1 , 1 Y1 0 y
y2+ y1 1 , 0 Y1 1
0 e.c.o.c.
a) P(
Y1 34 ,Y2 34
)= 3/4
0
1/4Y21
dy1 dy2+ 3/4
1/4
1y10
dy2 dy1
= 3/4
0
(54 y2
)dy2+
3/41/4
(1 y1)dy1
=
[54
y2 y22
2
]3/40+
[y1 y
21
2
]3/41/4
60
b) P(Y1Y2 0)
= 1/2
0
1Y2Y2
dy1 dy2
= 1/2
0(12y2)dy2 =
[y2 y22
]1/20=
12 1
4=
14
2. En el ejemplo anterior:
a) Obtener las funciones de densidad marginales para Y1 y Y2.
b) Calcular P(Y2 >12|Y1 = 1/4).
c)HallarE(Y1 Y2).
Solucin:
a) f2(Y2) = 1y2
y211 dy1 = (1 y2) (y21) = 22y2 = 2(1 y2),0 y2 1
Para 1 Y1 0, f1(Y1) = 1+y1
01 dy2 = 1+Y1
Para 0 Y1 1, f1(Y1) = 1y1
01 dy2 = 1Y1
Y21 Y1 , Y1 < 0
Y21Y1 , Y1 > 0
y21|y1|
y21|y1|
y2 1|y1|f1(y1) = 1|y1| , 1 Y1 1
f2(y2) = 2(1 y2) , 0 Y2 1
61
b) P(Y2 >12|Y1 = 1/4) =
3/41/2
f(
y2|y1 = 14)
dy2
= 3/4
1/2
f(
y1 =14,y2
)f1
(14
) dy2= 3/4
1/2
13/4
dy2
= 3/4
1/2
43
dy2 =43
y2
]3/41/2
=43
[34 1
2
]=
43.14=
13
c) E(Y1Y2) = 1
0
1y2y21
Y1Y2 dy1 dy2 = 1
0y2(1 y2)2 (y21)2
2dy2
= 1
0y2(1 y2)2 (1 y2)2
2dy2 = 0
3. Al gerente de un restaurante de comida rpida le interesa el comportamiento conjunto de las variables alea-
torias:
Y1: tiempo total entre la llegada de un cliente al rest. y su salida a la ventanilla de servicio.
Y2: Tiempo que el cliente espera en la formacin antes de llegar a la ventanilla de servicio.
Como Y1 incluye el tiempo que el cliente espera en la formacin, tenemos que Y1 Y2. La distribucin de las
frecuencias relativas de los valores observados de Y1 y Y2 puede representarse por el modelo de la funcin
de densidad de probabilidad (con el tiempo medido en minutos):
f (y1,y2) =
ey1 , 0 y2 y1 <
0 , e.c.o.c.
a) Obtener P(Y1 < 2,Y2 > 1).
b) Calcular P(Y1 2Y2).
c) Si han transcurrido 2 min. entre la llegada de un cliente al rest. y su salida, calcular la probabilidad de
que haya esperado menos de 1 min. para llegar a la ventanilla de servicio.
d) Hallar E(Y1Y2) y Var(Y1Y2).
Solucin:
62
a) Obtener P(Y1 < 2,Y2 > 1)
P(Y1 < 2,Y2 > 1) = 2
1
2y2
ey1dy1 dy2 = 2
1ey1
]2y2
dy2
= 2
1[ey2 e2]dy2 =
[ ey2 e2y2
]21
=e22e2+ e1+ e2 = e1 e2
b) Calcular P(Y1 2Y2)
P(Y1 2Y2) = +
0
1/2Y10
ey1 dy2 dy1 = +
0y2ey1
]1/2Y10
dy1
= +
0
12
y1ey1dy1 =12
[(y1ey1
]+0
+ +
0ey1dy1
]=
12
{lm
b+(b eb)+ lm
b+[eb+1]
}=
12(1) =
12
c) Debemos calcular P(Y2 < 1|Y1 = 2).
f (y2|y1) = f (y1,y2)f1(y1) =ey1
y1ey1=
1y1, 0 y2 y1
f1(y1) = y1
0ey1 dy2 = y2ey1
]y10= y1ey1 ,0 y1
por lo tanto, Y1 y Y2 son dependientes.
Y1 Gam(= 2 y = 1) f1(Y1) = Y1ey1 ,0 Y1
lanzamiento sale la primera cara, usted gana un dlar, si sale en el segundo o en el tercer lanzamiento, usted
gana 2 o 3 dlares, respectivamente; si no aparece ninguna cara, pierde un dlar (es decir, gana -1 dlar).
a) Encuentre la funcin de probabilidad conjunta de Y1 y Y2.
b) Cul es la probabilidad de que caigan menos de tres caras y usted gane 1 dlar o menos? [Es decir,
calcule F(2,1).]
c) Son independientes el nmero de total de caras y las ganancias?
3. En una empresa hay nueve ejecutivos, de los cuales cuatro estn casados, tres son solteros y dos son divor-
ciados. Tres de ellos sern seleccionados al azar para un ascenso. Si Y1 es el nmero de ejecutivos casados
y Y2 el de ejecutivos solteros entre los tres elegidos para el cargo, encuentre la distribucin de probabilidad
conjunta de Y1 y Y2.
4. Un ingeniero ambiental mide la cantidad (por peso) de partculas contaminantes en muestras de aire de de-
terminado volumen recogidas en dos chimeneas de una planta de energa que funciona con carbn. Una de
las chimeneas est equipada con un dispositivo de purificacin. Establezca Y1 como la cantidad de contami-
nantes por muestra recogida en la chimenea que no tiene el dispositivo mencionado y Y2 como la cantidad de
contaminantes por muestra recogida en la que s lo tiene. Suponga que el comportamiento de la frecuencia
relativa de Y1 y Y2 puede representarse mediante la funcin:
f (y1,y2) =
k, 0 y1 2, 0 y2 1, 2y2 y10, en cualquier otro punto.
Es decir, Y1 y Y2 estn distribuidas uniformemente en el interior del tringulo formado por y1 = 2,y2 = 0 y
2y2 = y1.
a) Encuentre el valor de k para el que la funcin es una funcin de densidad de probabilidad.
b) Encuentre P(Y1 3Y2). Es decir, determine la probablilidad de que el dispositivo de purificacin re-
duzca una tercera parte o ms de la cantidad de contaminantes.
65
5. Suponga que Y1 y Y2 estn uniformemente distribuidas en el tringulo formado por los puntos (1,0),(1,0)
y (0,1)
a) Encuentre P(Y1 3/4,Y2 3/4).
b) Encuentre P(Y1Y2 0).
c) Encuentre las funciones de densidad marginal de Y1 y Y2.
d) Encuentre P(Y2 > 1/2|Y1 = 1/4).
e) Son independientes Y1 y Y2?
6. La funcin de densidad conjunta de Y1 y Y2 se determina por la expresin
f (y1,y2) =
30y1y22, y11 y2 1 y1, 0 y1 1
0, en cualquier otro punto.
a) Encuentre F(1/2,1/2).
b) Encuentre F(1/2,2).
c) Encuentre P(Y1 > Y2).
7. Suponga que las variables aleatorias Y1 y Y2 tienen una funcin de densidad de probabilidad conjunta
f (y1,y2), representada por:
f (y1,y2) =
6y21y2, 0 y1 y2, y1+ y2 2
0, en cualquier otro punto.
a) Compruebe que sta es una funcin de densidad conjunta vlida.
b) Cul es la probabilidad de que Y1+Y2 sea menor que 1?.
8. La gerencia de un establecimiento de comida rpida est interesada en el comportamiento conjunto de la
variables aleatorias Y1 que se define como el tiempo total que transcurre entre el instante en que el cliente
llega al establecimiento y el momento en que abandona la ventanilla de servicio, y Y2, el tiempo que un
66
cliente espera formado antes de llegar a la ventanilla de servicio. Puesto que Y1 incluye el tiempo que el
cliente espera en la fila, Y1 Y2. La distribucin de frecuencia relativas de los valores observados de Y1 y Y2puede representarse mediante la funcin de densidad de probabilidad:
f (y1,y2) =
ey1 , 0 y2 y1
0, en cualquier otro punto.
con el tiempo medido en minutos.
a) Encuentre P(Y1 < 2,Y2 > 1).
b) Encuentre P(Y1 2Y2).
c) Encuentre P(Y1Y2 1). (Note que Y1Y2 denota el tiempo invertido en la ventanilla de servicio.)
9. Sean (Y1,Y2) las coordenadas de un punto elegido aleatoriamente dentro de un crulo unitario, cuyo centro
se ubica en el origen. Es decir, Y1 y Y2 tienen una funcin de densidad conjunta representada por:
f (y1,y2) =
1pi, y21+ y
22 1
0, en cualquier otro punto.
Encuentre P(Y1 Y2).
10. La distribucin conjunta de Y1, el nmero de contratos concedidos a la compaa A y Y2, el nmero de
contratos otorgados a empresa B, se encuentra en las entradas de la siguiente tabla:
y1
y2 0 1 2
0 1/9 2/9 1/91 2/9 2/9 02 1/9 0 0
a) Encuentre la distribucin de probabilidad marginal de Y1.
b) Encuentre la distribucin de probabilidad marginal de Y2.
c) Son independientes Y1 y Y2? Por qu?.
67
d) Encuentre E(Y1).
e) Encuentre V (Y1).
f) Encuentre E(Y1Y2).
g) Calcule Cov(Y1,Y2). Le sorprende que Cov(Y1,Y2) sea negativa? Por qu?
11. La distribucin de probabilidad conjunta de Y1, la cantidad de ejecutivos casados, y Y2, la cantidad de ejecu-
tivos solteros, est determinada por la expresin
p(y1,y2) =
( 4y1
)( 3y2
)( 23y1y2
)(93
)donde y1 y y2 son enteros, 0 y1 3,0 y2 3 y 1 y1+ y2 3.
a) Encuentre la distribucin de probabilidad marginal de Y1, la cantidad de ejecutivos casados entre los
tres elegidos para el cargo.
b) Encuentre P(Y1 = 1|Y2 = 2).
c) Si Y3 denota el nmero de ejecutivos divorciados entre los tres elegidos para el cargo, entonces Y3 =
3Y1Y2. Calcule P(Y3 = 1|Y2 = 1).
d) Son independientes Y1 y Y2?
e) Calcule el nmero esperado de ejecutivos casados entre los tres elegidos para la promocin.
f) Calcule Cov(Y1,Y2).
12. Anteriormente estudiamos la densidad conjunta de Y1, la cantidad de gasolina disponible a principios de
semana, y Y2 la cantidad de gasolina vendida durante la semana, determinada por
f (y1,y2) =
3y1, 0 y2 y1 1
0, en cualquier otro punto.
a) Encuentre la funcin de densidad marginal de Y2.
b) Para qu valores de y2 est definida la densidad condicional f (y1|y2)?
68
c) Cul es la probabilidad de que se venda ms de medio tanque, si ste contiene gasolina hasta tres
cuartas partes de su capacidad?
13. Dada la siguiente funcin de densidad de probabilidad conjunta
f (y1,y2) =
4y1y2, 0 y1 1, 0 y2 1
0, en cualquier otro punto.
a) Encuentre las funciones de densidad marginal de Y1 y Y2
b) Encuentre P(Y1 1/2|Y2 3/4).
c) Encuentre la funcin de densidad condicional de Y1 si Y2 = y2.
d) Encuentre la funcin de densidad condicional de Y2 si Y1 = y1.
e) Encuentre P(Y1 3/4|Y2 = 1/2).
f) Demuestre que Cov(Y1,Y2) = 0. Le sorprende que Cov(Y1,Y2) sea igual a cero? Por qu?
14. La funcin de densidad de probabilidad conjunta para Y1, la cantidad de contaminantes por muestra recogida
en la chimenea sin sispositivo de purificacin, y para Y2, la cantidad de contaminantes contenidos en la
muestra recogida en la que cuenta con purificador, est dada por:
f (y1,y2) =
1, 0 y1 2, 0 y2 1, 2y2 y10, en cualquier otro punto.
a) Si la chimenea tiene dispositivo de purificacin, calcule la probabilidad de que la cantidad de contami-
nantes en una muestra dada sea superior a 0.5.
b) Si la cantidad de contaminantes en una muestra tomada de la chimenea con purificador es de 0.5,
calcule la probabilidad de que la cantidad de contaminante sea superior, en 1.5, a la de la chimenea sin
dispositivo de purificacin.
c) Son independientes las cantidades de contaminantes por muestra tomada en las chimeneas con y sin
dispositivos de purificacin?.
69
d) Encuentre E(Y1) y E(Y2).
e) Encuentre V (Y1) y V (Y2).
f) La variable aleatoria Y1Y2 representa la cantidad de contaminante que podra reducirse utilizando el
dispositivo de purificacin. Determine E(Y1Y2).
g) Encuentre V (Y1Y2). Dentro de qu lmites esperara usted que se localizara Y1Y2?.
15. Dada la funcin de densidad conjunta de Y1 y Y2:
f (y1,y2) =
30y1y22, y11 y2 1 y1, 0 y1 1
0, en cualquier otro punto.
a) Demuestre que la densidad marginal de Y1 es una densidad beta con parmetros = 2, y = 4.
b) Deduzca la densidad marginal de Y2.
c) Deduzca la densidad condicional de Y2 dada Y1 = y1.
d) Calcules P(Y2 > 0|Y1 = 0,75).
e) Son independientes Y1 y Y2?
16. Anteriormente se demostr que
f (y1,y2) =
6(1 y2), 0 y1 y2 1
0, en cualquier otro punto.
es una funcin de densidad de probabilidad conjunta vlida.
a) Son independientes Y1 y Y2?
b) Encuentre E(Y1) y E(Y2).
c) Encuentre Var(Y1) y Var(Y2).
d) Encuentre E(Y13Y2).
e) Calcule Cov(Y1,Y2).
70
17. Las variables Y1 y Y2 denotan las duraciones, en horas, de los componentes tipo 1 y 2, respectivamente, de
un sistema electrnico. La densidad conjunta de Y1 y Y2 es
f (y1,y2) =
(1/8)y1e(y1+y2)/2, y1 > 0, y2 > 0
0, en cualquier otro punto.
a) Son independientes Y1 y Y2?.
b) Una forma de medir la eficiencia relativa de los dos componentes consiste en calcular la razn Y2/Y1.
Determine E(Y2/Y1).
18. Si Y1 y Y2 son variables aleatorias independientes con distribucin exponencial y media 1, calcule P(Y1 >
Y2|Y1 < 2Y2).
19. Si Y1 y Y2 son variables aleatorias independientes con una distribucin uniforme en el intervalo (0, 1), deter-
mine P(Y1 < 2Y2|Y1 < 3Y2).
20. Dos clientes de un supermercado hacen fila para pagar por su mercanca en las cajas 1 y 2, respectivamente.
Represente con Y1 y Y2, el nmero de clientes que gastan ms de 50 dlares en comestibles en las diferentes
cajas. Suponga que Y1 y Y2 son variables aleatorias binomiales independientes y las probabilidades de que
un cliente en la caja 1 pague ms de $ 50 y un cliente de la caja 2 pague mas de $ 50 son de 0.2 y 0.3,
respectivamente.
a) Encuentre la distribucin de probabilidad conjunta de Y1 y Y2.
b) Calcule la probabilidad de que a lo ms uno de tres clientes consuma ms de $50.
21. Supongamos que las variables aleatorias discretas Y1 y Y2 tiene la funcin de probabilidad conjunta
p(y1,y2) = 1/3 para (y1,y2) = (1,0),(0,1),(1,0).
Encuentre Cov(Y1,Y2). Observe que Y1 y Y2 son dependientes (por qu?). ste es otro ejemplo de variables
aleatorias sin correlacin que no son independientes.
71
22. La funcin
f (y1,y2) =
4y1y2, 0 y1 1, 0 y2 1
0, en cualquier otro punto.
es una funcin de densidad de probabilidad conjunta vlida. En ejercicios anteriores establecimos que Y1 y Y2
eran independientes; adems determinamos que E(Y1Y2) = 0 y encontramos el valor de Var(Y1). Calcule
V (Y1Y2).
23. La funcin
f (y1,y2) =
6(1 y2), 0 y1 y2 1
0, en cualquier otro punto.
es una funcin de densidad de probabilidad conjunta vlida. Dedujimos que E(Y13Y2) =5/4; demostra-
mos que Cov(Y1,Y2) = 1/40. Calcule V (Y13Y2).
24. La siguiente funcin de densidad de probabilidad conjunta corresponde a las variables aleatorias Y1 y Y2, las
cuales representan las proporciones de dos sustancias en una muestra de una mezcla de insecticida:
f (y1,y2) =
2, 0 y1 1, 0 y2 1, 0 y1+ y2 1
0, en cualquier otro punto.
Una cantidad importante para los productos qumicos en cuestin es la proporcin total de qumicos Y1+Y2
encontrada en cualquier muestra. Calcule E(Y1+Y2) y V (Y1+Y2).
25. Se elegir aleatoriamente un comit de tres personas de entre un grupo formado por cuatro republicanos,
tres demcratas y dos independientes. Sea Y1 y Y2 el nmero de republicanos y demcratas en el comit,
respectivamente.
a) Cul es la distribucin de probabilidad conjunta de Y1 y Y2.
b) Encuentre las distribuciones marginales de Y1 y Y2.
c) Calcule P(Y1 = 1|Y2 1).
72
26. Suponga que Y1 y Y2 tienen una funcin de densidad conjunta representada por
f (y1,y2) =
3y1, 0 y2 y1 1
0, en cualquier otro punto.
a) Encuentre las funciones de densidad marginal de Y1 y Y2
b) Encuentre P(Y1 3/4|Y2 1/2).
c) Encuentre la funcin de densidad condicional de Y1 dado que Y2 = y2.
d) Calcule P(Y1 3/4|Y2 = 1/2).
27. La duracin Y de cierto tipo de fusibles tienen una distribucin exponencial con una funcin de densidad
dada por
f (y) =
(1/)ey/, y 0
0, en cualquier otro punto.
a) Si dos fusibles tienen vidas tiles independientes Y1 y Y2, entuentre su funcin de dendidad de proba-
bilidad conjunta.
b) Uno de los fusibles del inciso a) est colocado en un sistema principal y el otro en un sistema de
emergencia que comienza a funcionar cuando falla el sistema principal. Por consiguiente, la duracin
total efectiva de los dos fusibles es de Y1+Y2. Calcule P(Y1+Y2 a), donde a > 0.
73
Captulo 4
Regresin Mltiple y Correlacin
Ac estudiaremos los procedimientos inferenciales que pueden utilizarse cuando una v.a. Y denominada varia-
ble dependiente, tiene una medida que es una funcin de una o ms variables aleatorias, x1,x2, ...xk, designadas
Variables Independientes.
Es posible clasificar estos modelos en dos categoras,
1. Los modelos determinsticos
2. Los modelos probabilsticos
El Modelo Determinstico se denomina as porque no permite algn error en la prediccin de Y como funcin
de x. Por ejemplo, supongamos que se tiene la relacin
Y = 0+1 x,
donde 0,1 son parmetros desconocidos; cuando x = 20, Y siempre toma el valor 0+1(20).
Si se utiliza el modelo para predecir Y cuando x = 20, la prediccin tendr un error desconocido, esto nos
conduce a la aplicacin de mtodos estadsticos.
Los Modelos Probabilsticos representan una descripcin ms adecuada de la realidad, adems se pueden
obtener las propiedades del error de preciccin para Y en muchos modelos probabilsticos. Ejemplo: E(Y ) =
0 +1 x, es un modelo dodne Y = 0 +1 x+ y es una v.a. con una distribucin de probabilidad con media
cero.
Ac nos concentraremos en el conjunto de modelos denominados Modelos Estadsticos Lineales.
74
4.1. Modelos Lineales
Si Y es la variable de respuesta y x una variable independiente, parece razonable utilizar el modelo E(Y ) =
0+1 x para parmetros 0,1 desconocidos.
Cuando se afirma tener un modelo estadstico lineal para Y , se denota que E(Y ) es una funcin lineal de los
parmetros desconocidos 0 y 1, y no necesariamente una funcin lineal de x.
Ejemplos: Y = 0+1 Ln(x)+ ,
Y = 0+1 sen(x)+ ,
Y = 0+1 x3+ , (son modelos lineales)
Modelo de regresin lineal simple: Son aquellos modelos que expresan a E(Y ) como una funcin lineal de 0
y 1, solamente.
Modelo de regresin lineal mltiple: Cuando hay ms de una variable independiente de inters, digamos
x1,x2, ...,xk, y el modelo est dado por E(Y ) = 0+1 x1+, ...,+k xk.
x1, ...,xk son constantes conocidas, supuestamente medidas sin error en un experimento.
Definicin 15. El Mtodo Estadstico Lineal que relaciona una respuesta Y con un conjunto de variables inde-
pendientes x1,x2, ...,xk tiene la forma
Y = 0+1 x1+, ...,+k xk +
en donde 0,1 x1+, ...,+k son parmetros desconocidos, x1, ...,xk son constantes conocidas y es una v.a. tal
que E() = 0 y por lo tanto,
E(Y ) = 0+1 x1+, ...,+k xk
4.2. El Mtodos de los Mnimos Cuadrados
Es un procedimiento para estimar los parmetros de cualquier modelo lineal. Supngase que se desea ajustar
el modelo E(Y ) = 0+1 x1, es decir, Y = 0+1 x1+ donde tiene E() = 0.
75
Si 0 y 1 son estimadores para los parmetros 0 y 1, entonces Y = 0+ 1 x es un estimador de E(Y ).
Supongamos que se tienen n observaciones apareadas (xi,yi), y que queremos determinar la ecuacin lineal
que mejor se ajuste a las observaciones, es decir, hallar Yi = 0+ 1 xi.
Este tipo de diagrama, que muestra los puntos observacionales se llama diagrama de dispersin.
El Mtodo de Mnimos Cuadrados consiste en minimizar la suma de los cuadrados de las distancias de las
observaciones a la recta ajustada. Por lor tanto,
Yi = 0+ 1 xi, es el valor que se predice del i-simo valor de y (cuando x = xi), entonces
yi yi es la desviacin o distancia del valor observado y a partir de la recta y. Llamaremos error a stas desviaciones,
es decir, e = yi yi.
Definimos La suma de los Cuadrados de los Errores (SC E) como:
SC E =n
i=1(Yi Yi)2 =
n
i=1
[Yi
(0+1 xi
)]2.
Observacin: Si SC E tiene un mnimo , sto ocurrir para los valores 0 y 1 tales que:
0
SC E = 0 y1
SC E = 0,
estas ecuaciones son llamadas Ecuaciones de los Mnimos Cuadrados.0
SC E = 0
1
SC E = 0
ni=1
2[yi
(0+ 1 xi
)]= 0
ni=1
2xi[yi
(0+ 1 xi
)]= 0
estas ecuaciones son llamadas Ecuaciones Nor-
males.
Al resolver el sistema se obtiene:
1 =
n
i=1(xi x)(yi y)
n
i=1(xi x)2
=
nn
i=1xiyi
n
i=1xi
n
i=1yi
nn
i=1x2i
(n
i=1xi
)20 = Y 1 x.
76
Ejemplo 1: Ajuste una lnea recta a travs de los cinco puntos siguientes. Obtener las estimaciones para 0 y 1.
Grafique los puntos y trace la recta ajustada para verificar los clculos.
Y 3 2 1 1 0 5
X 2 1 0 1 2
(n = 5)
xi yi xiyi x2i Yi = 0+ i xi
2 3 6 4 2 71 2 2 1 2 10 1 0 0 1 51 1 1 1 0 92 0 5 1 4 0 3
xi = 0 yi = 7 5 xiyi =6 x2i = 10
1 =5(6) (0)(7 5)
5(10) (0)2 =35=0 6
0 =7 5
5(3
5
)(0) = 1 5
Y = 1 50 6 x
4.3. Ajuste del modelo lineal mediante matrices
Supngase que tenemos el modelo lineal
Y = 0+! x1+, ...,+k xk +
y hacemos n observaciones y1,y2, ...,yn de Y . Podemos escribir a yi como
yi = 0+1 xi1+2 xi2+, ...,+k xik + i , i = 1,2, ...,n.
77
Ahora definamos las matrices siguientes
Y =
y1
y2...
yn
, X =
1 x11 x12 x1k1 x21 x22 x2k...
......
...
1 xn1 xn2 xnk
, =
0
1...
k
, =
1
2...
n
As, podemos escribir Y = X+ .
Para n observaciones de un modelo lineal simple de la forma Y = 0+1 x+ tenemos
Y =
y1
y2...
yn
, X =
1 x1
1 x2...
...
1 xn
, =
01
y =
1
2...
n
Notemos que para el modelo lineal simple, las ecuaciones de mnimos cuadrados para 0 y 1 dieron
n0+ 1n
i=1
xi =n
i=1
yi
0n
i=1
xi+ 1n
i=1
x2i =n
i=1
xiyi
Ahora, usando matrices
X X =
nn
i=1xi
n
i=1xi
n
i=1x2i
y X Y =
n
i=1yi
n
i=1xiyi
,as podemos escribir las ecuaciones de mnimos cuadrados como
(X X)= X Y , =
01
.De aqu que
= (X X)1X Y.
78
Ejemplo 2: Usar el ejemplo 1 para representarlo matricialmente.
Y =
3
2
1
1
1/2
, X =
1 2
1 1
1 0
1 1
1 2
, =
01
, =
1
2
3
4
5
X X =
5 00 10
, X Y = 7 56
(X X)1 =
1/5 00 1/10
, = (X X)1X Y = 1/5 0
0 1/10
7,56
=
75/56/10
= 1 50 6
Y = 1 50 6X
4.4. Propiedades de los estimadores de Mnimos Cuadrados.
4.4.1. Para el modelo Y = 0+1 x+ .
1. Los estimadores 0 y 1 son estimadores insesgados para 0 y 1, respectivamente, es decir,
E(0) = 0 y E(1) = 1.
Como hemos supuesto que es una v.a. tal que E() = 0, ahora aadiremos el supuesto de que Var() = 2,
as:
2. Var(1) =2
(xi x)2
79
3. Se puede probar que Cov(Y , 1) = 0, luego,
Var(0) =Var(Y 1x)
=Var(Y )+ x 2Var(1) 2x Cov(Y , 1)
=2
n+ x 2
2
(xi x)2
= 2[
1n+
x2
(xi x)2]= 2
[(xi x)2+nx 2
n(xi x)2]
=2[x2i ]
n(xi x)2
4. Cov(0, 1) =x 2
(xi x)2Notemos que 0 y 1 se correlacionan, son dependientes.
Usando la expresin matricial,
X X =
n xixi x2i
y (X X)1 =
x2in(x1 x)2
xin(x1 x)2
xin(xi x)2
1(xi x)2
=
C00 C01C10 C11
Tenemos entonces que:
Var(0) =C00 2 y Var(1) =C11 2
Cov(0, 1) =C01 2 =C102.
La varianza del trmino del error , usualmente se desconocer y utilizaremos las observaciones muestrales
para estimarlo.
Usaremos el siguiente estimador insesgado para 2
S2 =1
n2n
i=1(Yi Yi) = 1n2SC E.
80
Usando la expresin matricial
SC E = Y Y X Y
Ejemplo 3: Usando el ejemplo 2, hallar las varianzas de 0, 1 y estimar 2.
(X X)1 =
1/5 00 1/10
C00 = 15 C01 =C10 = 0C11 = 1/10