14 de marzo, 2013 - UNC · 2013. 4. 9. · Variables aleatorias I Discreta:sólo un número finito...
Transcript of 14 de marzo, 2013 - UNC · 2013. 4. 9. · Variables aleatorias I Discreta:sólo un número finito...
Variables aleatorias
FaMAF
14 de marzo, 2013
Variables aleatorias
DefiniciónUna variable aleatoria sobre el espacio muestral S es una función:X : S 7→ R tal que P(X ≤ x) = P({w : X (w) ≤ x}) existe.
DefiniciónFunción de distribución acumulada:
F (x) = P(X ≤ x) := P ({s ∈ S | X (s) ≤ x}) .
I no decreciente.I 0 ≤ F (x) ≤ 1.I continua a derecha
Variables aleatorias
I Discreta: sólo un número finito o numerable de valores.I Continua:P(X = x) = 0, esto es F(x) es una función continua.I (Absolutamente) Continua o continua con densidad: existe f no
negativa tal que
P(X ∈ C) =
∫C
f (x)dx .
EjemploX el número de tiradas hasta que salgan tres caras consecutivasY el tiempo entre arribos de consumidoresZ el número de consultas al 112 en un día determinado.
Función de frecuencia o densidad discreta
DefiniciónSea X v.a. discreta, es decir, toma los valores x1, x2, . . . , se define laFunción de frecuencia de X como :
p(xi) = P(X = xi).
Propiedades
∞∑i=1
p(xi) = 1.
P(X < b) = limn→∞
F (b − 1n).
Función de frecuencia o densidad discreta
EjemploTiro un dado hasta que salga un seis. La función de frecuenciadiscreta y la acumulada son
P(X = k) = (56)(k−1) 1
6∞∑
k=1
P(X = k) =∞∑
k=1
(56)(k−1) 1
6=
16
∞∑k=0
(56)k =
16.
11− 5
6
= 1
FX (x) = P(X ≤ x) = 1− P(X > x) = 1−∞∑
k=1
P(X = [x ] + k) =
=∞∑
k=1
(56)([x ]+k−1) 1
6=
16.(
56)([x ]−1).
∞∑k=1
(56)k = (
56)[x ]
Función de densidad
Sea X una variable continua que admite densidad f , entonces lafunción f cumple las siguientes propiedades
I F (a) =∫ a
−∞f (x)dx .
Idda
F (a) = f (a).
I P({a− ε/2 ≤ X ≤ a + ε/2} =∫ a+ε/2
a−ε/2f (x)dx ' f (a) · ε.
I P(X = a) = 0.
Variable aleatoria absolutamente continua
f (x) =12I(3,5)(x) F (x) =
0 x ≤ 3x−3
2 3 < x < 51 x ≥ 5
Distribución conjunta
X , Y : variables aleatorias.
I Función de distribución acumulada conjunta de X e Y .
F (a,b) = P(X ≤ a, Y ≤ b).
I X e Y discretas:
p(a,b) = P(X = a, Y = b)
I X e Y continuas son conjuntamente continuas con densidad siexiste una función no negativa f tal que para todo C, D:
P(X ∈ C, Y ∈ D) =
∫ ∫x∈C,y∈D
f (x , y)dx dy .
Distribuciones marginales
Si F es función de distribución conjunta de X e Y :I FX (a) = P(X ≤ a) = F (a,∞) es la distribución marginal de X .I si X es discreta
pX (a) =∑
b
p(a,b).
I si (X,Y) admite densidad
FX (a) =∫ a
−∞
∫ ∞−∞
f (x , y)dy dx =
∫ a
−∞fX (x)dx .
I FY (b) = P(Y ≤ b) = F (∞,b): distribución marginal de Y .I La distribución conjunta permite obtener las distribuciones
(marginales) de X e Y .I La recíproca no es cierta.
Distribución condicional
I X e Y discretas:
p(x , y) = pX |Y (x | y)pY (y)
pX |Y (x | y) = P(X = x | Y = y) =P(X = x ∩ Y = y)
P(Y = y)=
p(x , y)pY (y)
.
P(X ≤ x | Y = y) =∑ai≤x
pX |Y (ai | y)
I X e Y conjuntamente continuas con densidad:
fX |Y (x | y) =f (x , y)fY (y)
=fY |X (y | x)fX (x)
fY (y).
P(X ≤ x | Y = y) =∫ x
−∞fX |Y (s | y)ds.
Distribuciones condicionales
EjemploTiro un dado una vez y luego una moneda tantas veces como elnúmero que salió en el dado. Sea X el número que sale en el dado eY el número de caras de la tirada de la moneda.
P(X = 6,Y = 3) = pY |X (3 | 6)pX (6) =(
63
)(12)3(
12)3.
16
P(X = n,Y = k) = pY |X (k | n)pX (n) =(
nk
)(12)k (
12)n−k .
16
Distribución conjunta
I X e Y son independientes si
P(X ∈ C, Y ∈ D) = P(X ∈ C) · P(Y ∈ D).
{X ∈ C} y {Y ∈ D} son eventos independientes.I X e Y discretas:
P(X = a, Y = b) = P(X = a) · P(Y = b)
p(a,b) = pX (a) · pY (b).
I X e Y conjuntamente continuas con densidad:
f (x , y) = fX (x) · fY (y)
I Si X e Y son independientes, la distribución conjunta se obtienea partir de las distribuciones de X e Y .
Valor esperado
I Si X es una v.a. discreta:
E [X ] =∑
i
xi P(X = xi).
I Si X es una v.a. continua con densidad:
E [X ] =
∫ ∞−∞
x f (x)dx .
I El valor esperado no es necesariamente un valor posible de X .
Valor esperado
−10 −6 6 10
σ=6
σ=10
Valor esperado
EjemploTiro un dado una vez. La esperanza de X , el número observado es
6∑k=1
kP(X = k) =6∑
k=1
k16=
6(6 + 1)2
16=
72
EjemploSe tienen 2 bolas, una blanca y una negra. Se extrae una bola y si esblanca se termina la experiencia, si es negra se la coloca en otra cajay se agrega otra bola negra. Sea X el número de extraccionesnecesarias hasta obtener una bola blanca.
P(X = k) =(k − 1)!k + 1!
=1
(k + 1).kE(X ) =
∞∑1
k(k + 1).k
=∞∑1
1k + 1
=∞
Propiedades del valor esperado
Si g : R 7→ R, entonces g(X ) es una v.a. yI Discretas:
E [g(X )] =∑
g(x)p(x).
I Continuas con densidad:
E [g(X )] =
∫g(x) f (x)dx .
Linealidad:E [aX + b] = aE [X ] + b.
Si X e Y son v.a., entonces
E [X + Y ] = E [X ] + E [Y ].
Propiedades del Valor esperado
EjemploSupongamos que distribuimos n bolas indistinguibles en k celdas, ysea X el número de celdas vacias. Sea Xi la variable indicadora de lai-esima celda vacía. Entonces
P(Xi = 1) =número de formas de poner n bolas en (k-1)celdasnumero de formas de poner n bolas en k celdas
E(Xi) =(k − 1)n
kn = (1− 1k)n
E(X ) =k∑1
E(Xi) = k(1− 1k)n
Varianza
Es una medida de la variación de X entorno a µ = E [X ]:
Var(X ) = E [(X − µ)2] = E [X 2]− µ2.
I No es lineal:Var(aX + b) = a2 Var(X ).
I La varianza de la suma no es (necesariamente) la suma de lasvarianzas.
I Covarianza de X e Y :
cov(X ,Y ) = E [(X − µX )(Y − µY )].
I Var(X + Y ) = Var(X ) + Var(Y ) + 2 cov(X ,Y ).
Varianza
−15 −10 −5 0 5 10 150
0.02
0.04
0.06
0.08
0.1
0.12
0.14
σ=3
σ=5.7735
µ=0
Varianza y desviación estándar
I Si X e Y son independientes
cov(X ,Y ) = 0.
Var(X + Y ) = Var(X ) + Var(Y ).
I Desviación estándar de X :
σ(X ) =√
Var(X ).
I Correlación de X e Y :
ρ(X ,Y ) =cov(X ,Y )
σ(X ) · σ(Y ).
Correlación
r=0.01 r=0.28
r=0.43 r=0.73
r=0.91 r=0.99
Uniforme U{1,n}
n valores igualmente probablesI Rango: {1, . . . ,n}I Función de masa:
P(X = i) =1n.
I Valor esperado:
E [X ] =n + 1
2.
I Varianza:
Var(X ) =n2 − 1
12.
Bernoulli
Éxito o fracasoI Rango: {0,1}I Función de masa:
P(X = 1) = p, P(X = 0) = 1− p.
I Valor esperado:E [X ] = p.
I Varianza:Var(X ) = p · (1− p).
Binomial Bi(n,p)
Número de éxitos en n ensayos independientes, con probabilidad pde éxito.
I Rango: {0,1,2, . . . ,n}I Función de masa:
P(X = i) =(
ni
)pi(1− p)n−i .
I Valor esperado:E [X ] = n p.
I Varianza:Var(X ) = n p (1− p).
I Fórmula recursiva:
pi+1 =n − ii + 1
p(1− p)
pi .
Binomial
0 2 4 6 8 100
0.05
0.1
0.15
0.2
0.25
0.3
0.35n=10
0 5 10 15 200
0.05
0.1
0.15
0.2
0.25n=20
0 10 20 30 40 500
0.02
0.04
0.06
0.08
0.1
0.12
0.14n=50
0 20 40 60 80 1000
0.02
0.04
0.06
0.08
0.1n=100
Poisson P(λ)
Número de éxitos en una cantidad grande de ensayosindependientes
I Rango: {0,1,2, . . . } = {0} ∪ NI Función de masa:
P(X = k) = e−λλk
k !.
I Valor esperado:E [X ] = λ.
I Varianza:Var(X ) = λ.
I Fórmula recursiva:pk+1 =
λ
k + 1pk .
Poisson
0 5 10 150
0.1
0.2
0.3
0.4λ=1
0 5 10 150
0.05
0.1
0.15
0.2
0.25
0.3
0.35λ=2
0 5 10 150
0.05
0.1
0.15
0.2λ=5
0 5 10 150
0.05
0.1
0.15
0.2λ=7
0 5 10 150
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Geométrica Geom(p)
Número de ensayos independientes hasta el primer éxitoI Rango: N.I Función de masa:
P(X = n) = p (1− p)n−1, n ≥ 1.
I Valor esperado:
E [X ] =1p.
I Varianza:Var(X ) =
1− pp2
Geométrica
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 150
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
x
f(x|
p)
Densidad Geometrica
p = 0.3p = 0.5p = 0.7
Binomial Negativa o Pascal Bn(r ,p)
Número de ensayos independientes hasta obtener r éxitosI Rango: {r , r + 1, r + 2, . . . } = {n ∈ N | n ≥ r}.I Función de masa:
P(X = n) =(
n − 1r − 1
)pr (1− p)n−r , n ≥ r .
I Valor esperado:E [X ] =
rp.
I Varianza:Var(X ) =
r(1− p)p2 .
Binomial Negativa
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 150
0.1
0.2
0.3
0.4
0.5
x
f(x|
r,p)
Binomial negativa p=0.5
r = 1r = 3r = 6
Hipergeométrica
Número de éxitos en una muestra de tamaño n extraída de unconjunto de N + M elementos
I Rango: {0,1,2, . . . ,n}I Función de masa:
P(X = i) =
(Ni
) ( Mn−i
)(N+Mn
) .
I Valor esperado:
E [X ] =nN
N + M.
I Varianza:
Var(X ) =nNM
(N + M)2
(1− n − 1
N + M − 1
).
Hipergeométrica
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 150
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
x
f(x|
p)
Densidad Hipergeometrica N=100, n=20
r=20r=10r=5