Distribuciones Probabilísticas -...
Transcript of Distribuciones Probabilísticas -...
-
Distribuciones Probabilsticas
Curso de EstadsticaTAE,2005
J.J. Gmez Cadenas
-
Distribucin Binomial
Considerar N observaciones independientes tales que:
El resultado de cada experimento es acierto o fallo
La probabilidad de acierto de un experimento dado es p
El conjunto de observaciones N puede considerarse como una nica medidaque puede caracterizarse por la variable aleatoria n :
n = nmero de aciertos (0n N)
El espacio de muestras S se define como el conjunto de posibles valores de npara N observaciones.
Si repetimos el experimento muchas veces con N observaciones cada vez, losvalores resultantes de n ocurren con frecuencias relativas determinadas por ladistribucin binomial.
-
Derivacin de la forma de la distribucin binomial
Probabilidad de acierto para una observacin dada p
Probabilidad de fallo 1-p
Las observaciones son independientes Probabilidad de acierto y/o fallo deuna secuencia de observaciones (en un orden dado) es el producto de lasobservaciones individuales.
Ejemplo: aafaf P=pp(1-p)p(1-p)=p3(1-p)2
En general P, para una secuencia de n aciertos y (N-n) fallos pn(1-p)N-n
Puesto que el orden de acierto/fallo es irrelevante (estamos interesados sloen el nmero total de aciertos n) calculamos el nmero de secuencias(permutaciones) con n xitos en N observaciones:
N !n!(N n)!
-
La distribucin binomial, es, entonces:
f (n;N , p) = N !n!(N n)!
pn (1 p)N n
Donde, la notacin f(n; N,p) indica que n es una variable aleatoria, mientras queN y p son parmetros.
Valor esperado y varianza (clculo no trivial):
E[n] = n N !n!(N n)!
pn (1 p)Nnn=0
= NpV[n] = E[n2 ] (E[n])2 = Np(1 p)
NB: E[n] y V[n] no son variables aleatorias sino constantes que dependen de losvalores verdaderos (y posiblemente desconocidos) de p y N.
-
Ejemplo: Observamos N desintegraciones del .
El nmero n de estas observaciones correspondientes a un determinado canal(e.g, ) sigue la distribucin binomial, con p igual a la relacin desemidesintegracin del canal
-
Distribucin Multinomial
Similar a la binomial, pero en lugar de 2 posibles resultados (acierto o fallo)hay m posibles resultados.
p = (p1,..., pm ) tal que pii=1
m
= 1Para N observaciones queremos calcular la probabilidad de observar:
n1 con resultado 1
n2 con resultado 2
nm con resultado m
Esta probabilidad sigue la distribucin multinomial
f (n;N , p) = N !n1!n2 !...nm !
p1n1 p2n2 ...pmnm
Ejemplo de multinomial: n = (n1,,nm)representa un histograma con m bins y Nentradas en total
Los ni individuales se distribuyenbinomialmente con parmetrosN,pi
-
Distribucin de Poisson
Considerar la distribucin binomial en el lmite:
N
p0
E[n]=Np
Puede demostrarse queen este caso n sigue ladistribucin de Poisson
f (n; ) = n
n!e (0 n )
E[n]= nn=0
n
n!e =
V[n]= (n-n=0
)2 n
n!e =
Para grande Poisson tiende a Gauss
Ejemplos de Poisson: Nmero dedesintegraciones de una cierta cantidad dematerial radioactivo en un tiempo fijo t, en ellmite:
Nmero de desintegraciones posibles (e.g,nmero total de tomos) es muy grande
Probabilidad de una desintegracinindividual en t es muy pequea.
-
Distribucin uniforme
Considerar una variable continua aleatoria definida en todo R. Ladistribucin uniforme es:
f (x; ,) =1
x
0 en otro caso
Es decir, podemos encontrar x con igual probabilidad entre y :
E[x] = x 0
dx =12( + )
V[x] = [x 12( + )]2 1
0
dx =112( )2
-
Una propiedad importante de la distribucin uniforme es la de que cualquiervariable aleatoria continua x con pdf f(x) y distribucin acumulativa F(x)puede transformarse en una nueva variable y distribuida uniforme entre 0 y 1mediante el cambio de variable:
y = F(x)
dydx
=ddx
f (x ')dx ' = f (x)
x
La pdf de y es:
g(y) = f (x) dxdy
= dydx
dxdy
= 1 0 y 1
Usaremos esta propiedad de la distribucin uniforme en el tema relacionadocon tcnicas de Monte Carlo.
-
Distribucin exponencial
f (x;) = 1e x , 0 x
E[x] = 1
x0
e xdx =
V[x] = 1
(x )20
e xdx = 2
Ejemplo: El tiempo de desintegracin de una partcula inestable (medido ensu sistema de referencia) sigue una distribucin exponencial
-
Distribucin de Gauss
f (x;, 2 ) = 12 2
exp((x )2
2 2)
E[x] = x
+
12 2
exp((x )2
2 2)dx =
V[x] = (x )2
+
12 2
exp((x )2
2 2)dx = 2
NB: A menudo y 2 se utlizan para denotar la media y la varianza decualquier pdf, no slo la pdf gausiana.
Distribucin de Gauss estndar: = 0, = 1(x) = 1
2exp(x
2
2)
(x) = (x ')dx '
x
Si y es Gausiana con y 2 entonces x=(y- )/ sigue (x).
-
Teorema del lmite central
Dadas n variables aleatorias independientes xi, con:
medias i , varianzas i2
pdf arbitraria
Su suma, en el lmite de n grande es una variable aleatoria distribuidagausianamente
yi = xii=1
n
, n : yi est distribuida gausianamente
E[yi ]= ii=1
n
, V[yi ]= 2ii=1
n
El teorema del lmite central supone la justificacin formal para tratar loserrores como variables aleatorias distribuidas gausianamente. Es aplicablesiempre que el error total sea la suma de muchas contribuciones pequeas.
-
Distribucin de Gauss Multivariada
f (x; ,V ) = 1(2 )N /2 V 1/2
exp 12
(x )TV 1(x )
E[xi ] = icov[xi , x j ] = Vijn = 2
f (x1, x2;1,2 ,1, 2 ,) =1
21 2 1
exp 12(1 2 )
( x1 11
)2 + (x2 2 2
)2 2( x1 11
)(x2 2 2
)
,
= cov[x1, x2 ](1 2 )
coeficiente de correlacin
-
Distribucin 2
f (z;n) = 12n /2(n / 2)
zn /21e z / 2 , n = 1,2.,,,
n nmero de grados de libertad
(x)= e-tt x1dt0
funcin Gamma
E[z]= z 12n /2(n / 2)
zn /21e z / 2dz = n0
V[z]= (z-n)2 12n /2(n / 2)
zn / 21e z /2dz = 2n0
Dadas N variables aleatorias independientes xi, distribuidas gausianamente,con media i y varianza i2, la variable:
z =(xi i )
2
i2
i=1
N
Sigue la distribucin 2 para N grados de libertad.Como veremos, estas variables son las que utilizamospara estimar la calidad de un ajuste, particularmentecon el mtodo de mnimos cuadrados