DISTRIBUCIONES COMÚNMENTE USADAS
Transcript of DISTRIBUCIONES COMÚNMENTE USADAS
Universidad Tecnológica De Torreón
Estadística
Distribuciones Comúnmente Usadas
Bernoulli
Binomial
Poisson
Normal
Gamma
T Student
ROSA HELIDA YANETH MEZA REYES
DISTRIBUCIONES COMUNMENTE USADAS.
INTRODUCCION
La inferencia estadística consiste en extraer una muestra de una población y analizar sus datos con el propósito de aprender acerca de ello. Muchas veces se tiene un conocimiento superficial de la función de masa de probabilidad o de la función de densidad de probabilidad de la población. En estos casos la función de masa o de densidad de probabilidad se aproxima mediante una de muchas familias comunes de curvas o funciones. En este capítulo se describen algunas de estas funciones comunes y las condiciones en que es apropiado utilizar cada una.
DISTRIBUCION DE BERNOULLI
Imagine un experimento que tenga dos resultados. Al primero se le llama “éxito” y al otro “fracaso”. La probabilidad de éxito se denota por p. por consecuencia, la probabilidad de fracaso es 1-p. lo anterior representa un ensayo de Bernoulli con probabilidad de éxito p. El más sencillo de este tipo es el lanzamiento al aire de una moneda. Los posibles resultados son “cara” o “cruz”. Si “cara” se define como éxito, entonces p constituye esa probabilidad. En una moneda, P= ½. Otro ejemplo de ese ensayo es la selección de un componente a partir de una población de componentes, pero algunos están defectuosos. Si se define como “éxito” a uno de estos, entonces p significa la proporción de componentes defectuosos en la población.
Para cualquier ensayo de Bernoulli se define a la variable aleatoria X asi: si el experimento propicia “éxito”, entonces X=1. De lo contrario, X=0. De ahí que X sea una variable aleatoria discreta, con función de masa de probabilidad p(x) definida por.
p(0)= P(X=0)=1-p
p(1)= P(X=1)=p
p(x)=0 para cualquier valor de x diferente a 0 o 1
Se dice que la variable aleatoria X sigue una distribución de Bernoulli con parámetro P. La notación es X~ Bernoulli (p). La figura muestra histograma de probabilidad para las funciones de masa de probabilidad de Bernoulli (0.5) y de Bernoulli (0.8).
MEDIA Y VARIANZA DE UNA VARIABLE ALEATORIA DE BERNOULLI
Es fácil calcular la media y la varianza de una variable aleatoria Bernoulli. Si X~ Bernoulli (p), entonces, al usar las ecuaciones (2.29) y (2.30) se calcula:
μx= (0)(1-p)+(1)(p)
=p
σx=p (0−p )2(1−p )+(1−p )2 (p )
¿ p (1−p )¿
2
¿
Resumen Si X~ Bernoulli (p), entonces
μx =p
σ x=p(1−p)2
LA DISTRIBUCION BINOMIAL
Extraer un solo componente de una población y determinar si está o no defectuoso es ejemplo de un ensayo de Bernoulli. En la práctica, es posible extraer varios componentes de una gran población y contar el número de elementos defectuosos. Esto implica realizar diversos ensayos de Bernoulli independientes y contar el número de éxitos. El número de éxitos es una variable aleatoria, que tiene una Distribución binomial.
Ahora se presenta una descripción formal de la distribución binomial. Suponga que se lleva a cabo una serie de n ensayos de Bernoulli, cada uno con la misma probabilidad de éxito p. además, suponga que los ensayos son independientes; esto es, que el resultado de un ensayo no influye en los resultados de alguno de los otros ensayos. Sea la variable aleatoria X igual al número de éxitos en N ensayos, entonces X tiene la distribución binomial con parámetros n y p. la notación es X~Bin(n,p ).X es una variable aleatoria discreta y sus posibles valores son 0,1,…, n.
Si se realiza un total de n ensayos de Bernoulli y si
Los ensayos son independientes
Cada ensayo tiene la misma probabilidad de éxito p
X es el número de éxitos en los n ensayos.
Entonces X tiene la distribución binomial con parámetros n y p, que se denota como X~ Bin(n, p).
La media y varianza de una variable aleatoria binomial
LA DISTRIBUCIÓN DE POISSON
La distribución de poisson se utiliza con frecuencia en el trabajo científico. Una manera de considerarla es como una aproximación de la distribución binomial cuando n es grande y p es pequeña. Esto último se muestra con un ejemplo.
Una masa contiene 10000 átomos de una sustancia radiactiva. La probabilidad de que cierto átomo decaiga en un periodo de un minuto es de 0.0002. Sea X el número de átomos que decae en un minuto. Se puede considerar a cada átomo como un ensayo de Bernoulli, en los que el éxito ocurre si el átomo decae. Por tanto, X es el numero de éxitos en 10 000 ensayos de Bernoulli de3 X es Bin (10000,0.0002). La media de X es µx= (10000) (0.0002)=2.
Otra masa contiene 5000atomos y cada uno de estos tiene probabilidad de 0.0004 de decaer en un intervalo de un minuto. Sea él Y el número de átomos de esta masa que decae en un minuto. Siguiendo la lógica del párrafo anterior, X~Bin (5000,0.0004) y µY= (5000) (0.0004)=2.
En cada uno de estos casos, el número de ensayos n y la probabilidad de éxito p son diferentes, pero el número promedio de éxitos, que es igual al producto np, es el mismo. Ahora suponga que se quiere calcular la probabilidad de que solo tres átomos decaigan en un minuto para cada una de estas masas. Mediante la función de masa de probabilidad binomial, se calcula de la siguiente manera:
P(X=3)10000 !
3! 9997 !¿
= (0.0002 )3 (0.9998 )9997=0.180465091 !¿
P (Y=3)=5000 !3! 4997 !
=(0.0004 )3 (0.9996 )4997=0.180483143 .
Estas probabilidades sin casi iguales entre sí. Aunque a partir de la formula de la función de masa de probabilidad binomial esto no es obvio, cuando n es grande y p es pequeña la función de nada depende por completo de la media np, y muy pocos de los valores específicos de n y p. por consiguiente, se puede aproximar la función de masa binomial con una cantidad que dependa solo del producto np. Específicamente, si n es grande y p es pequeña, y λ=np, se puede demostrar mediante métodos avanzados que para todas las x.
n !x ! (nx ) !
px (1−p )n−x ≈e−λ λx / x !
Esto conduce a la definición de una nueva función de probabilidad, denominada función de masa de probabilidad de poisson, que se define mediante
P(x)= P(X=x)= {e−λλx !
si x es un entero no negativo de otro modo
Si X es una variable aleatoria cuya función de masa de probabilidad esta dad por la ecuación, entonces X sigue una distribución de poisson con parámetro λ. La notación es X~Poisson (λ).
MEDIA Y VARIANZA DE UNA VARIABLE ALEATORIA DE POISSON
Para calcular la media y la varianza de una variable aleatoria de poisson, se emplea la función de masa de probabilidad junto con las definiciones dadas por las ecuaciones. Aquí se presenta un enfoque intuitivo. Si X~ Poisson (λ) se puede considerar X como una variable aleatoria binomial es np, se tiene que la media de una variable aleatoria de Poisson es λ. La varianza de una variable aleatoria binomial es np (1-p). Puesto que p es muy pequeña, se puede reemplazar 1-p con 1, y concluir que la varianza de una variable aleatoria de Poisson es np=λ.
Si X~ Poisson (λ), entonces la media y la varianza de X están dadas por{
µx= λ
σ x= λ2
DISTRIBUCIÓN NORMAL
La distribución normal también conocida como distribución Gauss es la distribución más utilizada en la estadística. Constituye un buen modelo para muchas, aunque no para todas las poblaciones continuas. Parte de esto último se debe al teorema del límite central.
La distribución normal es continua en vez de discreta. La media de una variable aleatoria normal puede tener cualquier valor y la varianza cualquier valor positivo. La función de densidad de probabilidad de una variable aleatoria normal puede tener cualquier valor y la varianza cualquier valor positivo. La función de densidad de probabilidad de una variable normal con media µ y varianzaσ .
La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss y e es el gráfico de de una función gaussiana.
Ejemplo de alguna grafica seria:
DISTRIBUCIÓN GAMMA
La distribución gammas es una distribución continua, uno de sus propósitos es ampliar la utilidad de la distribución exponencial en el modelado de tiempos de espera. La función de densidad de probabilidad gamma tiene dos parámetros, r y λ que son caracteres positivos
Si X es una variable aleatoria cuya función de densidad de probabilidad gamma con parámetros r y λ
Cuando α = 1, la función de densidad gamma se denomina distribución
exponencial. Esta importante función de densidad se emplea como modelo para la
distribución de frecuencias relativa del tiempo entre llegadas a un mostrador de
servicio (centros de cómputo, caja de súper mercado, clínica hospitalaria, etc.)
Cuando la probabilidad de que un cliente llegue en cierta unidad de tiempo es
igual a la probabilidad de que llegue en cualquier otra. La función también se
utiliza como modelo para la duración de equipos o productos industriales cuando
la probabilidad de que un componente viejo opere por lo menos t unidades de
tiempo adicionales, dado que está funcionando ahora. Es igual a la probabilidad
de que un componente nuevo opere al menos t unidades de tiempo. El equipo
sujeto a mantenimiento periódico y recambio de piezas a menudo exhibe esta
propiedad de nunca envejecer.
Cuando el parámetro r es un entero la distribución gamma es una extensión directa de la distribución exponencial. Para ser más específicos, recuerde que si los eventos seguían un proceso de poisson con parámetro con parámetro de razón λ el tiempo de espera hasta que ocurriera un evento se distribuía como exp(λ). Si r es cualquier entero positivo, entonces el tiempo espera hasta que haya ocurrido r eventos se distribuye como.
DISTRIBUCIÓN T (DE STUDENT)
Es una distribución de probabilidad que surge del problema de estimar la media de
una población normalmente distribuida cuando el tamaño de la muestra es
pequeño. Aparece de manera natural al realizar la prueba t de Student para la
determinación de las diferencias entre dos medias muéstrales y para la
construcción del intervalo de confianza para la diferencia entre las medias de dos
poblaciones cuando se desconoce la desviación típica de una población y ésta
debe ser estimada a partir de los datos de una muestra.
La distribución t de Student es la distribución de probabilidad del cociente
Donde
Z tiene una distribución normal de media nula y varianza 1
V tiene una distribución ji-cuadrado con grados de libertad
Z y V son independientes
Si μ es una constante no nula, el cociente es una variable aleatoria
que sigue la distribución t de Student no central con parámetro de no-
centralidad .
Supongamos que X1,..., Xn son variables aleatorias independientes distribuidas
normalmente, con media μ y varianza σ2. Sea
La media muestral. Entonces
Sigue una distribución normal de media 0 y varianza 1.
Sin embargo, dado que la desviación estándar no siempre es conocida de
antemano, Gosset estudió un cociente relacionado,
Donde
es la varianza muestral y demostró que la función de densidad de T es
Donde es igual a n − 1.
La distribución de T se llama ahora la distribución-t de Student.
El parámetro representa el número de grados de libertad. La distribución
depende de , pero no de o , lo cual es muy importante en la práctica
El procedimiento para el cálculo del intervalo de confianza basado en la t de
Student consiste en estimar la desviación típica de los datos S y calcular el error
estándar de la media , siendo entonces el intervalo de confianza para la
media = .
Es este resultado el que se utiliza en el test de Student: puesto que la diferencia
de las medias de muestras de dos distribuciones normales se distribuye también
normalmente, la distribución t puede usarse para examinar si esa diferencia puede
razonablemente suponerse igual a cero. Para efectos prácticos el valor esperado y
la varianza son: E (t(n))= 0 y Var (t(n-1)) = n/(n-2) para n > 3