Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor...

28
ESTAD ´ ISTICA DESCRIPTIVA E INTRODUCCI ´ ON A LA PROBABILIDAD Doble Grado en Ingenier´ ıaInform´aticayMatem´aticas Tema 6 Algunos modelos de distribuciones discretas. Una vez expuesta la teor´ ıa general sobre variables aleatorias y sus distribuciones de probabi- lidad, vamos a describir algunas distribuciones particulares que han demostrado, emp´ ıricamente, ser modelos apropiados para situaciones que ocurren en la vida real. A pesar de ello tales dis- tribuciones presentan un car´ acter te´orico en el sentido de que sus funciones de probabilidad o de densidad se deducen matem´ aticamente en base a ciertas hip´ otesis que se suponen v´alidas para los fen´ omenos aleatorios. La elecci´ on de una distribuci´ on de probabilidad para representar un fen´omeno de inter´ es pr´ actico debe estar motivada tanto por la comprensi´on de la naturaleza del fen´omeno en s´ ı, como por la posible verificaci´on de la distribuci´ on seleccionada a trav´ es de la evidencia emp´ ırica. En todo momento debe evitarse aceptar de manera t´acita una determinada distribuci´on de probabilidad como modelo de un problema pr´ actico. Una distribuci´ on de probabilidad est´ a caracterizada, de forma general, por una o m´as can- tidades que reciben el nombre de par´ ametros de la distribuci´ on. Un par´ ametro puede tomar cualquier valor de un conjunto dado y, en ese sentido, se define una familia de distribuciones de probabilidad que tendr´ an la misma funci´ on gen´ erica de probabilidad o funci´on de densidad. En este tema estudiaremos varias distribuciones de tipo discreto de gran utilidad en apli- caciones. En cada caso, se expondr´ a detalladamente c´ omo surgen (el modelo probabil´ ıstico subyacente) y se deducir´an sus momentos, funci´on generatriz de momentos y otras caracter´ ısti- cas de inter´ es 1. Distribuci´ on degenerada La distribuci´ on discreta m´ as sencilla es la correspondiente a una variable aleatoria degenerada o constante, es decir, la asociada a un experimento aleatorio que da lugar siempre al mismo resultado. Por tanto, dicha variable aleatoria tomar´a un ´ unico valor c. Su funci´on masa de probabilidad es P[X = x]= 1 x = c 0 x 6= c Algunas de sus caracter´ ısticas son: Funci´ondedistribuci´ on: F (x) = P[X x]= 0 x<c 1 x c Patricia Rom´ an Rom´ an 1

Transcript of Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor...

Page 1: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

Tema 6Algunos modelos de distribuciones discretas.

Una vez expuesta la teorıa general sobre variables aleatorias y sus distribuciones de probabi-lidad, vamos a describir algunas distribuciones particulares que han demostrado, empıricamente,ser modelos apropiados para situaciones que ocurren en la vida real. A pesar de ello tales dis-tribuciones presentan un caracter teorico en el sentido de que sus funciones de probabilidad ode densidad se deducen matematicamente en base a ciertas hipotesis que se suponen validaspara los fenomenos aleatorios.

La eleccion de una distribucion de probabilidad para representar un fenomeno de interespractico debe estar motivada tanto por la comprension de la naturaleza del fenomeno en sı,como por la posible verificacion de la distribucion seleccionada a traves de la evidencia empırica.En todo momento debe evitarse aceptar de manera tacita una determinada distribucion deprobabilidad como modelo de un problema practico.

Una distribucion de probabilidad esta caracterizada, de forma general, por una o mas can-tidades que reciben el nombre de parametros de la distribucion. Un parametro puede tomarcualquier valor de un conjunto dado y, en ese sentido, se define una familia de distribucionesde probabilidad que tendran la misma funcion generica de probabilidad o funcion de densidad.

En este tema estudiaremos varias distribuciones de tipo discreto de gran utilidad en apli-caciones. En cada caso, se expondra detalladamente como surgen (el modelo probabilısticosubyacente) y se deduciran sus momentos, funcion generatriz de momentos y otras caracterısti-cas de interes

1. Distribucion degenerada

La distribucion discreta mas sencilla es la correspondiente a una variable aleatoria degeneradao constante, es decir, la asociada a un experimento aleatorio que da lugar siempre al mismoresultado. Por tanto, dicha variable aleatoria tomara un unico valor c.Su funcion masa de probabilidad es

P[X = x] =

1 x = c

0 x 6= c

Algunas de sus caracterısticas son:

Funcion de distribucion:

F (x) = P[X ≤ x] =

0 x < c

1 x ≥ c

Patricia Roman Roman 1

Page 2: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

Momentos no centrados:

mk = E[Xk] = ckP[X = c] = ck, k = 1, 2, · · ·

Y, en particular, la MEDIA

E[X] = c.

Momentos centrados:

µk = E[(X − c)k] = 0, k = 1, 2, · · ·

Y, en particular, la VARIANZA

Var[X] = 0.

Esta propiedad caracteriza a las distribuciones degeneradas; es decir, una variable alea-toria tiene varianza cero si y solamente si es degenerada en un punto (Propiedades de lavarianza).

Funcion generatriz de momentos:

M(t) = E[etX ] = etc ∀t ∈ R.

NotasSi una variable aleatoria tiene funcion generatriz de momentos

MX(t) = e5t ∀t ∈ R

entonces, dado que la f.g.m. determina de forma unica la distribucion de la variable, X tieneuna distribucion degenerada en el punto 5, es decir

P[X = 5] = 1

Si una variable aleatoria tiene funcion generatriz de momentos

MX(t) = 1 ∀t ∈ R

entonces, dado que la f.g.m. determina de forma unica la distribucion de la variable, X tieneuna distribucion degenerada en el punto 0, es decir

P[X = 0] = 1

Patricia Roman Roman 2

Page 3: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

2. Distribucion uniforme discreta

Esta es la distribucion de probabilidad de una variable aleatoria discreta que toma un numerofinito de valores que son equiprobables y se utiliza para modelizar variables aleatorias aso-ciadas a experimentos aleatorios que tienen un numero finito de posibles resultados que sonequiprobables. Su funcion masa de probabilidad es

P[X = xi] =1

n, i = 1, 2, · · · , n

Se dice entonces que la variable aleatoria X se distribuye uniformemente sobre los puntosx1, x2, · · · , xn y se notara X ∼ U(x1, x2, . . . , xn).

EjemploLa variable aleatoria asociada al experimento aleatorio de lanzar un dado al aire (tiene seis

resultados posibles y equiprobables si el dado esta bien construido)

P [X = i] =1

6, i = 1, 2, · · · , 6

Algunas de sus caracterısticas son:

Funcion de distribucion:

F (x) =1

n(Numero de valores xi ≤ x) =

0 si x < x1

i

nsi xi ≤ x < xi+1, i = 1, . . . , n− 1

1 si x ≥ xn

Momentos no centrados:

mk = E[Xk] =1

n

n∑i=1

xki , k = 1, 2, · · ·

Y, en particular, la MEDIA

E[X] =1

n

n∑i=1

xi = x.

Momentos centrados:

µk = E[(X − EX)k] =1

n

n∑i=1

(xi − x)k, k = 1, 2, · · ·

Patricia Roman Roman 3

Page 4: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

Y, en particular, la VARIANZA

Var[X] =1

n

n∑i=1

(xi − x)2.

Funcion generatriz de momentos:

M(t) = E[etX ] =1

n

n∑i=1

etxi ∀t ∈ R.

En el caso particular xi = i, i = 1, 2, . . . , n

E[X] = 1n

∑ni=1 i = 1

nn(n+1)

2= n+1

2

E[X2] = 1n

∑ni=1 i

2 = 1nn(n+1)(2n+1)

6= (n+1)(2n+1)

6

Var[X] = (n+1)(2n+1)6

− (n+1)2

4= n2−1

12

3. Distribucion de Bernoulli

Supongamos un experimento aleatorio que da lugar, unicamente, a dos posibles resultadosque son mutuamente excluyentes y exhaustivos. Los dos posibles resultados se denotan como:

- exito (E), que sera el suceso objeto de estudio, y- fracaso (F ), que es el complementario de E.

Evidentemente

E,F ⊂ Ω, E ∪ F = Ω, E ∩ F = ∅.

A este tipo de experimentos aleatorios se les llama experimentos o pruebas de Bernou-lli.

Asociado a un experimento o prueba de Bernoulli y a su correspondiente espacio muestralΩ = E,F, se define la variable aleatoria con distribucion de Bernoulli como

X =

1 si ocurre el suceso E

0 si no ocurre el suceso E (ocurre F )

Si se denota por p a la probabilidad del suceso exito (E) y, por tanto, la probabilidad delsuceso fracaso sera 1− p, la funcion masa de probabilidad de esta variable aleatoria sera

P[X = 1] = pP[X = 0] = 1− p

o bien,

Patricia Roman Roman 4

Page 5: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

P[X = x] = px(1− p)1−x, x = 0, 1; 0 < p < 1

y se notara como X ∼ B(1, p). (Los casos p = 0 y p = 1 dan lugar a variables degeneradas)

Ejemplos- La variable aleatoria asociada al experimento aleatorio de lanzar una moneda (si la moneda

esta bien construida p = 1/2)- La variable aleatoria asociada a contabilizar ocurrencias, por ejemplo si una persona es

votante de un partido o no, si una pieza manufacturada es defectuosa o no (variables indicado-ras).

Algunas de sus caracterısticas son:

Funcion de distribucion

F (x) =

0 x < 0

1− p 0 ≤ x < 1

1 x ≥ 1

Momentos no centrados:

mk = p, k = 1, 2, · · ·

Y, en particular,

E[X] = p, E[X2] = p

Momentos centrados:

µk = (1− p)kp+ (−p)k(1− p), k = 1, 2, · · ·

Y, en particular,

Var[X] = E[X2]− (E[X])2 = p− p2 = p(1− p)

Funcion generatriz de momentos:

M(t) = pet + (1− p) ∀t ∈ R

Patricia Roman Roman 5

Page 6: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

NotaSi una variable aleatoria tiene funcion generatriz de momentos

MX(t) = 0,8et + 0,2 ∀t ∈ R

entonces, dado que la f.g.m. determina de forma unica la distribucion de la variable, X tieneuna distribucion B(1, 0,8).

Ejemplo.- Un agente de seguros dedicado a la venta de seguros de vida, realiza visitas a posiblesclientes con el fin de contratar un seguro de vida. Se sabe de su trayectoria como agente queen el 60 % de las visitas logra contratar un seguro. Definir la variable aleatoria asociada a esteexperimento aleatorio y obtener su media y varianza.

Tenemos un experimento aleatorio o prueba de Bernoulli que consiste en realizar una visita aun cliente e intentar contratarle un seguro. Los dos posibles resultados seran:

- El cliente contrata el seguro, suceso exito.- El cliente no contrata el seguro, suceso fracaso.

La variable aleatoria asociada al experimento se define como

X =

1 si el cliente contrata el seguro (ocurre el suceso E)

0 si el cliente no contrata el seguro (no ocurre el suceso E)

En este caso la probabilidad de exito es p = 0,6 y de aquı que la funcion masa de probabilidadde la variable aleatoria X es

P[X = 1] = P (E) = 0,6 = pP[X = 0] = P (E) = 0,4 = 1− p

La media y la varianza son

E[X] = p = 0,6Var[X] = p(1− p) = 0,6 · 0,4 = 0,24

4. Distribucion binomial

Una generalizacion de la distribucion de Bernoulli se obtiene cuando:- El experimento o prueba de Bernoulli se repite n veces de forma independiente.- La probabilidad de exito p permanece constante en cada repeticion del experimento.

Se define ahora una variable aleatoria X como el numero de exitos en las n repeticiones indepen-dientes del experimento que puede tomar los valores k = 0, 1, · · · , n. Calculemos la probabilidadde que dicha variable tome cada uno de esos valores; esto es, P[X = k], k = 0, 1, · · · , n, o loque es lo mismo, la probabilidad de obtener k exitos (o realizaciones del suceso E) en las npruebas de Bernoulli.

Una de las posibles formas de obtener k exitos en las n pruebas serıa que se realizara E enlas k primeras pruebas y E en las n− k restantes

Patricia Roman Roman 6

Page 7: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

EE · · k)EEE · · n−k)E

Al ser las pruebas independientes, la probabilidad de la interseccion de los n sucesos anterioressera el producto de las probabilidades de cada uno de los sucesos; esto es

pp · · k)p(1− p)(1− p) · · n−k)(1− p) = pk(1− p)n−k

Ahora habra que multiplicar esta probabilidad por el numero de posibles ordenaciones de losk exitos y los n− k fracasos, que es el numero de permutaciones de n elementos con repeticionde k elementos de un tipo y n− k de otro

n!

k!(n− k)!=

(n

k

)Por tanto

P[X = x] =

(n

x

)px(1− p)n−x, x = 0, 1, · · · , n

Definicion.- Se dice que una variable aleatoria X sigue una distribucion binomial deparametros n y p, n ∈ N, p ∈ (0, 1) si modeliza el numero de exitos en n repeticiones indepen-dientes de un ensayo de Bernoulli con probabilidad p de exito, manteniendose esta constanteen las n repeticiones del experimento; o bien, si su funcion masa de probabilidad es

P[X = x] =

(n

x

)px(1− p)n−x, x = 0, 1, · · · , n.

Se notara como X ∼ B(n, p).

Nota.-Observemos que la distribucion de Bernoulli no es mas que un caso particular de ladistribucion binomial con n = 1.

Probemos que, en efecto, es una funcion masa de probabilidad. En primer lugar, son valoresmayores o iguales que cero y, en segundo lugar, su suma vale uno. En efecto, teniendo en cuentael binomio de Newton

n∑x=0

P[X = x] =n∑x=0

(n

x

)px(1− p)n−x = [p+ (1− p)]n = 1

Ejemplo: Numero de caras al lanzar una moneda n veces de forma independiente.

Aplicaciones

Sus principales areas de aplicacion incluyen control de calidad, ventas, mercadotecnia, medicina,investigacion de opiniones y otras.

Patricia Roman Roman 7

Page 8: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

- Numero de unidades defectuosas en un proceso de fabricacion. En un proceso de manu-factura se produce un determinado producto en el que algunas unidades son defectuosas. Si laproporcion de unidades defectuosas producidas por este proceso es constante durante un perio-do razonable y si, como procedimiento de rutina, se seleccionan aleatoriamente un determinadonumero de unidades, entonces el numero de artıculos defectuosos en dicha muestra se puedemodelizar mediante el empleo de la distribucion binomial.

- En aplicaciones de publicidad para la venta de un artıculo, tambien puede considerarsela distribucion binomial, si se supone que la probabilidad de venta es constante para todas laspersonas consideradas.

- En Medicina, por ejemplo, para estudiar el numero de individuos que contraen una enfer-medad, si para un grupo determinado de la poblacion la probabilidad de contraer tal enfermedadse mantiene constante.

Algunas de sus caracterısticas son:

Funcion de distribucion:

F (x) = P[X ≤ x] =

0 x < 0

P[X = 0] + . . .P[X = i] i ≤ x < i+ 1; i = 1, 2, . . . , n− 1

1 x ≥ n

o bien,

F (x) =

0 x < 0

[x]∑k=0

(n

k

)pk(1− p)n−k 0 ≤ x < n

1 x ≥ n

donde [x] denota la parte entera de x. Dicha funcion de distribucion es una funcionescalonada con n+ 1 saltos en los puntos 0, · · · , n de longitudes P[X = 0], . . . ,P[X = n]

Funcion generatriz de momentos

M(t) = (pet + (1− p))n ∀t ∈ R

En efecto

Patricia Roman Roman 8

Page 9: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

M(t) = E[etX]

=n∑x=0

etx(n

x

)px(1− p)n−x

=n∑x=0

(n

x

)(pet)x(1− p)n−x = [pet + (1− p)]n

Momentos: Dado que la variable esta acotada, existen los momentos de todos los ordenes,pero nos limitaremos a calcular hasta los de orden dos.

Media

E[X] = np

lo cual se puede probar, o bien a partir de la funcion generatriz de momentos o bien,directamente. Veamos la obtencion directa

E[X] =n∑x=0

x

(n

x

)px(1− p)n−x =

n∑x=0

xn!

x!(n− x)!px(1− p)n−x =

n∑x=1

n!

(x− 1)!(n− x)!px(1− p)n−x = np

n∑x=1

(n− 1)!

(x− 1)!(n− x)!px−1(1− p)n−x

Tomando y = x− 1 y m = n− 1, entonces

E[X] = np

m∑y=0

m!

y!(m− y)!py(1− p)m−y = np

dado que los terminos de la ultima suma corresponden a la funcion masa de probabilidadde una B(m, p) y, por tanto, suman uno.

Varianza

Var[X] = np(1− p)

dado que el momento no centrado de orden dos es m2 = E[X2] = n(n−1)p2 +np. Este sepuede obtener a partir de la funcion generatriz de momentos o bien directamente. Veamosesta ultima forma

E[X2] = E[X(X − 1)] + E[X]

Dado que E[X] ya es conocida, obtengamos la otra

Patricia Roman Roman 9

Page 10: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

E[X(X − 1)] =n∑x=0

x(x− 1)

(n

x

)px(1− p)n−x =

n∑x=0

x(x− 1)n!

x!(n− x)!px(1− p)n−x

n∑x=2

n!

(x− 2)!(n− x)!px(1− p)n−x = n(n− 1)p2

n∑x=2

(n− 2)!

(x− 2)!(n− x)!px−2(1− p)n−x

Tomando ahora y = x− 2 y m = n− 2, de forma analoga a la media , se obtiene

E[X(X − 1)] = n(n− 1)p2m∑y=0

m!

y!(m− y)!py(1− p)m−y = n(n− 1)p2

dado que los terminos de la ultima suma corresponden a la funcion masa de probabilidadde una B(m, p) y, por tanto suman uno.

Propiedad de simetrıa.- Si X ∼ B(n, p), entonces la variable aleatoria que contabilizael numero de fracasos, Y = n−X ∼ B(n, 1− p) y, ademas

P[X = x] = P[Y = n− x]

Se puede probar calculando la funcion generatriz de momentos.

MY (t) = E[et(n−X)] = etnMX(−t) = etn(pe−t + (1− p)

)n=((1− p)et + p

)n.

Calculo de probabilidades y representaciones graficas

(Ver apuntes y scripts de R, y applets de Java con Geogebra)

EJERCICIOS

1.- Un club nacional de automovilistas comienza una campana telefonica con el proposito deaumentar el numero de miembros. En base a experiencia previa, se sabe que una de cada 20personas que reciben la llamada se une al club. Si en un dıa, 25 personas reciben la llamadatelefonica, ¿cual es la probabilidad de que por lo menos dos de ellas se inscriban al club? ¿Cuales el numero esperado?

Solucion: Si cada persona que recibe la llamada se une o no al club, independientemente delresto, entonces,

X : Numero de personas que se unen al club de las 25 llamadas

Patricia Roman Roman 10

Page 11: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

X ∼ B(25, 1/20)

P[X ≥ 2] = 1− P[X < 2] = 1− [P[X = 0] + P[X = 1]] =

= 1−

[(25

0

)(1

20

)0(19

20

)25

+

(25

1

)(1

20

)1(19

20

)24]

= 0.3576

E[X] = np = 251

20= 1.25

2.- Un representante realiza cinco visitas cada dıa a los comercios de su ramo y, por experienciaanterior, sabe que la probabilidad de que le hagan un pedido en cada visita es 0.4. Calcular

a) La distribucion del numero de pedidos por dıa.

b) Media y varianza del numero de pedidos por dıa.

c) Probabilidad de que el numero de pedidos que realiza durante un dıa sea 4.

d) La probabilidad de que realice por lo menos dos pedidos.

e) La probabilidad de que el numero de pedidos que realiza durante un dıa este comprendidoentre 1 y 3.

Solucion: Supuesto que en cada visita se hace un pedido o no independientemente de lo que sehaga en otra visita:

a) X : Numero de pedidos diarios ∼ B(5, 0.4)

b) E[X] = 5× 0.4 = 2, V ar[X] = 5× 0.4× 0.6 = 1.2

c) P (X = 4) =(54

)0.440.61 = 0.0768.

Con R, dbinom(4,5,0.4)=0.0768.

d) P (X ≥ 2) = 1− P (X < 2) = 1− P (X ≤ 1) = 1− (P (X = 0) + P (X = 1)) = 0.66304.Con R, 1-pbinom(1,5,0.4)=0.66304, o bien, dado que P (X ≥ 2) = P (X > 1),pbinom(1,5,0.4,lower.tail=FALSE)=0.66304.

e) P (1 ≤ X ≤ 3) = P (X = 1)+P (X = 2)+P (X = 3) =(51

)0.410.64+

(52

)0.420.63+

(53

)0.430.62 =

0.2592 + 0.3456 + 0.2304 = 0.8352.Con R, sum(dbinom(1:3,5,0.4))=0.8352, o bien, pbinom(3,5,0.4)-pbinom(0,5,0.4)=0.8352.

3.- Se envıan 20 invitaciones a los representantes estudiantiles para asistir a una conferencia.De experiencias anteriores se sabe que la probabilidad de aceptar la invitacion es 0.8. Si lasdecisiones de aceptar estas invitaciones son independientes, determinar la probabilidad de quecomo mınimo 17 estudiantes acepten la invitacion.

Solucion:X : Numero de representantes que aceptan la invitacion ∼ B(20, 0.8)

Patricia Roman Roman 11

Page 12: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

P (X ≥ 17) = P (X = 17) + P (X = 18) + P (X = 19) + P (X = 20)

Con R, pbinom(16,20,0.8,lower.tail=FALSE)=0.4114489.

5. Distribucion de Poisson

Esta distribucion sirve para representar el numero de ocurrencias de un determinado su-ceso durante un periodo de tiempo fijo o en una region fija del espacio, cuando el numero deocurrencias sigue unas determinadas pautas:

El numero de ocurrencias en un intervalo o region especificada debe ser independiente delnumero de ocurrencias en cualquier otro intervalo o region.

Si se considera un intervalo de tiempo muy pequeno (o una region muy pequena), laprobabilidad de una ocurrencia es proporcional a la longitud del intervalo (al volumen dela region) y la probabilidad de dos o mas ocurrencias es practicamente nula (despreciable).

Definicion: Una variable aleatoria X tiene distribucion de Poisson de parametro λ (λ > 0) sisu funcion masa de probabilidad es

P[X = x] = e−λλx

x!, x = 0, 1, . . .

Se nota X ∼ P(λ).

Probemos que en efecto es una funcion masa de probabilidad. En primer lugar, son valoresmayores o iguales que cero y, en segundo lugar, su suma vale uno. En efecto, teniendo encuenta el desarrollo de la exponencial

∞∑x=0

P[X = x] =∞∑x=0

e−λλx

x!= e−λ

∞∑x=0

λx

x!= e−λeλ = 1

Aplicaciones

Esta distribucion sirve para representar, por ejemplo:

- Numero de accidentes que ocurren durante un determinado espacio de tiempo en unadeterminada carretera.

- Numero de llamadas telefonicas a una oficina (en un determinado intervalo de tiempo).

- Numero de bacterias en un cultivo.

En general, las situaciones reales en las que se usa la distribucion de Poisson se caracterizanporque la probabilidad del suceso cuyo numero de ocurrencias se contabiliza es pequena y porello suele denominarse la LEY DE LOS SUCESOS RAROS.

Algunas de sus caracterısticas son:

Patricia Roman Roman 12

Page 13: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

Funcion de distribucion

F (x) =

0 x < 0

[x]∑k=0

e−λλk

k!x ≥ 0

donde [x] denota la parte entera de x.

Funcion generatriz de momentos

M(t) = eλ(et−1) ∀t ∈ R

En efecto

M(t) =∞∑x=0

etxe−λλx

x!= e−λ

∞∑x=0

(etλ)x

x!= e−λeetλ = eλ(e

t−1)

Media

E[X] = λ

lo cual se puede probar o bien directamente, o a partir de la funcion generatriz de mo-mentos. Veamos la obtencion directa

E[X] =∞∑x=0

xe−λλx

x!= λe−λ

∞∑x=1

λx−1

(x− 1)!= λe−λeλ = λ

Por tanto, el parametro λ de la distribucion es el numero medio de ocurrencias en elintervalo de tiempo o region del espacio considerada.

Varianza

Var[X] = λ

Razonando de forma analoga a la binomial y calculando E[X(X − 1)]

E[X(X − 1)] =∞∑x=0

x(x− 1)e−λλx

x!= λ2e−λ

∞∑x=2

λx−2

(x− 2)!= λ2e−λeλ = λ2

se obtiene E[X2] = λ2 + λ, de donde se deduce el valor de la varianza.

Patricia Roman Roman 13

Page 14: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

Relacion entre las distribuciones binomial y de Poisson

La distribucion de Poisson se puede obtener como lımite de una distribucion binomial: Consi-deramos una variable que modeliza el numero de sucesos ocurridos en un intervalo de tiempo,y dividimos dicho intervalo en n subintervalos tan pequenos de forma que en cada uno de ellospueda ocurrir a lo sumo un suceso con probabilidad no nula, a la que llamaremos p. De estaforma el numero de sucesos que ocurren en cada subintervalo tiene una distribucion B(1, p) y,al ocurrir los sucesos de forma independiente en los subintervalos, el numero de sucesos en elintervalo es una B(n, p).

Claramente, cuando n aumenta, p disminuye ya que al aumentar n disminuye la amplitudde los intervalos y, por tanto, la probabilidad de que ocurra un suceso en el.

En consecuencia, considerando un numero n grande de pruebas de Bernoulli independientes,con probabilidad de ocurrencia p pequena, y tomando λ = np, se obtiene la distribucion dePoisson como lımite de la binomial cuando n → ∞. Es decir, si n → ∞, p → 0 y np → λ ladistribucion binomial tiende a una Poisson, es decir

lımn→∞p→0np→λ

[(n

x

)px(1− p)n−x

]= e−λ

λx

x!x = 0, 1, · · ·

En efecto,

P[X = x] =

(n

x

)px(1− p)n−x =

n!

x!(n− x)!

(np)x

nx(1− p)n−x =

=(np)x

x!

n(n− 1) · · · (n− x+ 1)

nx(1− p)n−x

Ahora tomando lımites cuando n→∞, p→ 0 de forma que np→ λ, se tiene

lımn→∞p→0np→λ

[(n

x

)px(1− p)n−x

]=

e−λλx

x!

dado que

lımnp→λ

(np)x

x!=λx

x!

lımn→∞

n(n− 1) · · · [n− (x− 1)]

nx= 1

lımn→∞p→0

(1− p)n−x = elım(n−x)(−p) = e−λ

Calculo de probabilidades y representaciones graficas

(Ver apuntes y scripts de R, y applets de Java con Geogebra)

Patricia Roman Roman 14

Page 15: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

EJERCICIOS

1.- En una cierta empresa constructora el numero de accidentes es por termino medio de 3 pormes. Calcular:a) La probabilidad de que no ocurra ningun accidente en un mes dado.b) La probabilidad de que ocurran menos de 5 accidentes en un mes dado.c) La probabilidad de que ocurran mas de 3 accidentes en un mes dado.d) La probabilidad de que ocurran exactamente 3 accidentes en un mes dado.

Si suponemos que los accidentes cuando ocurren son independientes unos de otros y ademas,que ocurren con una tasa de ocurrencia constante, la variable aleatoria numero de accidentesen un mes dado tiene una distribucion de Poisson. Dado que el numero medio de accidentes almes es 3 y el parametro λ de una Poisson es el valor medio (λ = 3), la distribucion consideradaes una P(3). Las probabilidades solicitadas son

a) P[X = 0] = 30

0!e−3 = 0.0498

Con R, dpois(0,3)=0.04978707.

b) P[X < 5] = P[X ≤ 4] = P[X = 0] + P[X = 1] + P[X = 2] + P[X = 3] + P[X = 4] =

= e−λλ0

0!+ e−λ

λ1

1!+ e−λ

λ2

2!+ e−λ

λ3

3!+ e−λ

λ4

4!=

= 0.0498 + 0.1494 + 0.2240 + 0.2240 + 0.1680 = 0.8152.

Con R, ppois(4,3)=0.8152632.

c) P[X > 3] = 1− P[X ≤ 3]Con R, 1-ppois(3,3) o ppois(3,3,lower.tail=FALSE)=0.3527681.

d) P[X = 3] = 0.2240.

Con R, dpois(3,3)=0.2240418.

2.- Desde el ano 1980 el numero medio de empresas, con mas de 100 trabajadores, que hanpresentado suspension de pagos ha sido de 6.8 por ano, y admitimos que el numero de empresascon mas de 100 trabajadores, X, que han presentado suspension de pagos durante un periododeterminado de tiempo sigue una distribucion de Poisson. Obtenera) La probabilidad de que ninguna empresa de mas de 100 trabajadores presente suspension depagos durante un trimestre.b) La probabilidad de que por lo menos dos empresas de mas de 100 trabajadores presentensuspension de pagos durante un determinado ano.

La distribucion que sigue X, el numero de empresas con mas de 100 trabajadores que hanpresentado suspension de pagos durante un periodo de tiempo es una Poisson de parametro λ.a) Como las empresas de mas de 100 trabajadores presentan suspension de pagos a razon de6.8 por ano, en un trimestre sera

Patricia Roman Roman 15

Page 16: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

6.8

4= 1.7

Luego la variable Y , numero de empresas con mas de 100 trabajadores que han presentadosuspension de pagos durante un trimestre es una Poisson de parametro λ = 1.7 y la probabilidadpedida

P[Y = 0] = e−1.71.70

0!= 0.1827

Con R, dpois(0,1.7)= 0.1826835.

b) Para obtener ahora la probabilidad de que por lo menos dos empresas de mas de 100 traba-jadores presenten suspension de pagos durante un determinado ano consideraremos la variablealeatoria X ∼ P(6.8). Luego

P[X ≥ 2] = 1− P[X = 0]− P[X = 1] = 1− 0.0011− 0.0076 = 0.9913

Con R, ppois(1,6.8, lower.tail=FALSE)=0.9913126, o bien 1-ppois(1,6.8).

3.- A una calculadora le fallan, por termino medio en cada hora de trabajo, dos transistores. Sesabe que el numero de fallos de los transistores sigue una distribucion de Poisson. La calculadoradeja de funcionar cuando se le averıan seis o mas transistores. Calcular la probabilidad de queuna operacion de tres horas se pueda realizar sin averıa.

X: Numero de fallos en tres horas ∼ P(6)

Se pide

P(X < 6) = P(X ≤ 5) =5∑

x=0

P (X = x) =5∑

x=0

e−66x

x= 0.0025 + 0.0149 + 0.0446 + 0.0892 +

0.1339 + 0.1606 = 0.4457

Con R, ppois(5,6)=0.4456796.

6. Distribucion binomial negativa

Consideremos ahora un experimento aleatorio consistente en repeticiones independientes deensayos de Bernoulli con probabilidad de exito constante, hasta que aparezca el exito k-esi-mo. Es decir, en lugar de fijar el numero de ensayos y observar el numero de exitos en esas nrealizaciones, se repiten las realizaciones hasta obtener un numero determinado de exitos y con-tabilizamos los fracasos. Definimos la variable aleatoria con distribucion binomial negativacomo aquella que modeliza el numero de fracasos antes de que aparezca el exito k-esimo.

Nota.- Si en vez de contabilizar el numero de fracasos antes del k-esimo exito se contabilizael numero de pruebas necesarias (variable aleatoria Y = X + k), se obtiene la distribucion dePascal que verifica

Patricia Roman Roman 16

Page 17: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

P[Y = n] = P[X = n− k].

La variable aleatoria X puede tomar los valores x = 0, 1, 2, . . . y k debe ser un enteropositivo, es decir, k = 1, 2, . . . .

Calculemos la funcion masa de probabilidad de la variable aleatoria binomial negativa; estoes,

P[X = x], x = 0, 1, 2, . . .

Uno de los posibles sucesos para el cual ocurre X = x serıa que en las x primerasrepeticiones apareciera “fracaso”, en las k − 1 siguientes “exito” y en la ultima “exito”

E x). . . E|E k−1). . . E|E

y como las repeticiones de las pruebas de Bernoulli son independientes, la probabilidad delsuceso anterior sera

P[E x). . . EE k). . . E

]= P(E)

x)· · · P(E) · P(E)

k)· · · P(E) = (1− p)xpk

Pero la obtencion de los x fracasos y los k−1 exitos se pueden obtener de tantas maneras comolas permutaciones con repeticion de x + k − 1 elementos en los que hay iguales x y k − 1, esdecir (

x+ k − 1

x

)=

(x+ k − 1)!

x!(k − 1)!

Por tanto, la funcion masa de probabilidad de esta variable aleatoria es

P[X = x] =

(x+ k − 1

x

)(1− p)xpk, x = 0, 1, 2, · · · (k = 1, 2, · · · ; 0 ≤ p < 1)

y se notara como X ∼ BN(k, p).

Comprobemos que es, en efecto, una funcion masa de probabilidad. Para ello tengamos encuenta lo siguiente

∀α ∈ R,(α0

)= 1

∀α ∈ R, x ∈ N,(αx

)= α(α−1)···(α−x+1)

x!

(1 + t)α =∑∞

x=0

(αx

)tx, |t| < 1, ∀α ∈ R

Propiedad:“Para cualquier numero real α > 0(−αr

)= (−1)r

(α + r − 1

r

)”

Patricia Roman Roman 17

Page 18: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

En primer lugar, es evidente que P[X = x] ≥ 0, x = 0, 1, 2, . . . y

∞∑x=0

P[X = x] =∞∑x=0

(k + x− 1

x

)(1− p)xpr

=∞∑x=0

(−kx

)[−(1− p)]xpk = pk[1− (1− p)]−k = pkp−k = 1

Observemos que, de hecho, otra expresion de la funcion masa de probabilidad de la binomialnegativa es

P[X = x] =

(−kx

)[−(1− p)]xpk

Ejemplos

- Numero de preguntas falladas en un examen tipo test antes de tener el decimo acierto.- Numero de unidades defectuosas antes de obtener un numero concreto de correctas.

Algunas de las caracterısticas de la distribucion binomial negativa son:

Funcion de distribucion:

F (x) = P[X ≤ x] =

0 x < 0

[x]∑i=0

(i+ k − 1

i

)(1− p)ipk x ≥ 0

Funcion generatriz de momentos:

M(t) =

(p

1− (1− p)et

)k∀t < −ln(1− p)

En efecto,

E[etX]

=∞∑x=0

etxP[X = x] =∞∑x=0

etx(−kx

)(−(1− p))xpk

que converge si |et(−(1− p))| < 1 ⇔ et(1− p) < 1 ⇔ t < −ln(1− p)

=∞∑x=0

(−kx

)(−(1− p)et)xpk = pk

∞∑x=0

(−kx

)(−(1− p)et)x

= pk(1− (1− p)et)−k

Patricia Roman Roman 18

Page 19: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

Momentos: Existen todos dado que existe la funcion generatriz de momentos. Nos limitaremosa obtener los momentos de primer y segundo orden.Media

E[X] =k(1− p)

p

Veamos la obtencion de forma directa:

E[X] =∞∑x=0

x

(−kx

)(−(1− p))xpk = pk

∞∑x=1

x(−k)(−k − 1) · · · (−k − x+ 1)

x(x− 1)!(−(1− p))x =

pk(−(1− p))∞∑x=1

(−k)

(−k − 1

x− 1

)(−(1− p))x−1 = k(1− p)pk(1− (1− p))−k−1 =

k(1− p)p

Varianza

Var[X] =k(1− p)

p2

Razonando de forma analoga al caso binomial, se obtiene

E[X2] =k(k + 1)(1− p)2

p2+k(1− p)

p,

de donde se deduce la expresion de la varianza.

Relacion entre las distribuciones binomial y binomial negativa

Si X es una variable aleatoria con distribucion BN(k, p), el suceso X = x significa la inter-seccion de los sucesos

A = se han obtenido k − 1 exitos en los primeros k + x− 1 ensayosde una serie de pruebas independientes de Bernoulli

B = se ha obtenido un exito en el siguiente ensayo de la serie

El suceso A equivale a Y = k − 1, con Y ∼ B(k + x − 1, p), y el segundo es independientedel primero y ocurre con probabilidad p. Entonces

P[X = x] = P[Y = k − 1] · p

Caso particular: Distribucion Geometrica

La distribucion geometrica es un caso particular de la distribucion binomial negativa parael caso de k = 1. Es decir, modeliza el numero de fracasos antes del primer exito en repeticio-nes independientes de ensayos de Bernoulli con probabilidad de exito p. Su funcion masa deprobabilidad es

Patricia Roman Roman 19

Page 20: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

P[X = x] = (1− p)xp, x = 0, 1, 2, · · · (0 < p < 1)

y se notara como X ∼ G(p).

Sus caracterısticas mas relevantes son

Funcion de distribucion:

F (x) = P[X ≤ x] =

0 x < 0

[x]∑i=0

(1− p)ip x ≥ 0

Pero como 1

[x]∑i=0

(1− p)ip = p

[x]∑i=0

(1− p)i = p1− (1− p)[x]+1

1− (1− p)= 1− (1− p)[x]+1

se puede reescribir la funcion de distribucion como

F (x) = P[X ≤ x] =

0 x < 0

1− (1− p)[x]+1 x ≥ 0

Funcion generatriz de momentos:

M(t) =

(p

1− (1− p)et

)∀t < −ln(1− p)

Media:

E[X] =1− pp

Varianza:

Var[X] =1− pp2

1Recordemos que la suma de los n terminos de una progresion geometrica an de razon r es

Sn =a1 − an · r

1− r

Patricia Roman Roman 20

Page 21: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

Propiedad de olvido o falta de memoria:

Esta propiedad se formula de la siguiente forma: Si X es una variable aleatoria condistribucion geometrica de parametro p, G(p), entonces se verifica que

P[X ≥ h+ k|X ≥ h] = P[X ≥ k], h, k = 0, 1, 2, . . .

“Si se ha realizado la h-esima repeticion del experimento o prueba de Bernoulli y no seha obtenido ningun exito, entonces la probabilidad de que se realicen por lo menos otrask repeticiones sin que se presente ningun exito, es decir que se realicen por lo menos h+krepeticiones, es la misma que si consideramos que la primera repeticion es la h+ 1-esima;es decir, esa probabilidad es la misma que la probabilidad de que realicemos al menos krepeticiones sin obtener el primer exito, y por consiguiente se olvidan las h repeticionesrealizadas inicialmente.

Vamos a demostrarla, si X ∼ G(p)

P[X ≥ x] = 1− P[X < x] = 1− F (x− 1) = 1− (1− (1− p)x) = (1− p)x.

Por tanto, si k, h,∈ N

P[X ≥ h+ k|X ≥ h] =P[X ≥ h+ k,X ≥ h]

P[X ≥ h]=

P[X ≥ h+ k]

P[X ≥ h]=

(1− p)h+k

(1− p)h= (1− p)k = P[X ≥ k]

Esta propiedad, ademas, caracteriza a la distribucion geometrica como la unica enterovaluada (positiva) que la cumple.

La distribucion de probabilidad geometrica se aplica frecuentemente en el estudio de la distribu-cion de la duracion de tiempos de espera. Ası pues, si las repeticiones del experimento se realizana intervalos regulares de tiempo, entonces la variable aleatoria con distribucion geometrica nosdara el numero de intervalos de tiempo transcurridos hasta que aparezca el primer exito.

EJERCICIOS

1.- Un examen de Estadıstica consta de 20 preguntas tipo test y se conoce de experienciasanteriores que un alumno tiene probabilidad 0.7 de contestar bien cada pregunta. Obtener:a) La probabilidad de que la primera pregunta que contesta bien sea la cuarta.b) Sabiendo que para aprobar el examen es necesario contestar bien a 10 preguntas, ¿cual es laprobabilidad de que apruebe al contestar la pregunta duodecima?

a) X= Numero de fallos antes del primer exito, X ∼ G(0.7)

Patricia Roman Roman 21

Page 22: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

P[X = 3] = (0.3)30.7 = 0.0189

Con R, dgeom(3,0.7)=0.0189.b) X= Numero de fallos antes del decimo exito, X ∼ BN(10, 0.7)

P[X = 2] =

(2 + 10− 1

2

)(0.3)2(0.7)10 =

(11

2

)(0.3)2(0.7)10.

Con R, dnbinom(2,10,0.7)=0.1398252.Esta probabilidad se puede obtener mediante la relacion con la binomial Y= Numero de exitosen las 11 primeras pruebas, Y ∼ B(11, 0.7)

P [X = 2] = P [Y = 9] · 0.7

2.- Una maquina dedicada a la fabricacion de piezas de alta precision produce las piezas de unaen una, siendo independiente la fabricacion de cada pieza. La probabilidad de fabricar una piezadefectuosa es 0.15. Obtenera) La probabilidad de que la primera pieza defectuosa durante ese dıa sea la numero 40.b) Sabiendo que en la fabricacion de cada pieza se tardan 20 segundos ¿cual sera el tiempomedio que hay que esperar hasta que sea producida la primera pieza defectuosa?c) Probabilidad de que las ocho primeras piezas fabricadas sean todas buenas.

a) X= Numero de piezas buenas antes de la primera defectuosa, X ∼ G(0.15)

P [X = 39] = (0.85)39 · 0.15

Con R, dgeom(39,0.15)= 0.000265112.

b) EX = 1−pp

= 0.850.15 = 5.666. que es el numero medio de piezas buenas antes de la primera

defectuosa. Por tanto, el tiempo pedido es 20× (5.666 + 1) = 133.33 segundos.

c) P [X ≥ 8] = 1− F (7) = 1− P [X ≤ 7]Con R, 1-pgeom(7,0.15) o pgeom(7,0.15, lower.tail=FALSE)= 0.2724905.

Si consideramos Y = Numero de piezas buenas en las 8 primeras, Y ∼ B(8, 0.85)

P [Y = 8]

Con R, dbinom(8,8,0.85)= 0.2724905.

7. Distribucion hipergeometrica

Se denomina poblacion a cualquier coleccion de individuos, objetos o elementos arbitrariosy una muestra de tamano n de esa poblacion es cualquier subconjunto con n elementos.

El procedimiento de seleccion de muestras de una poblacion se denomina muestreo y estepuede realizarse de distintas formas, dando lugar a distintos tipos de muestras de las queaquı vamos a distinguir las dos siguientes (suponiendo una poblacion finita):

Patricia Roman Roman 22

Page 23: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

MUESTRA ALEATORIA CON REEMPLAZAMIENTO (CON DEVOLUCION O SIMPLE).Se selecciona al azar un elemento de la poblacion (suponiendo que todos tienen la misma

probabilidad de ser seleccionado), se devuelve a la poblacion (despues de anotar las caracterısti-cas de interes) y se selecciona otro tambien de forma aleatoria; se continua el proceso hastacompletar el tamano muestral deseado.

Notemos que una muestra aleatoria con reemplazamiento puede contener elementos repeti-dos y, en ciertas ocasiones, esto no es conveniente (incluso puede no ser posible, por ejemplo,al estudiar la duracion de vida de cierto tipo de bombillas).

MUESTRA ALEATORIA SIN REEMPLAZAMIENTO (SIN DEVOLUCION).Se selecciona al azar un elemento de la poblacion (suponiendo que todos tienen la misma

probabilidad de ser seleccionado); a continuacion, sin devolverlo a la poblacion, se seleccionaotro suponiendo que los restantes tienen la misma probabilidad de ser elegidos y ası sucesiva-mente.

Notemos que ahora todos los elementos de la muestra seran distintos.El muestreo sin reemplazamiento es util en muchas situaciones practicas. Por ejemplo, con-

sideremos una poblacion con N individuos que deben elegir entre dos candidatos A y B a ciertopuesto. Con objeto de realizar un sondeo de opinion antes de la eleccion se efectua un muestreode n individuos para ver su preferencia. En una situacion de este tipo parece logico hacer unmuestreo sin reemplazamiento, que proporcionara mas informacion sobre la intencion de votoal tener todos los individuos diferentes.

Observemos que si en la poblacion hay N1 votantes de A y la muestra se elige con reempla-zamiento, cada elemento de la muestra tiene probabilidad N1/N de ser votante de A. Por tanto,la seleccion de la muestra equivale a la repeticion de n pruebas de Bernoulli independientes conprobabilidad constante de exito (ser votante de A) y la variable X: Numero de votantes de Aen la muestra ∼ B(n, N1

N)

Por el contrario, si el muestreo se realiza sin reemplazamiento, la probabilidad de exito varıadespues de cada seleccion y las pruebas de Bernoulli no son independientes:

La probabilidad de que el primer individuo seleccionado vote al candidato A es

N1

N

La probabilidad de que el segundo individuo seleccionado vote al candidato A dependede lo que haya ocurrido en la primera prueba

P (2A/1A) =N1 − 1

N − 1, P (2A/1B) =

N1

N − 1.

Por tanto, la variable X: Numero de votantes de A en la muestra, no tiene ahora unadistribucion binomial, sino que su distribucion es la denominada HIPERGEOMETRICA.

Antes de introducir formalmente esta distribucion notemos que, a efectos de calcular pro-babilidades, el muestreo sin reemplazamiento equivale a la seleccion simultanea de n elementos

Patricia Roman Roman 23

Page 24: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

de la poblacion, suponiendo que todos los subconjuntos de n elementos tienen la misma proba-bilidad de ser elegidos.

En efecto, si la seleccion se realiza simultaneamente no cabe distinguir entre dos muestrasque tengan los mismos elementos (no se tiene en cuenta el orden) y hay en total

(Nn

)mues-

tras distintas y la probabilidad de elegir una cualquiera de ellas (esto es, que n individuosdeterminados formen parte de la muestra) es 1

(Nn).

Por otra parte, si la seleccion se realiza elemento a elemento, dos muestras con los mismoselementos en distinto orden seran distintas y, en total, hay N(N − 1) · · · (N − n+ 1) muestrasdistintas; la probabilidad de que una muestra este formada por n individuos concretos es

n!

N(N − 1) · · · (N − n+ 1)=

1(Nn

)que es igual a la anterior.

Definicion

Supongamos una poblacion de N individuos divididos en dos categorıas de N1 y N2(=N −N1) individuos cada uno. Se elige una muestra de n individuos de la poblacion (sin reem-plazamiento o simultaneamente). La variable aleatoria X que contabiliza el numero de indivi-duos de la primera categorıa en la muestra se dice que tiene distribucion hipergeometrica deparametros N , N1 y n y se nota

X ∼ H(N,N1, n), n,N1, N ∈ N− 0, n,N1 ≤ N

Funcion masa de probabilidad

Evidentemente, un valor de la variable X debe ser un numero natural (debe incluirse elcero) verificando

max(0, n− (N −N1)) ≤ x ≤ mın(n,N1)

pues como hay N1 elementos en la primera subpoblacion y N2 en la segunda subpoblacion setiene que cumplir

x ≤ n, x ≤ N1 ⇒ x ≤ mın(n,N1)x ≥ 0, n− x ≤ N2 ⇒ x ≥ max(0, n−N2)

Obtengamos la funcion masa probabilidad de dicha variable aleatoria, esto es la P[X = x],para los diferentes valores posibles de x.

PX = x =

(N1x )(N−N1

n−x )(Nn)

Muestra simultanea

(Regla de Laplace)

N1

NN1−1N−1 · · ·

N1−(x−1)N−(x−1)

N−N1

N−xN−N1−1N−x−1 · · ·

N−N1−(n−x−1)N−n+1

(nx

)Muestra con reemp.

=(N1x )(N−N1

n−x )(Nn)

Patricia Roman Roman 24

Page 25: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

Luego la funcion masa de probabilidad de esta variable aleatoria sera

P[X = x] =

(N1

x

)(N−N1

n−x

)(Nn

) max(0, n− (N −N1)) ≤ x ≤ mın(n,N1)

Probemos que es una funcion masa de probabilidad. En efecto, las probabilidades son no nega-tivas y ademas 2

mın(n,N1)∑x=max(0,n−(N−N1))

P[X = x] =

mın(n,N1)∑x=max(0,n−(N−N1))

(N1

x

)(N−N1

n−x

)(Nn

) =

(N1+N−N1

n

)(Nn

) =

(Nn

)(Nn

) = 1

Ejemplos y/o aplicaciones

La distribucion hipergeometrica se aplica en el control estadıstico de calidad de una fabri-cacion en serie. Ası pues, si el lote bajo control contiene N1 elementos buenos y N2 = N −N1

elementos defectuosos, cuando tomamos una muestra de tamano n sin reemplazamiento esta-remos interesados en saber el numero de elementos buenos que han aparecido en la muestra detamano n para ası determinar la calidad del proceso de fabricacion.

En sondeos de opinion tambien tiene aplicacion la distribucion hipergeometrica. Podemosrealizar una encuesta para intentar conocer si los individuos de una poblacion tienen o nointencion de votar en las proximas elecciones de tal manera que el numero de individuos,de una muestra sin reemplazamiento, que tienen intencion de votar sigue una distribucionhipergeometrica.

Algunas de sus caracterısticas son:

2Usando que dados dos numeros cualesquiera a y b y un entero positivo n, se verifica

n∑x=0

(a

x

)(b

n− x

)=

(a + b

n

)aunque realmente, dado que

(ax

)= 0 si x > a al haber un termino nulo en a(a− 1) · · · (a− x+ 1) se debe tomar

x ≤ a, y dado que(

bn−x

)= 0 si n− x > b se debe tomar x ≥ n− b. Por tanto la suma parte de max(0, n− b) y

llega a mın(n, a) y realmente se tiene

mın(n,a)∑x=max(0,n−b)

(a

x

)(b

n− x

)=

(a + b

n

)

Patricia Roman Roman 25

Page 26: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

Funcion de distribucion:

F (x) =

0 x < max(0, n− (N −N1))

∑[x]i=0

(Npi )(N(1−p)n−i )

(Nn)max(0, n− (N −N1)) ≤ x ≤ mın(n,N1)

1 x > mın(n,N1)

Funcion generatriz de momentos:

Existe ∀t ∈ R porque la variable toma un numero finito de valores.

MX(t) =

mın(n,N1)∑x=max(0,n−(N−N1))

etx(N1

x

)(N−N1

n−x

)(Nn

)No se conoce una forma funcional especıfica.

Media:

E[X] = nN1

N

En efecto,

EX =

mın(n,N1)∑x=max(0,n−(N−N1)

x

(N1

x

)(N−N1

n−x

)(Nn

) =1(Nn

) mın(n,N1)∑x=max(1,n−(N−N1)

N1

(N1 − 1

x− 1

)(N −N1

n− x

)=

haciendo x− 1 = k

=N1(Nn

) mın(n−1,N1−1)∑k=max(0,(n−1)−(N−N1)

(N1 − 1

k

)(N −N1

(n− 1)− k

)=

N1(Nn

)(N − 1

n− 1

)=nN1

N

Varianza:

Var[X] =n(N − n)N1(N −N1)

N2(N − 1)

Para ello, calculemos en primer lugar el momento no centrado de orden dos; es decir

E[X2] = E[X(X − 1)] + E[X]

Patricia Roman Roman 26

Page 27: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

E[X(X − 1)] =

mın(n,N1)∑x=max(2,n−(N−N1)

x(x− 1)

(N1

x

)(N−N1

n−x

)(Nn

) =

=N1(N1 − 1)(

Nn

) mın(n,N1)∑x=max(2,n−(N−N1)

(N1 − 2

x− 2

)(N −N1

n− x

)=

haciendo x− 2 = k

=N1(N1 − 1)(

Nn

) mın(n−2,N1−2)∑k=max(0,(n−2)−(N−N1)

(N1 − 2

k

)(N −N1

(n− 2)− k

)=

=N1(N1 − 1)(

Nn

) (N − 2

n− 2

)=n(n− 1)N1(N1 − 1)

N(N − 1)

E[X2] =n(n− 1)N1(N1 − 1)

N(N − 1)+nN1

N

de donde se deduce la expresion de la varianza.

V ar[X] =n(n− 1)N1(N1 − 1)

N(N − 1)+nN1

N− n2N2

1

N2=n(N − n)N1(N −N1)

N2(N − 1)

EJERCICIOS

1.- Sea una baraja de 40 cartas. De ella se toma una muestra de 5 cartas sin reemplazamiento.Obtener la probabilidad de obtener al menos dos ases.

Tenemos 40 cartas, de las cuales 4 son ases y se realiza un muestreo de tamano 5 sinreemplazamiento.

X: Numero de ases en la muestra ∼ H(40, 4, 5)y se pide

P[X ≥ 2] = 1− P[X = 0]− P[X = 1] = 1−(40

)(365

)(405

) − (41)(364 )(405

) = 0,06899

Con R los parametros de la distribucion hipergeometrica son: tamano de la primera sub-poblacion (N1), tamano de la segunda subpoblacion (N2) y tamano de la muestra. Ası, laprobabilidad pedida se calcula mediante phyper(1, 4,36,5,lower.tail=FALSE)=0.06899004.

2.- Una determinada empresa quiere aumentar su plantilla de vendedores en 20 personas y sepresentan 40 personas al proceso de seleccion. Determinar la probabilidad de que, despues de

Patricia Roman Roman 27

Page 28: Home | Universidad de Granada - ESTAD ISTICA ...proman/EDIP/2013-2014/PDF/Tema6.pdfcualquier valor de un conjunto dado y, en ese sentido, se de ne una familia de distribuciones de

ESTADISTICA DESCRIPTIVA E INTRODUCCION A LA PROBABILIDADDoble Grado en Ingenierıa Informatica y Matematicas

realizar todas las pruebas de seleccion, entre las 20 personas seleccionadas esten los 10 mejoresde las 40 personas que se presentaron.

Consideramos la variable aleatoria X: Numero de los mejores vendedores entre los 20 selec-cionados.

X ∼ H(40, 10, 20)

Nos piden

P[X = 10] =

(1010

)(3010

)(4020

) = 0,000217

Con R, dhyper(10,10,30,20)=0.0002179599.

Patricia Roman Roman 28