Probabilidad y Estadística - fceia.unr.edu.arptorres/Probabilidad/2017-2018/ClasesVAD.pdf ·...
Transcript of Probabilidad y Estadística - fceia.unr.edu.arptorres/Probabilidad/2017-2018/ClasesVAD.pdf ·...
PROBABILIDAD Y ESTADISTICA
Pablo Torres
Facultad de Ciencias Exactas, Ingenierıa y Agrimensura - Universidad Nacional de Rosario
Variables aleatorias discretas
INTRODUCCION
Definicion: Una variable aleatoria es una funcion a valores reales cuyodominio es un espacio muestral.
Definicion: Una v. a. Y se dice discreta si puede adoptar una cantidad finita oinfinita numerable de valores distintos.
Definicion: La probabilidad de que Y adopte el valor y, P(Y = y), se definecomo la suma de las probabilidades de los puntos muestrales de S quetienen asignado el valor y.
Definicion: La distribucion de probabilidad de una v. a. discreta Y puederepresentarse mediante una formula, una tabla o una grafica, queproporciona p(y) = P(Y = y) ∀y ∈ RY (rango de Y).
Ejemplo 1: Se deben seleccionar al azar 3 personas de un grupo de 8,formado por 4 menores de 40 anos y 4 mayores de 40 anos. Sea Y elnumero de mayores de 40 anos elegidos. Encontrar la distribucion deprobabilidad de Y.
p(y) =(4
y)(4
3−y)56 , y = 0,1,2,3.
INTRODUCCION
Definicion: Una variable aleatoria es una funcion a valores reales cuyodominio es un espacio muestral.
Definicion: Una v. a. Y se dice discreta si puede adoptar una cantidad finita oinfinita numerable de valores distintos.
Definicion: La probabilidad de que Y adopte el valor y, P(Y = y), se definecomo la suma de las probabilidades de los puntos muestrales de S quetienen asignado el valor y.
Definicion: La distribucion de probabilidad de una v. a. discreta Y puederepresentarse mediante una formula, una tabla o una grafica, queproporciona p(y) = P(Y = y) ∀y ∈ RY (rango de Y).
Ejemplo 1: Se deben seleccionar al azar 3 personas de un grupo de 8,formado por 4 menores de 40 anos y 4 mayores de 40 anos. Sea Y elnumero de mayores de 40 anos elegidos. Encontrar la distribucion deprobabilidad de Y.
p(y) =(4
y)(4
3−y)56 , y = 0,1,2,3.
INTRODUCCION
Definicion: Una variable aleatoria es una funcion a valores reales cuyodominio es un espacio muestral.
Definicion: Una v. a. Y se dice discreta si puede adoptar una cantidad finita oinfinita numerable de valores distintos.
Definicion: La probabilidad de que Y adopte el valor y, P(Y = y), se definecomo la suma de las probabilidades de los puntos muestrales de S quetienen asignado el valor y.
Definicion: La distribucion de probabilidad de una v. a. discreta Y puederepresentarse mediante una formula, una tabla o una grafica, queproporciona p(y) = P(Y = y) ∀y ∈ RY (rango de Y).
Ejemplo 1: Se deben seleccionar al azar 3 personas de un grupo de 8,formado por 4 menores de 40 anos y 4 mayores de 40 anos. Sea Y elnumero de mayores de 40 anos elegidos. Encontrar la distribucion deprobabilidad de Y.
p(y) =(4
y)(4
3−y)56 , y = 0,1,2,3.
INTRODUCCION
Definicion: Una variable aleatoria es una funcion a valores reales cuyodominio es un espacio muestral.
Definicion: Una v. a. Y se dice discreta si puede adoptar una cantidad finita oinfinita numerable de valores distintos.
Definicion: La probabilidad de que Y adopte el valor y, P(Y = y), se definecomo la suma de las probabilidades de los puntos muestrales de S quetienen asignado el valor y.
Definicion: La distribucion de probabilidad de una v. a. discreta Y puederepresentarse mediante una formula, una tabla o una grafica, queproporciona p(y) = P(Y = y) ∀y ∈ RY (rango de Y).
Ejemplo 1: Se deben seleccionar al azar 3 personas de un grupo de 8,formado por 4 menores de 40 anos y 4 mayores de 40 anos. Sea Y elnumero de mayores de 40 anos elegidos. Encontrar la distribucion deprobabilidad de Y.
p(y) =(4
y)(4
3−y)56 , y = 0,1,2,3.
INTRODUCCION
Definicion: Una variable aleatoria es una funcion a valores reales cuyodominio es un espacio muestral.
Definicion: Una v. a. Y se dice discreta si puede adoptar una cantidad finita oinfinita numerable de valores distintos.
Definicion: La probabilidad de que Y adopte el valor y, P(Y = y), se definecomo la suma de las probabilidades de los puntos muestrales de S quetienen asignado el valor y.
Definicion: La distribucion de probabilidad de una v. a. discreta Y puederepresentarse mediante una formula, una tabla o una grafica, queproporciona p(y) = P(Y = y) ∀y ∈ RY (rango de Y).
Ejemplo 1: Se deben seleccionar al azar 3 personas de un grupo de 8,formado por 4 menores de 40 anos y 4 mayores de 40 anos. Sea Y elnumero de mayores de 40 anos elegidos. Encontrar la distribucion deprobabilidad de Y.
p(y) =(4
y)(4
3−y)56 , y = 0,1,2,3.
INTRODUCCION
Definicion: Una variable aleatoria es una funcion a valores reales cuyodominio es un espacio muestral.
Definicion: Una v. a. Y se dice discreta si puede adoptar una cantidad finita oinfinita numerable de valores distintos.
Definicion: La probabilidad de que Y adopte el valor y, P(Y = y), se definecomo la suma de las probabilidades de los puntos muestrales de S quetienen asignado el valor y.
Definicion: La distribucion de probabilidad de una v. a. discreta Y puederepresentarse mediante una formula, una tabla o una grafica, queproporciona p(y) = P(Y = y) ∀y ∈ RY (rango de Y).
Ejemplo 1: Se deben seleccionar al azar 3 personas de un grupo de 8,formado por 4 menores de 40 anos y 4 mayores de 40 anos. Sea Y elnumero de mayores de 40 anos elegidos. Encontrar la distribucion deprobabilidad de Y.
p(y) =(4
y)(4
3−y)56 , y = 0,1,2,3.
VARIABLE ALEATORIA DISCRETA
Propiedad: Toda distribucion de probabilidades discreta satisface:
1 0≤ p(y)≤ 1, ∀y,
2 ∑y/p(y)>0
p(y) = 1.
Definicion: Sea Y una v.a.d. con funcion de probabilidad p(y). Entonces elvalor esperado (esperanza) de Y, notado E(Y), se define como
E(Y) = ∑y/p(y)>0
yp(y).
Definicion: Diremos que una funcion a valores reales g es una funcion de lav.a. Y si RY ⊆ Dom(g).Ejemplo 2: Sea Y una v.a.d. que asume los valores −1, 0 y 1 conprobabilidad 1
3 cada uno, y sea p(y) su funcion de probabilidad. Sea g(x) = x2
y p∗(y) su funcion de probabilidad.g(Y) es una v.a. que asume los valores 0 y 1 con probabilidad:p∗(0) = P(g(Y) = 0) = 1
3 y p∗(1) = P(g(Y) = 1) = 23 .
VARIABLE ALEATORIA DISCRETA
Propiedad: Toda distribucion de probabilidades discreta satisface:
1 0≤ p(y)≤ 1, ∀y,
2 ∑y/p(y)>0
p(y) = 1.
Definicion: Sea Y una v.a.d. con funcion de probabilidad p(y). Entonces elvalor esperado (esperanza) de Y, notado E(Y), se define como
E(Y) = ∑y/p(y)>0
yp(y).
Definicion: Diremos que una funcion a valores reales g es una funcion de lav.a. Y si RY ⊆ Dom(g).Ejemplo 2: Sea Y una v.a.d. que asume los valores −1, 0 y 1 conprobabilidad 1
3 cada uno, y sea p(y) su funcion de probabilidad. Sea g(x) = x2
y p∗(y) su funcion de probabilidad.g(Y) es una v.a. que asume los valores 0 y 1 con probabilidad:p∗(0) = P(g(Y) = 0) = 1
3 y p∗(1) = P(g(Y) = 1) = 23 .
VARIABLE ALEATORIA DISCRETA
Propiedad: Toda distribucion de probabilidades discreta satisface:
1 0≤ p(y)≤ 1, ∀y,
2 ∑y/p(y)>0
p(y) = 1.
Definicion: Sea Y una v.a.d. con funcion de probabilidad p(y). Entonces elvalor esperado (esperanza) de Y, notado E(Y), se define como
E(Y) = ∑y/p(y)>0
yp(y).
Definicion: Diremos que una funcion a valores reales g es una funcion de lav.a. Y si RY ⊆ Dom(g).
Ejemplo 2: Sea Y una v.a.d. que asume los valores −1, 0 y 1 conprobabilidad 1
3 cada uno, y sea p(y) su funcion de probabilidad. Sea g(x) = x2
y p∗(y) su funcion de probabilidad.g(Y) es una v.a. que asume los valores 0 y 1 con probabilidad:p∗(0) = P(g(Y) = 0) = 1
3 y p∗(1) = P(g(Y) = 1) = 23 .
VARIABLE ALEATORIA DISCRETA
Propiedad: Toda distribucion de probabilidades discreta satisface:
1 0≤ p(y)≤ 1, ∀y,
2 ∑y/p(y)>0
p(y) = 1.
Definicion: Sea Y una v.a.d. con funcion de probabilidad p(y). Entonces elvalor esperado (esperanza) de Y, notado E(Y), se define como
E(Y) = ∑y/p(y)>0
yp(y).
Definicion: Diremos que una funcion a valores reales g es una funcion de lav.a. Y si RY ⊆ Dom(g).Ejemplo 2: Sea Y una v.a.d. que asume los valores −1, 0 y 1 conprobabilidad 1
3 cada uno, y sea p(y) su funcion de probabilidad. Sea g(x) = x2
y p∗(y) su funcion de probabilidad.
g(Y) es una v.a. que asume los valores 0 y 1 con probabilidad:p∗(0) = P(g(Y) = 0) = 1
3 y p∗(1) = P(g(Y) = 1) = 23 .
VARIABLE ALEATORIA DISCRETA
Propiedad: Toda distribucion de probabilidades discreta satisface:
1 0≤ p(y)≤ 1, ∀y,
2 ∑y/p(y)>0
p(y) = 1.
Definicion: Sea Y una v.a.d. con funcion de probabilidad p(y). Entonces elvalor esperado (esperanza) de Y, notado E(Y), se define como
E(Y) = ∑y/p(y)>0
yp(y).
Definicion: Diremos que una funcion a valores reales g es una funcion de lav.a. Y si RY ⊆ Dom(g).Ejemplo 2: Sea Y una v.a.d. que asume los valores −1, 0 y 1 conprobabilidad 1
3 cada uno, y sea p(y) su funcion de probabilidad. Sea g(x) = x2
y p∗(y) su funcion de probabilidad.g(Y) es una v.a. que asume los valores 0 y 1 con probabilidad:
p∗(0) = P(g(Y) = 0) = 13 y p∗(1) = P(g(Y) = 1) = 2
3 .
VARIABLE ALEATORIA DISCRETA
Propiedad: Toda distribucion de probabilidades discreta satisface:
1 0≤ p(y)≤ 1, ∀y,
2 ∑y/p(y)>0
p(y) = 1.
Definicion: Sea Y una v.a.d. con funcion de probabilidad p(y). Entonces elvalor esperado (esperanza) de Y, notado E(Y), se define como
E(Y) = ∑y/p(y)>0
yp(y).
Definicion: Diremos que una funcion a valores reales g es una funcion de lav.a. Y si RY ⊆ Dom(g).Ejemplo 2: Sea Y una v.a.d. que asume los valores −1, 0 y 1 conprobabilidad 1
3 cada uno, y sea p(y) su funcion de probabilidad. Sea g(x) = x2
y p∗(y) su funcion de probabilidad.g(Y) es una v.a. que asume los valores 0 y 1 con probabilidad:p∗(0) = P(g(Y) = 0) = 1
3 y p∗(1) = P(g(Y) = 1) = 23 .
VARIABLE ALEATORIA
E(g(Y)) = 0.p∗(0)+1.p∗(1)
= 23 .
TEOREMA
Sea Y una v.a.d. con funcion de probabilidad p(y) y sea g(Y) una funcion deY, entonces:
E(g(Y)) = ∑y/p(y)>0
g(y)p(y).
En el ejemplo 2,
E(g(Y)) = g(−1)p(−1)+g(0)p(0)+g(1)p(1) = 1. 13 +0. 1
3 +1. 13 = 2
3 .
VARIABLE ALEATORIA
E(g(Y)) = 0.p∗(0)+1.p∗(1) = 23 .
TEOREMA
Sea Y una v.a.d. con funcion de probabilidad p(y) y sea g(Y) una funcion deY, entonces:
E(g(Y)) = ∑y/p(y)>0
g(y)p(y).
En el ejemplo 2,
E(g(Y)) = g(−1)p(−1)+g(0)p(0)+g(1)p(1) = 1. 13 +0. 1
3 +1. 13 = 2
3 .
VARIABLE ALEATORIA
E(g(Y)) = 0.p∗(0)+1.p∗(1) = 23 .
TEOREMA
Sea Y una v.a.d. con funcion de probabilidad p(y) y sea g(Y) una funcion deY, entonces:
E(g(Y)) = ∑y/p(y)>0
g(y)p(y).
En el ejemplo 2,
E(g(Y)) = g(−1)p(−1)+g(0)p(0)+g(1)p(1) = 1. 13 +0. 1
3 +1. 13 = 2
3 .
VARIABLE ALEATORIA
E(g(Y)) = 0.p∗(0)+1.p∗(1) = 23 .
TEOREMA
Sea Y una v.a.d. con funcion de probabilidad p(y) y sea g(Y) una funcion deY, entonces:
E(g(Y)) = ∑y/p(y)>0
g(y)p(y).
En el ejemplo 2,
E(g(Y)) = g(−1)p(−1)+g(0)p(0)+g(1)p(1)
= 1. 13 +0. 1
3 +1. 13 = 2
3 .
VARIABLE ALEATORIA
E(g(Y)) = 0.p∗(0)+1.p∗(1) = 23 .
TEOREMA
Sea Y una v.a.d. con funcion de probabilidad p(y) y sea g(Y) una funcion deY, entonces:
E(g(Y)) = ∑y/p(y)>0
g(y)p(y).
En el ejemplo 2,
E(g(Y)) = g(−1)p(−1)+g(0)p(0)+g(1)p(1) = 1. 13 +0. 1
3 +1. 13
= 23 .
VARIABLE ALEATORIA
E(g(Y)) = 0.p∗(0)+1.p∗(1) = 23 .
TEOREMA
Sea Y una v.a.d. con funcion de probabilidad p(y) y sea g(Y) una funcion deY, entonces:
E(g(Y)) = ∑y/p(y)>0
g(y)p(y).
En el ejemplo 2,
E(g(Y)) = g(−1)p(−1)+g(0)p(0)+g(1)p(1) = 1. 13 +0. 1
3 +1. 13 = 2
3 .
VARIABLE ALEATORIA
Definicion: La varianza de una v.a. Y se define como el valor esperado de(Y−E(Y))2.
Es decir,V(Y) = E
((Y−E(Y))2
).
La desviacion estandar de Y es la raız cuadrada positiva de V(Y).
En el ejemplo 1,
V(Y) = E((Y−E(Y))2
)=
3∑
i=0(i− 3
2 )2.p(i) = 15
28 .
VARIABLE ALEATORIA
Definicion: La varianza de una v.a. Y se define como el valor esperado de(Y−E(Y))2. Es decir,
V(Y) = E((Y−E(Y))2
).
La desviacion estandar de Y es la raız cuadrada positiva de V(Y).
En el ejemplo 1,
V(Y) = E((Y−E(Y))2
)=
3∑
i=0(i− 3
2 )2.p(i) = 15
28 .
VARIABLE ALEATORIA
Definicion: La varianza de una v.a. Y se define como el valor esperado de(Y−E(Y))2. Es decir,
V(Y) = E((Y−E(Y))2
).
La desviacion estandar de Y es la raız cuadrada positiva de V(Y).
En el ejemplo 1,
V(Y) = E((Y−E(Y))2
)=
3∑
i=0(i− 3
2 )2.p(i) = 15
28 .
VARIABLE ALEATORIA
Definicion: La varianza de una v.a. Y se define como el valor esperado de(Y−E(Y))2. Es decir,
V(Y) = E((Y−E(Y))2
).
La desviacion estandar de Y es la raız cuadrada positiva de V(Y).
En el ejemplo 1,
V(Y) = E((Y−E(Y))2
)
=3∑
i=0(i− 3
2 )2.p(i) = 15
28 .
VARIABLE ALEATORIA
Definicion: La varianza de una v.a. Y se define como el valor esperado de(Y−E(Y))2. Es decir,
V(Y) = E((Y−E(Y))2
).
La desviacion estandar de Y es la raız cuadrada positiva de V(Y).
En el ejemplo 1,
V(Y) = E((Y−E(Y))2
)=
3∑
i=0(i− 3
2 )2.p(i)
= 1528 .
VARIABLE ALEATORIA
Definicion: La varianza de una v.a. Y se define como el valor esperado de(Y−E(Y))2. Es decir,
V(Y) = E((Y−E(Y))2
).
La desviacion estandar de Y es la raız cuadrada positiva de V(Y).
En el ejemplo 1,
V(Y) = E((Y−E(Y))2
)=
3∑
i=0(i− 3
2 )2.p(i) = 15
28 .
VARIABLE ALEATORIA
TEOREMA
Sea Y una v.a.d. con funcion de probabilidad p(y), entonces:
1 Si c ∈ R, E(c) = c.
2 Si g(Y) una funcion de Y y c ∈ R, entonces
E (c.g(Y)) = c.E (g(Y)) .
3 Si g1(Y),g2(Y), . . . ,gk(Y) son k funciones de Y con k ∈ N, entonces
E
(k
∑i=1
gi(Y)
)=
k
∑i=1
E (gi(Y)) .
4 V(Y) = E(Y2)−(E(Y)2
).
DISTRIBUCION BINOMIAL
Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.
El espacio muestral es
S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.
Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.
P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,
P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.
Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.
RX = {0,1,2,3}.
p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),
p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.
DISTRIBUCION BINOMIAL
Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es
S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.
Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.
P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,
P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.
Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.
RX = {0,1,2,3}.
p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),
p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.
DISTRIBUCION BINOMIAL
Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es
S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.
Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.
P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,
P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.
Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.
RX = {0,1,2,3}.
p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),
p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.
DISTRIBUCION BINOMIAL
Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es
S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.
Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.
P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,
P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.
Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.
RX = {0,1,2,3}.
p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),
p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.
DISTRIBUCION BINOMIAL
Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es
S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.
Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.
P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,
P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.
Nos interesa la cantidad de artıculos defectuosos seleccionados.
Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.
RX = {0,1,2,3}.
p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),
p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.
DISTRIBUCION BINOMIAL
Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es
S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.
Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.
P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,
P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.
Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.
RX = {0,1,2,3}.
p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),
p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.
DISTRIBUCION BINOMIAL
Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es
S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.
Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.
P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,
P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.
Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.
RX = {0,1,2,3}.
p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),
p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.
DISTRIBUCION BINOMIAL
Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es
S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.
Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.
P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,
P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.
Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.
RX = {0,1,2,3}.
p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),
p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.
DISTRIBUCION BINOMIAL
Muchos experimentos aleatorios satisfacen las siguientes condiciones:
1 El experimento consiste de n pruebas, para n ∈ N fijo.
2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.
3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).
4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.
Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.
Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.
2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).
3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.
4 ¿Que ocurre si el ejemplo anterior es sin reposicion?
DISTRIBUCION BINOMIAL
Muchos experimentos aleatorios satisfacen las siguientes condiciones:
1 El experimento consiste de n pruebas, para n ∈ N fijo.
2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.
3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).
4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.
Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.
Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.
2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).
3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.
4 ¿Que ocurre si el ejemplo anterior es sin reposicion?
DISTRIBUCION BINOMIAL
Muchos experimentos aleatorios satisfacen las siguientes condiciones:
1 El experimento consiste de n pruebas, para n ∈ N fijo.
2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.
3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).
4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.
Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.
Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.
2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).
3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.
4 ¿Que ocurre si el ejemplo anterior es sin reposicion?
DISTRIBUCION BINOMIAL
Muchos experimentos aleatorios satisfacen las siguientes condiciones:
1 El experimento consiste de n pruebas, para n ∈ N fijo.
2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.
3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).
4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.
Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.
Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.
2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).
3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.
4 ¿Que ocurre si el ejemplo anterior es sin reposicion?
DISTRIBUCION BINOMIAL
Muchos experimentos aleatorios satisfacen las siguientes condiciones:
1 El experimento consiste de n pruebas, para n ∈ N fijo.
2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.
3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).
4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.
Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.
Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.
2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).
3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.
4 ¿Que ocurre si el ejemplo anterior es sin reposicion?
DISTRIBUCION BINOMIAL
Muchos experimentos aleatorios satisfacen las siguientes condiciones:
1 El experimento consiste de n pruebas, para n ∈ N fijo.
2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.
3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).
4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.
Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.
Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.
2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).
3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.
4 ¿Que ocurre si el ejemplo anterior es sin reposicion?
DISTRIBUCION BINOMIAL
Muchos experimentos aleatorios satisfacen las siguientes condiciones:
1 El experimento consiste de n pruebas, para n ∈ N fijo.
2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.
3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).
4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.
Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.
Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.
2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).
3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.
4 ¿Que ocurre si el ejemplo anterior es sin reposicion?
DISTRIBUCION BINOMIAL
Muchos experimentos aleatorios satisfacen las siguientes condiciones:
1 El experimento consiste de n pruebas, para n ∈ N fijo.
2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.
3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).
4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.
Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.
Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.
2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).
3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.
4 ¿Que ocurre si el ejemplo anterior es sin reposicion?
DISTRIBUCION BINOMIAL
Muchos experimentos aleatorios satisfacen las siguientes condiciones:
1 El experimento consiste de n pruebas, para n ∈ N fijo.
2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.
3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).
4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.
Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.
Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.
2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).
3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.
4 ¿Que ocurre si el ejemplo anterior es sin reposicion?
VARIABLE ALEATORIA BINOMIAL
Definicion: Consideremos un experimento binomial con n repeticiones yP(E) = p. Se denomina v.a. binomial a la v.a.X: numero de exitos en las n repeticiones.Notacion: X ∼ Bi(n,p).
PROPOSICION
Si X ∼ Bi(n,p) entonces
P(X = k) =(
nk
)pk(1−p)n−k.
Ejemplo 3: Supongamos que un tubo de radio colocado en cierto equipotiene una probabilidad de 0,2 de funcionar mas de 100 horas. Si probamos20 tubos, ¿cual es la probabilidad de que exactamente k de ellos funcionenmas de 100 horas?
k = 0 1 2 3 4 5 6 7 8 9 10 11 a 20p(k) 0.012 0.057 0.137 0.205 0.219 0.174 0.109 0.055 0.022 0.007 0.002 < 0,001
VARIABLE ALEATORIA BINOMIAL
Definicion: Consideremos un experimento binomial con n repeticiones yP(E) = p. Se denomina v.a. binomial a la v.a.X: numero de exitos en las n repeticiones.Notacion: X ∼ Bi(n,p).
PROPOSICION
Si X ∼ Bi(n,p) entonces
P(X = k) =(
nk
)pk(1−p)n−k.
Ejemplo 3: Supongamos que un tubo de radio colocado en cierto equipotiene una probabilidad de 0,2 de funcionar mas de 100 horas. Si probamos20 tubos, ¿cual es la probabilidad de que exactamente k de ellos funcionenmas de 100 horas?
k = 0 1 2 3 4 5 6 7 8 9 10 11 a 20p(k) 0.012 0.057 0.137 0.205 0.219 0.174 0.109 0.055 0.022 0.007 0.002 < 0,001
VARIABLE ALEATORIA BINOMIAL
Definicion: Consideremos un experimento binomial con n repeticiones yP(E) = p. Se denomina v.a. binomial a la v.a.X: numero de exitos en las n repeticiones.Notacion: X ∼ Bi(n,p).
PROPOSICION
Si X ∼ Bi(n,p) entonces
P(X = k) =(
nk
)pk(1−p)n−k.
Ejemplo 3: Supongamos que un tubo de radio colocado en cierto equipotiene una probabilidad de 0,2 de funcionar mas de 100 horas. Si probamos20 tubos, ¿cual es la probabilidad de que exactamente k de ellos funcionenmas de 100 horas?
k = 0 1 2 3 4 5 6 7 8 9 10 11 a 20p(k) 0.012 0.057 0.137 0.205 0.219 0.174 0.109 0.055 0.022 0.007 0.002 < 0,001
VARIABLE ALEATORIA BINOMIAL
Definicion: Consideremos un experimento binomial con n repeticiones yP(E) = p. Se denomina v.a. binomial a la v.a.X: numero de exitos en las n repeticiones.Notacion: X ∼ Bi(n,p).
PROPOSICION
Si X ∼ Bi(n,p) entonces
P(X = k) =(
nk
)pk(1−p)n−k.
Ejemplo 3: Supongamos que un tubo de radio colocado en cierto equipotiene una probabilidad de 0,2 de funcionar mas de 100 horas. Si probamos20 tubos, ¿cual es la probabilidad de que exactamente k de ellos funcionenmas de 100 horas?
k = 0 1 2 3 4 5 6 7 8 9 10 11 a 20p(k) 0.012 0.057 0.137 0.205 0.219 0.174 0.109 0.055 0.022 0.007 0.002 < 0,001
VARIABLE ALEATORIA BINOMIAL
TEOREMA
Sea X ∼ Bi(n,p). Entonces
E(X) = np y V(X) = np(1−p).
En el ejemplo 3, E(X) = np = 20.(0,2) = 4 y V(X) = 20.(0,2).(0,8) = 3,2.
VARIABLE ALEATORIA BINOMIAL
TEOREMA
Sea X ∼ Bi(n,p). Entonces
E(X) = np y V(X) = np(1−p).
En el ejemplo 3, E(X) = np = 20.(0,2) = 4 y V(X) = 20.(0,2).(0,8) = 3,2.
DISTRIBUCION GEOMETRICA
Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.
X: numero de ensayos hasta obtener el primer exito.
E1 : E,
E2 : FE,
E3 : FFE,......Ek : FF . . .F︸ ︷︷ ︸
k−1
E,
Dado que los ensayos son independientes resulta
p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1
E) = (1−p)k−1p, k ∈ N.
DISTRIBUCION GEOMETRICA
Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.
X: numero de ensayos hasta obtener el primer exito.
E1 : E,
E2 : FE,
E3 : FFE,......Ek : FF . . .F︸ ︷︷ ︸
k−1
E,
Dado que los ensayos son independientes resulta
p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1
E) = (1−p)k−1p, k ∈ N.
DISTRIBUCION GEOMETRICA
Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.
X: numero de ensayos hasta obtener el primer exito.
E1 : E,
E2 : FE,
E3 : FFE,......Ek : FF . . .F︸ ︷︷ ︸
k−1
E,
Dado que los ensayos son independientes resulta
p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1
E) = (1−p)k−1p, k ∈ N.
DISTRIBUCION GEOMETRICA
Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.
X: numero de ensayos hasta obtener el primer exito.
E1 : E,
E2 : FE,
E3 : FFE,......Ek : FF . . .F︸ ︷︷ ︸
k−1
E,
Dado que los ensayos son independientes resulta
p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1
E) = (1−p)k−1p, k ∈ N.
DISTRIBUCION GEOMETRICA
Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.
X: numero de ensayos hasta obtener el primer exito.
E1 : E,
E2 : FE,
E3 : FFE,
...
...Ek : FF . . .F︸ ︷︷ ︸
k−1
E,
Dado que los ensayos son independientes resulta
p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1
E) = (1−p)k−1p, k ∈ N.
DISTRIBUCION GEOMETRICA
Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.
X: numero de ensayos hasta obtener el primer exito.
E1 : E,
E2 : FE,
E3 : FFE,......Ek : FF . . .F︸ ︷︷ ︸
k−1
E,
Dado que los ensayos son independientes resulta
p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1
E) = (1−p)k−1p, k ∈ N.
DISTRIBUCION GEOMETRICA
Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.
X: numero de ensayos hasta obtener el primer exito.
E1 : E,
E2 : FE,
E3 : FFE,......Ek : FF . . .F︸ ︷︷ ︸
k−1
E,
Dado que los ensayos son independientes resulta
p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1
E) = (1−p)k−1p, k ∈ N.
DISTRIBUCION GEOMETRICA
Definicion: Una v.a. X tiene distribucion de probabilidad geometrica si
p(k) = (1−p)k−1p, ∀k ∈ N.
Notacion: X ∼ Geo(p).
Ejemplo 4: Supongamos que la probabilidad de acertar a un blanco es dep = 0,02. Hallar la probabilidad de que debamos realizar mas de 2lanzamientos para acertar.
X: numero de lanzamientos hasta obtener el primer acierto.
P(X ≥ 3) = 0,9604.
TEOREMA
Sea X ∼ Geo(p) con 0 < p < 1. Entonces
E(X) =1p
y V(X) =1−p
p2 .
DISTRIBUCION GEOMETRICA
Definicion: Una v.a. X tiene distribucion de probabilidad geometrica si
p(k) = (1−p)k−1p, ∀k ∈ N.
Notacion: X ∼ Geo(p).
Ejemplo 4: Supongamos que la probabilidad de acertar a un blanco es dep = 0,02. Hallar la probabilidad de que debamos realizar mas de 2lanzamientos para acertar.
X: numero de lanzamientos hasta obtener el primer acierto.
P(X ≥ 3) = 0,9604.
TEOREMA
Sea X ∼ Geo(p) con 0 < p < 1. Entonces
E(X) =1p
y V(X) =1−p
p2 .
DISTRIBUCION GEOMETRICA
Definicion: Una v.a. X tiene distribucion de probabilidad geometrica si
p(k) = (1−p)k−1p, ∀k ∈ N.
Notacion: X ∼ Geo(p).
Ejemplo 4: Supongamos que la probabilidad de acertar a un blanco es dep = 0,02. Hallar la probabilidad de que debamos realizar mas de 2lanzamientos para acertar.
X: numero de lanzamientos hasta obtener el primer acierto.
P(X ≥ 3) = 0,9604.
TEOREMA
Sea X ∼ Geo(p) con 0 < p < 1. Entonces
E(X) =1p
y V(X) =1−p
p2 .
DISTRIBUCION GEOMETRICA
Definicion: Una v.a. X tiene distribucion de probabilidad geometrica si
p(k) = (1−p)k−1p, ∀k ∈ N.
Notacion: X ∼ Geo(p).
Ejemplo 4: Supongamos que la probabilidad de acertar a un blanco es dep = 0,02. Hallar la probabilidad de que debamos realizar mas de 2lanzamientos para acertar.
X: numero de lanzamientos hasta obtener el primer acierto.
P(X ≥ 3) = 0,9604.
TEOREMA
Sea X ∼ Geo(p) con 0 < p < 1. Entonces
E(X) =1p
y V(X) =1−p
p2 .
DISTRIBUCION GEOMETRICA
Definicion: Una v.a. X tiene distribucion de probabilidad geometrica si
p(k) = (1−p)k−1p, ∀k ∈ N.
Notacion: X ∼ Geo(p).
Ejemplo 4: Supongamos que la probabilidad de acertar a un blanco es dep = 0,02. Hallar la probabilidad de que debamos realizar mas de 2lanzamientos para acertar.
X: numero de lanzamientos hasta obtener el primer acierto.
P(X ≥ 3) = 0,9604.
TEOREMA
Sea X ∼ Geo(p) con 0 < p < 1. Entonces
E(X) =1p
y V(X) =1−p
p2 .
DISTRIBUCION GEOMETRICA
Definicion: Una v.a. X tiene distribucion de probabilidad geometrica si
p(k) = (1−p)k−1p, ∀k ∈ N.
Notacion: X ∼ Geo(p).
Ejemplo 4: Supongamos que la probabilidad de acertar a un blanco es dep = 0,02. Hallar la probabilidad de que debamos realizar mas de 2lanzamientos para acertar.
X: numero de lanzamientos hasta obtener el primer acierto.
P(X ≥ 3) = 0,9604.
TEOREMA
Sea X ∼ Geo(p) con 0 < p < 1. Entonces
E(X) =1p
y V(X) =1−p
p2 .
DISTRIBUCION GEOMETRICA
PROPOSICION (FALTA DE MEMORIA)Sea X ∼ Geo(p) y m,n ∈ N. Entonces
P(X > n+m|X > n) = P(X > m).
Ejemplo 5: Sea X: numero de tiros hasta obtener el primer 6 en unasucesion de tiros de un dado equilibrado perfecto.X ∼ Geo( 1
6 ).
P(X ≥ 2) = P(X > 1) = 56 .
Supongamos que deseamos conocer la probabilidad de obtener un 6 a partirdel septimo tiro sabiendo que no se obtuvo ningun 6 en los primeros 5 tiros.
P(X ≥ 7|X ≥ 6) = 56 .
DISTRIBUCION GEOMETRICA
PROPOSICION (FALTA DE MEMORIA)Sea X ∼ Geo(p) y m,n ∈ N. Entonces
P(X > n+m|X > n) = P(X > m).
Ejemplo 5: Sea X: numero de tiros hasta obtener el primer 6 en unasucesion de tiros de un dado equilibrado perfecto.
X ∼ Geo( 16 ).
P(X ≥ 2) = P(X > 1) = 56 .
Supongamos que deseamos conocer la probabilidad de obtener un 6 a partirdel septimo tiro sabiendo que no se obtuvo ningun 6 en los primeros 5 tiros.
P(X ≥ 7|X ≥ 6) = 56 .
DISTRIBUCION GEOMETRICA
PROPOSICION (FALTA DE MEMORIA)Sea X ∼ Geo(p) y m,n ∈ N. Entonces
P(X > n+m|X > n) = P(X > m).
Ejemplo 5: Sea X: numero de tiros hasta obtener el primer 6 en unasucesion de tiros de un dado equilibrado perfecto.X ∼ Geo( 1
6 ).
P(X ≥ 2) = P(X > 1) = 56 .
Supongamos que deseamos conocer la probabilidad de obtener un 6 a partirdel septimo tiro sabiendo que no se obtuvo ningun 6 en los primeros 5 tiros.
P(X ≥ 7|X ≥ 6) = 56 .
DISTRIBUCION GEOMETRICA
PROPOSICION (FALTA DE MEMORIA)Sea X ∼ Geo(p) y m,n ∈ N. Entonces
P(X > n+m|X > n) = P(X > m).
Ejemplo 5: Sea X: numero de tiros hasta obtener el primer 6 en unasucesion de tiros de un dado equilibrado perfecto.X ∼ Geo( 1
6 ).
P(X ≥ 2) = P(X > 1) = 56 .
Supongamos que deseamos conocer la probabilidad de obtener un 6 a partirdel septimo tiro sabiendo que no se obtuvo ningun 6 en los primeros 5 tiros.
P(X ≥ 7|X ≥ 6) = 56 .
DISTRIBUCION GEOMETRICA
PROPOSICION (FALTA DE MEMORIA)Sea X ∼ Geo(p) y m,n ∈ N. Entonces
P(X > n+m|X > n) = P(X > m).
Ejemplo 5: Sea X: numero de tiros hasta obtener el primer 6 en unasucesion de tiros de un dado equilibrado perfecto.X ∼ Geo( 1
6 ).
P(X ≥ 2) = P(X > 1) = 56 .
Supongamos que deseamos conocer la probabilidad de obtener un 6 a partirdel septimo tiro sabiendo que no se obtuvo ningun 6 en los primeros 5 tiros.
P(X ≥ 7|X ≥ 6) = 56 .
DISTRIBUCION GEOMETRICA
PROPOSICION (FALTA DE MEMORIA)Sea X ∼ Geo(p) y m,n ∈ N. Entonces
P(X > n+m|X > n) = P(X > m).
Ejemplo 5: Sea X: numero de tiros hasta obtener el primer 6 en unasucesion de tiros de un dado equilibrado perfecto.X ∼ Geo( 1
6 ).
P(X ≥ 2) = P(X > 1) = 56 .
Supongamos que deseamos conocer la probabilidad de obtener un 6 a partirdel septimo tiro sabiendo que no se obtuvo ningun 6 en los primeros 5 tiros.
P(X ≥ 7|X ≥ 6) = 56 .
DISTRIBUCION DE POISSON
Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.
Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.
Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).
P(E) = 20000365·24·6 = 0,38.
De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12
3)(0,38)3(0,62)9 = 0,163.
La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.
DISTRIBUCION DE POISSON
Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.
Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).
P(E) = 20000365·24·6 = 0,38.
De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12
3)(0,38)3(0,62)9 = 0,163.
La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.
DISTRIBUCION DE POISSON
Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.
Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.
Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).
P(E) = 20000365·24·6 = 0,38.
De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12
3)(0,38)3(0,62)9 = 0,163.
La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.
DISTRIBUCION DE POISSON
Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.
Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).
P(E) = 20000365·24·6 = 0,38.
De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12
3)(0,38)3(0,62)9 = 0,163.
La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.
DISTRIBUCION DE POISSON
Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.
Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).
P(E) = 20000365·24·6 = 0,38.
De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12
3)(0,38)3(0,62)9 = 0,163.
La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.
DISTRIBUCION DE POISSON
Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.
Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).
P(E) = 20000365·24·6 = 0,38.
De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12
3)(0,38)3(0,62)9 = 0,163.
La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.
DISTRIBUCION DE POISSON
Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.
Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).
P(E) = 20000365·24·6 = 0,38.
De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12
3)(0,38)3(0,62)9 = 0,163.
La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.
Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.
DISTRIBUCION DE POISSON
Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.
Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).
P(E) = 20000365·24·6 = 0,38.
De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12
3)(0,38)3(0,62)9 = 0,163.
La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.
DISTRIBUCION DE POISSON
Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.
Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000
365·24·12 = 0,19.
Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24
3)(0,19)3(0,81)21 = 0,166.
Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.
Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.
¿Que ocurre con las probabilidades binomiales(n
k)pk(1−p)n−k si n→ ∞ y p→ 0 de
modo tal que n.p = λ permanece constante?
lımn→∞
P(X = k) =λ ke−λ
k!.
DISTRIBUCION DE POISSON
Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.
Luego, P(E) = 20000365·24·12 = 0,19.
Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24
3)(0,19)3(0,81)21 = 0,166.
Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.
Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.
¿Que ocurre con las probabilidades binomiales(n
k)pk(1−p)n−k si n→ ∞ y p→ 0 de
modo tal que n.p = λ permanece constante?
lımn→∞
P(X = k) =λ ke−λ
k!.
DISTRIBUCION DE POISSON
Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000
365·24·12 = 0,19.
Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24
3)(0,19)3(0,81)21 = 0,166.
Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.
Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.
¿Que ocurre con las probabilidades binomiales(n
k)pk(1−p)n−k si n→ ∞ y p→ 0 de
modo tal que n.p = λ permanece constante?
lımn→∞
P(X = k) =λ ke−λ
k!.
DISTRIBUCION DE POISSON
Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000
365·24·12 = 0,19.
Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24
3)(0,19)3(0,81)21 = 0,166.
Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.
Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.
¿Que ocurre con las probabilidades binomiales(n
k)pk(1−p)n−k si n→ ∞ y p→ 0 de
modo tal que n.p = λ permanece constante?
lımn→∞
P(X = k) =λ ke−λ
k!.
DISTRIBUCION DE POISSON
Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000
365·24·12 = 0,19.
Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24
3)(0,19)3(0,81)21 = 0,166.
Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).
Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.
Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.
¿Que ocurre con las probabilidades binomiales(n
k)pk(1−p)n−k si n→ ∞ y p→ 0 de
modo tal que n.p = λ permanece constante?
lımn→∞
P(X = k) =λ ke−λ
k!.
DISTRIBUCION DE POISSON
Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000
365·24·12 = 0,19.
Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24
3)(0,19)3(0,81)21 = 0,166.
Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.
Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.
¿Que ocurre con las probabilidades binomiales(n
k)pk(1−p)n−k si n→ ∞ y p→ 0 de
modo tal que n.p = λ permanece constante?
lımn→∞
P(X = k) =λ ke−λ
k!.
DISTRIBUCION DE POISSON
Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000
365·24·12 = 0,19.
Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24
3)(0,19)3(0,81)21 = 0,166.
Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.
Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.
¿Que ocurre con las probabilidades binomiales(n
k)pk(1−p)n−k si n→ ∞ y p→ 0 de
modo tal que n.p = λ permanece constante?
lımn→∞
P(X = k) =λ ke−λ
k!.
DISTRIBUCION DE POISSON
Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000
365·24·12 = 0,19.
Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24
3)(0,19)3(0,81)21 = 0,166.
Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.
Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.
¿Que ocurre con las probabilidades binomiales(n
k)pk(1−p)n−k si n→ ∞ y p→ 0 de
modo tal que n.p = λ permanece constante?
lımn→∞
P(X = k) =λ ke−λ
k!.
DISTRIBUCION DE POISSON
Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000
365·24·12 = 0,19.
Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24
3)(0,19)3(0,81)21 = 0,166.
Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.
Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.
¿Que ocurre con las probabilidades binomiales(n
k)pk(1−p)n−k si n→ ∞ y p→ 0 de
modo tal que n.p = λ permanece constante?
lımn→∞
P(X = k) =λ ke−λ
k!.
DISTRIBUCION DE POISSON
Definicion: Una v.a. X tiene distribucion de Poisson sii
p(k) = P(X = k) =λ k
k!e−λ , k ∈ N0, λ > 0.
1 La esperanza de ocurrencia de un evento en un intervalo es la mismaque la esperanza de ocurrencia del evento en otro intervalocualesquiera, sin importar donde empiece el intervalo.
2 Las ocurrencias de los eventos son independientes, sin importar dondeocurran.
3 La probabilidad de que ocurra un evento en un intervalo de tiempodepende de la longitud del intervalo.
4 Las condiciones del experimento no varıan.
5 Nos interesa analizar el numero promedio de ocurrencias en el intervalo.
DISTRIBUCION DE POISSON
Definicion: Una v.a. X tiene distribucion de Poisson sii
p(k) = P(X = k) =λ k
k!e−λ , k ∈ N0, λ > 0.
1 La esperanza de ocurrencia de un evento en un intervalo es la mismaque la esperanza de ocurrencia del evento en otro intervalocualesquiera, sin importar donde empiece el intervalo.
2 Las ocurrencias de los eventos son independientes, sin importar dondeocurran.
3 La probabilidad de que ocurra un evento en un intervalo de tiempodepende de la longitud del intervalo.
4 Las condiciones del experimento no varıan.
5 Nos interesa analizar el numero promedio de ocurrencias en el intervalo.
DISTRIBUCION DE POISSON
Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial
(nk)pk(1−p)n−k.
Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k
k! e−np.
Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.
Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.
Si usamos la dist. de Poisson es (500·0,001)0
0! e−500·0,001 = e−0,5 = 0,61.
La probabilidad de hallar dos o mas art. defectuosos es (Binomial)
1−(500
1)(0,001)1(0,009)499−0,609 = 0,087.
Aprox. por Poisson
1− 0,51! e−0,5− e−0,5 = 0,085.
DISTRIBUCION DE POISSON
Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial
(nk)pk(1−p)n−k.
Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k
k! e−np.
Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.
Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.
Si usamos la dist. de Poisson es (500·0,001)0
0! e−500·0,001 = e−0,5 = 0,61.
La probabilidad de hallar dos o mas art. defectuosos es (Binomial)
1−(500
1)(0,001)1(0,009)499−0,609 = 0,087.
Aprox. por Poisson
1− 0,51! e−0,5− e−0,5 = 0,085.
DISTRIBUCION DE POISSON
Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial
(nk)pk(1−p)n−k.
Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k
k! e−np.
Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.
Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.
Si usamos la dist. de Poisson es (500·0,001)0
0! e−500·0,001 = e−0,5 = 0,61.
La probabilidad de hallar dos o mas art. defectuosos es (Binomial)
1−(500
1)(0,001)1(0,009)499−0,609 = 0,087.
Aprox. por Poisson
1− 0,51! e−0,5− e−0,5 = 0,085.
DISTRIBUCION DE POISSON
Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial
(nk)pk(1−p)n−k.
Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k
k! e−np.
Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.
Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.
Si usamos la dist. de Poisson es (500·0,001)0
0! e−500·0,001 = e−0,5 = 0,61.
La probabilidad de hallar dos o mas art. defectuosos es (Binomial)
1−(500
1)(0,001)1(0,009)499−0,609 = 0,087.
Aprox. por Poisson
1− 0,51! e−0,5− e−0,5 = 0,085.
DISTRIBUCION DE POISSON
Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial
(nk)pk(1−p)n−k.
Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k
k! e−np.
Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.
Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.
Si usamos la dist. de Poisson es (500·0,001)0
0! e−500·0,001 = e−0,5 = 0,61.
La probabilidad de hallar dos o mas art. defectuosos es (Binomial)
1−(500
1)(0,001)1(0,009)499−0,609 = 0,087.
Aprox. por Poisson
1− 0,51! e−0,5− e−0,5 = 0,085.
DISTRIBUCION DE POISSON
Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial
(nk)pk(1−p)n−k.
Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k
k! e−np.
Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.
Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.
Si usamos la dist. de Poisson es (500·0,001)0
0! e−500·0,001 = e−0,5 = 0,61.
La probabilidad de hallar dos o mas art. defectuosos es (Binomial)
1−(500
1)(0,001)1(0,009)499−0,609 = 0,087.
Aprox. por Poisson
1− 0,51! e−0,5− e−0,5 = 0,085.
DISTRIBUCION DE POISSON
Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial
(nk)pk(1−p)n−k.
Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k
k! e−np.
Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.
Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.
Si usamos la dist. de Poisson es (500·0,001)0
0! e−500·0,001 = e−0,5 = 0,61.
La probabilidad de hallar dos o mas art. defectuosos es (Binomial)
1−(500
1)(0,001)1(0,009)499−0,609 = 0,087.
Aprox. por Poisson
1− 0,51! e−0,5− e−0,5 = 0,085.
DISTRIBUCION DE POISSON
Ejemplo 8: Sea X: numero de mensajes rechazados por segundo por unservidor. Supongamos X ∼ Po(5).
1 Calcular la probabilidad de que se rechacen exactamente 2 mensajesen un segundo.
2 Calcular la probabilidad de que se rechacen a lo sumo 2 mensajes enun segundo.
TEOREMA
Sea X ∼ Po(λ ). Entonces
E(X) = λ y V(X) = λ .
DISTRIBUCION DE POISSON
Ejemplo 8: Sea X: numero de mensajes rechazados por segundo por unservidor. Supongamos X ∼ Po(5).
1 Calcular la probabilidad de que se rechacen exactamente 2 mensajesen un segundo.
2 Calcular la probabilidad de que se rechacen a lo sumo 2 mensajes enun segundo.
TEOREMA
Sea X ∼ Po(λ ). Entonces
E(X) = λ y V(X) = λ .
DISTRIBUCION DE POISSON
Ejemplo 8: Sea X: numero de mensajes rechazados por segundo por unservidor. Supongamos X ∼ Po(5).
1 Calcular la probabilidad de que se rechacen exactamente 2 mensajesen un segundo.
2 Calcular la probabilidad de que se rechacen a lo sumo 2 mensajes enun segundo.
TEOREMA
Sea X ∼ Po(λ ). Entonces
E(X) = λ y V(X) = λ .