Unidad VI: PRUEBAS DE HIPOTESIS
Propósito de la Inferencia de estadística
Estimación de parámetros Pruebas de Hipótesis
Puntual Intervalar
Métodos de Estimación
Momentos
Máximo Verosímil
Propiedades
Método del Pivote
Nivel de Confianza
Pruebas de Hipótesis Concepto
Tipos de erroresHipótesis NulaHipótesis alternativa
UnilateralBilateral
Nivel de Confianza
Valor-p
Región Crítica
Decisión
6. PRUEBAS DE HIPÓTESIS
En muchos aspectos, el procedimiento para probar hipótesis es similar al método científico: Un científico observa la naturaleza de un fenómeno, formula una teoría y a continuación, confronta esta teoría con la evidencia observada. Si lo observado no está de acuerdo con la teoría, se rechaza la hipótesis. En caso contrario, se pueden obtener dos conclusiones: la teoría es verdadera o bien la muestra no detectó diferencias importantes o significativas entre los valores reales y los postulados en la hipótesis planteada, lo que podría considerarse como un rechazo de la teoría.
Por ejemplo, un ingeniero podría formular la hipótesis que cierto tratamiento puede eliminar las fallas de un determinado material. Para probar su hipótesis, selecciona aleatoriamente cierto número de elementos defectuosos dividiéndolos al azar en dos grupos. El tratamiento nuevo es aplicado al primer grupo y otro tratamiento es aplicado al segundo. A continuación, basándose en el número de unidades recuperadas, deberá decidir si el nuevo tratamiento es mejor que el anterior.
Contrastando una hipótesis
Creo que la edad media es 40
años...
Son demasiados...
años 20X
¡Gran diferencia!
Rechazo la hipótesis
Muestra aleatoria
¿Qué es una hipótesis?
Una creencia sobre la población, principalmente sus parámetros:
– Media– Varianza– Proporción/Tasa
OJO: Si queremos contrastarla, debe establecerse antes del análisis.
Creo que el porcentaje de
elementos defectuosos será el
5%
6.1 Elementos de una prueba de hipótesis
Hipótesis estadística: es una afirmación o conjetura acerca de los parámetros de la distribución de probabilidades de una población. Si la hipótesis estadística específica completamente la distribución, entonces ella se llama Hipótesis Simple, de otra manera se llama Hipótesis Compuesta.
Elementos de una prueba de hipótesis:
Hipótesis nula: Ho
– La que contrastamos
– Los datos pueden refutarla
– No debería ser rechazada sin una buena razón.
Hipótesis alternativa: H1
– Niega a H0
– Los datos pueden mostrar evidencia a favor
– No debería ser aceptada sin una gran evidencia a favor.
El estadístico de prueba, T(X), (lo mismo que un estimador) es una función de la muestra. Interesa que contenga el máximo de información sobre la hipótesis nula planteada ya que, en base a la información contenida en esta función, se tomará la decisión respecto de la aceptación o rechazo de la hipótesis, H0, planteada.
Elementos de una prueba de hipótesis:
La zona de rechazo, o región crítica (RC), define los valores del estadístico de prueba para los cuales la información muestral contradice la hipótesis nula. Estos valores nos permitirán adoptar una regla de decisión consistente.
Una prueba de una hipótesis estadística es una regla o procedimiento que permite decidir el rechazo de la hipótesis nula. De esta manera, como una regla de decisión, si para una muestra particular el estadístico de prueba (valor calculado) cae dentro de la región crítica, rechazaremos la hipótesis nula en favor de la hipótesis alternativa. En cambio, si el valor calculado no cae dentro de la RC, no podremos rechazar la hipótesis nula.
Región crítica y nivel de significación
Región críticaValores ‘improbables’ si...Es conocida antes de realizar el experimento: resultados experimentales que refutarían H0
Nivel de significación: Número pequeño: 1% , 5%Fijado de antemano por el investigadorEs la probabilidad de rechazar H0 cuando es cierta
No rechazo H0
Reg. Crit.Reg. Crit.
=5%
=
Contrastes: unilateral y bilateral
La posición de la región crítica depende de la hipótesis alternativa
Unilateral
H1: <
Unilateral
H1: >
Bilateral H1:
Significación: p
H0: =40
Significación: p
43X
No se rechazaH0: =40
H0: =40
Significación: p
43X
No se rechazaH0: =40
Es la probabilidad que tendría una región crítica que comenzase exactamente en el valor del estadístico obtenido de la muestra. Es la probabilidad de tener una muestra que discrepe aún más que la nuestra de H0. Es la probabilidad de que por puro azar obtengamos una muestra “más extraña” que la obtenida.p es conocido después de realizar el experimento aleatorioEl contraste es no significativo cuando p>
P
P
Significación : p
50X
Se rechaza H0: =40
Se acepta H1: >40
Significación : p
P
P
50X
Se rechaza H0: =40
Se acepta H1: >40
El contraste es estadísticamente significativo cuando p<Es decir, si el resultado experimental discrepa más de “lo tolerado” a priori.
Resumen: , p y criterio de rechazo
Sobre – Es número pequeño, preelegido
al diseñar el experimento
– Conocido sabemos todo sobre la región crítica
Sobre p– Es conocido tras realizar el
experimento
– Conocido p sabemos todo sobre el resultado del experimento
Sobre el criterio de rechazo
– Contraste significativo = p menor que
Ejemplo 2: Se cree que un nuevo tratamiento ofrece buenos resultadosEjemplo 2: Se cree que un nuevo tratamiento ofrece buenos resultados
Ejemplo 3: Parece que hay una incidencia de enfermedad más alta de lo normalEjemplo 3: Parece que hay una incidencia de enfermedad más alta de lo normal
H0: Hipótesis nula– (Ej.1) Es inocente– (Ej.2) El nuevo tratamiento no tiene efecto– (Ej.3) No hay nada que destacar
H1: Hipótesis alternativa– (Ej.1) Es culpable– (Ej.2) El nuevo tratamiento es útil– (Ej. 3) Hay una situación anormal
Riesgos al contrastar hipótesis
No especulativa
Especulativa
Tipos de error al tomar una decisión
Realidad
Inocente Culpable
veredicto Inocente OK Error
Menos grave
Culpable Error
Muy grave
OK
Tipos de error al contrastar hipótesis
Realidad
H0 cierta H0 Falsa
No Rechazo H0 CorrectoEl tratamiento no tiene efecto y así se decide.
Error de tipo IIEl tratamiento si tiene efecto pero no lo percibimos.
Probabilidad β
Rechazo H0
Acepto H1
Error de tipo IEl tratamiento no tiene efecto pero se decide que sí.
Probabilidad α
CorrectoEl tratamiento tiene efecto y el experimento lo confirma.
No se puede tener todo
Para un tamaño muestral fijo, no se pueden reducir a la vez ambos tipos de error.
Para reducir , hay que aumentar el tamaño muestral.
Recordad lo que pasaba con
sensiblidad y especificidad
ConclusionesLas hipótesis no se plantean después de observar los datos.
En ciencia, las hipótesis nula y alternativa no tienen el mismo papel:
– H0 : Hipótesis científicamente más simple.– H1 : El peso de la prueba recae en ella.
α debe ser pequeño
Rechazar una hipótesis consiste en observar si p<α
Rechazar una hipótesis no prueba que sea falsa. Podemos cometer error de tipo I
No rechazar una hipótesis no prueba que sea cierta. Podemos cometer error de tipo II
Si decidimos rechazar una hipótesis debemos mostrar la probabilidad de equivocarnos.
utilizando las tablas de la distribución normal estándar, obtenemos
6318.0)3159.0(2)3.0( YP
Así, la probabilidad que la media muestral esté dentro de +/- 0.3 de la media poblacional es 0.6318.
)9/1,(NY distribuye se
La probabilidad que deseamos determinar es
]9.09.0[]3.0)(3.0[)3.0( ZPYPYP
5.6 Distribución de la varianza muestral S2
Teorema 5.4 Si X1,X2,…,Xn es una muestra aleatoria de una
distribución con media y varianza 2, entonces la varianza muestral S2 tiene valor esperado igual a 2.
Teorema 5.5 Sea X1,X2,…,Xn una muestra aleatoria de una
población X cuya distribución es normal de media y varianza 2, entonces:
libertad. de grados con cuadrado-Chi
óndistribuci con aleatoria variable una es b)
ntes.independie aleatoria
variables son muestral varianza la y muestral media La a)
1
)1()(2
2
2
2
2
n
SnXX
SX
i
Ejemplo
Consideremos nuevamente el Ejemplo anterior y supongamos que extraemos una muestra aleatoria de tamaño n = 10. si estas observaciones son utilizadas para calcular S2, podría ser útil especificar un intervalo de valores que incluya a S2 con alta probabilidad; esto es, encontrar por ejemplo los números b1 y
b2 tales que:
y 95.0)(05.0)( 22
12 bSPbSP
Para así tener
9.0)( 22
1 bSbP
Teorema 5.6 Si X1,X2,…,Xn es una muestra aleatoria de una
población normal con media y varianza 2, entonces
libertad. de grados con student-t óndistribuci tiene 1)(
nS
Xn
Para aclarar confusiones con respecto al uso de la distribución Normal (estándar) y la distribución t-student, en relación a expresiones del tipo
)()(
X
ZS
XT y
• Si el valor de es conocido y el tamaño de n es suficientemente grande, entonces Z tendrá distribución normal estándar.
Si es desconocida y la población de donde está muestreando es normal, entonces la distribución de T será la de una t – student con (n-1) grados de libertad.
o en el caso de la media
n
XZ
nS
XT
/
)(
/
)(
y
Ejemplo La resistencia a la tracción de un cable se distribuye normalmente con media y varianza 2 ambas desconocidas. Se seleccionan al azar 6 trozos de alambre y se mide la resistencia Xi de cada uno de ellos.
. lpoblaciona media verdaderala veces/2/ entre esté
que adprobabilid la Encuentre mente.respectiva ,y mediante
estimadasser pueden lpoblaciona varianzala como media la Tanto2
nS
XSX
Deseamos encontrar la probabilidad
n
SX
n
SP
2)(
2
que es equivalente a calcular
)22(2)(
2
TP
S
XnP
Donde
g.l. con estudent-t óndistribuci tiene 51)(
nS
XnT
Esta probabilidad corresponde aproximadamente a
90.0)015.2015.2( TP
media. verdadera la de estándar esdesviacion dos-/ entre esté que de 0.90 de adprobabilid unahay tanto, lo Por X
5.7 Propiedades de los estimadores puntuales
Es interesante establecer algunos criterios bajo los cuales la calidad de un estimador puede ser evaluada. Estos criterios definen, en general, propiedades deseables de los estimadores que nos sirven para compararlos.
sesgado. es que dice
se contrario caso En . todo para si. sólo y si insesgado
es que dice Se . parámetro un de puntual estimador un Sea
ˆ)ˆ(
ˆˆ
E
Sesgo:
)ˆ(
ˆ
EB
B expresión la por dado está puntual estimador un de sesgo El
Estimadores Insesgados:
.
ˆ,1
)(1
ˆ
22
22
2
2
2
2
de
sesgado estimador un sería tanto por y es media su que
sencontramo varianza la de estimador como usamos Si
.insesgados serán estos , lpoblaciona varianza
la y lpoblaciona media la de sestimadore como y utilizamos Si
n
n
XXn
SX
i
:que tiene se de insesgado
estimador otro cualquier si ,estimador un es que Decimos . de insesgado estimador un Sea
*
,)()ˆ(
ˆˆ
*VarVar
θ para varianza mínima de insesgado
Por lo tanto, dados dos estimadores para el parámetro θ, y siendo todo el resto de las condiciones equivalentes para ambos, se elegirá siempre aquel de menor varianza.
Ejemplo
ones?distribuci estas para varianza, mínima y ntoinsesgamie de términos en ,
de distinto , para mejor estimador otro encontrar ¿Podríamos , tamaño de fija muestra una en basándonos :es formular de natural pregunta Una
crece. cuando mejora de estimador como de calidad la varianza, mínima de
criterio un en basándose que, entonces claro Es aumenta. cuando decrece pero ; de depende no que crece. cuando mejora de
calidad la si averiguar interesa Nos Bernoulli. óndistribuci una de parámetro de y )( Poisson óndistribuci una de media la de Normal; óndistribuci unade parámetro , de insesgado estimador un es tanto, lo Por l.poblaciona
media la de insesgado estimador un es muestral media la que Sabemos
Xn
nXn
nXVnXEnX
p
XX
/)()( 2
La respuesta está en la desigualdad de Cramer-Rao que proporciona una cota inferior para la varianza de cualquier estimador insesgado del parámetro de una distribución de probabilidades, bajo condiciones de regularidad que incluyen:
i. El espacio de valores de la variable aleatoria involucrada debe ser independiente del parámetro.
ii. La función de densidad (o función de probabilidad) debe ser una función continua y diferenciable del parámetro.
Teorema 5.7 (Cramer-Rao). Sea X1,…,Xn una muestra
aleatoria de tamaño n de una población X con función de densidad (o función de probabilidad) f(x,θ), que depende de un parámetro θ desconocido, y satisface las condiciones de regularidad.
2
1
),(ln
1)ˆ(
),,(ˆ
xfnE
Var
XXT n
Entonces . para insesgado estimador un Sea
)(
))ˆ(1(
));(ln(
))ˆ(1(
ˆ
2
2
2
ˆ
I
B
xfnE
B
2
expresión. la por dada está Rao-Cramerde cota la que probar puede se , de insesgado estimador un es no Si
La cantidad I(θ) es conocida como cantidad de información o Información de Fisher. De aquí que la CCR también se conoce con el nombre de Desigualdad de Información.
En la clase de estimadores insesgados, la cota inferior en la desigualdad de información es 1/I(θ), independientemente del estimador que estemos considerando.
La desigualdad de Cramer-Rao se puede escribir como:
}/);(ln{
1)ˆ(
22
XfnE
Var
La CCR puede extenderse fácilmente para ciertas transformaciones del parámetro. Específicamente, si φ = g(θ) es una transformación uno a uno y diferenciable, entonces:
de insesgado estimador un es donde
para para
ˆ
)ˆ()(
)ˆ(2
VarCCRd
dgVarCCR
.ˆ llama se a,su varianz a Rao-Cramer de
cotasu derazón la , de ˆ insesgadoestimador un Dado
θ de eficiencia
2)ˆ()ˆ(
ˆ
ECME
:por define
se puntual estimador un de (CME) error del Medio Cuadrado El
)ˆ()ˆ(
ˆ
VarCME
entonces , parámetro del insesgado estimador un es Si
Ejemplo
Sea X1, X2 una muestra aleatoria de tamaño 2 de X con
distribución Exponencial de parámetro desconocido.
mejor? es dos los de ¿cuál medio, cuadrático error del
términos En de sestimadore a y a osConsiderem ./1ˆˆ2121 XXX
)()()((
)((ˆ(
2/(1ˆ(ˆ(
212121
221212
211
XEXEXXEXXVar
XXEXXVarCME
XVarCME
)
donde de
))
Ahora,
. de insesgado estimador un ser por ),)) El
22
4
2
442
21
2
2222
21
2/12/10
2/1
)ˆ(
ˆ
)/1)/)(4/1(()(
16
16)16/(/1)(
2/)/()2/3(
)(
)(
2
2
por dado está de Medio Cuadrático Error el aquí, De
y
tanto lo Por
. parámetro de lexponencia con Calculemos
CME
XXB
XXVar
dxexXE
XXE
x
0)ˆ(lim
1)ˆ(lim
ˆ
nn
nn
n
P
P
ementeequivalent o
:que tiene se
0, cualquier para si, para econsistent dice se estimador El
Teorema 5.8
0)ˆ(lim
ˆ
nn
n
Var
si econsistent es de insesgado estimador Un
Ejemplo
Sea X1,…,Xn una muestra aleatoria de una población con
distribución de probabilidades con media y varianza 2 < .
. la como conocido también es hecho
Este . a adprobabilid en converge que decir puede se ementeEquivalent
te.directamen aplica se
anterior teorema el crece, cuando , como y , para insesgado
estimador un es que Dado . y que Sabemos
Números Grandes los de Ley
X
nXVar
XnXVarXE
0)(
/)()( 2
. de econsistent estimador un es que osVerifiquem X
Sea X1,…,Xn una muestra aleatoria de una distribución de
probabilidades con parámetro desconocido θ. T = T(X1,
…,Xn) es un estadístico suficiente para θ, si y sólo si, la
distribución condicional de (X1,…,Xn) dado T = t, para todo
valor de t, es independiente de θ.
Ejemplo
Consideremos los resultados observados de n ensayos Bernoulli independientes X1,…,Xn donde Xi = 1 con
probabilidad p y es 0 con probabilidad 1 – p.
? de funciones
otras observando , de acerca adicional ninformació ganar ¿Podemos
, de valor el conocemos Si ensayos. los en éxitos de Nº Sea
n
n
ii
XX
p
TnXT
,,1
1
Una manera de responder es observar la distribución condicional de X1,…,Xn dado T = t; esto es:
t
ntnptpt
n
tnptpnn tTxXxXP 1
)1(
)1(11 ),...,(
. de función es no y , y de sólo función una es donde
forma la de tivas,
-nega no funciones dos en afactorizad ser puede ), tudverosimili
de función (la de conjunta densidad la si, sólo y si para suficiente
oestadístic un es . aleatoria muestra la en basado
oestadístic un Sea
hTg
XhxTgxL
xL
X
XTXXX
XT
n
)()),((),(
),(
)(),...,(
),(
1
Fisher) de iónFactorizac (de 5.9 Teorema
Ejemplo
Sea X1,…,Xn una muestra aleatoria de una población con
distribución exponencial con media ; esto es, Xi posee
función de densidad.
nixxxf iii ,1,0)/exp(/1),( ,
La función de verosimilitud de la muestra es la densidad conjunta
nn xnxxfL /)]/[exp(),...,,( 1
. para suficiente oestadístic otro es que también Notemos
. para suficiente estimador un es que concluir podemos
) y con iónfactorizac de teorema
el aplicando , y de sólo depende que función una es Como
j
n
X
X
xhxnxg
xL
,1(/)]/[exp(),(
Ejemplo Sea X1,…,Xn una muestra aleatoria de una distribución uniforme en
(0,θ) y determinemos un estadístico suficiente para θ.
La función de verosimilitud de la muestra aleatoria es
nixxL in ,,1),0()/1(),( todo para ,
lo que es equivalente a escribir
),,,(;)/1(),( 21)()( nnnn xxxmáxxxxL donde para ,
Así, tenemos la factorización
),)()(),0( ,()()/1(),( nnn XgxIxL
donde
Ax
AxxI A
si
si
0
1)(
es la función indicadora de un conjunto A.
Prob.: Se registraron los siguientes datos, en días, que representan el tiempo de fabricación de un determinado producto con dos procesos distintos.
Proceso 1 34 17 2.5Proceso 2 56 19 1.8a) Encuentre un I. de C del 95% para el tiempo promedio de fabricación
del proceso 1.b) Se cree que la persona que tomó los datos en el proceso 1 no lo hizo
correctamente, ya que experiencias anteriores indican que la varianza es de 12,9683. Para demostrar que S obtenida anteriormente estaba errada, se considera una nueva muestra aleatoria de 10 tiempos. ¿Cuál es la probabilidad que la varianza muestral de esta nueva muestra, supere el valor obtenido anteriormente?.
Ejemplos:
Prob.: Se registraron los tiempos utilizados en la compra para 64 clientes seleccionados al azar en un supermercado local. La media y la varianza de los 64 tiempos de compra fueron 33 minutos y 256, respectivamente. Encuentre un I. de C. del 95 % para el verdadero tiempo promedio.
Ejemplos:
Top Related