Post on 02-Jul-2015
María del Consuelo Valle Espinosa
Instituto Tecnológico Superior de
Zacapoaxtla
Departamento de Desarrollo
Académico
Si bien las técnicas estadísticas suelen ser muy
útiles, ocasionalmente pueden defraudar al usuario.
En efecto, pueden despertar expectativas que a la
postre no se cumplan, especialmente cuando el
investigador renuncia a examinar la realidad a
través de un pensamiento integral y deja todo en
manos del veredicto formal de los procedimientos
estadísticos.
Los trabajos desarrollados por Fisher en los años
20 y por los matemáticos Neyman y Pearson en la
década del 30, dieron lugar a un método
actualmente conocido como contraste de
significación, que responde al llamado “paradigma
frecuentista”.
Con este método, las decisiones se adoptan sin
considerar la información externa a las
observaciones o al experimento.
Una de las objeciones más connotadas que se
hace al paradigma frecuentista es que no toma
en cuenta de manera formal en el modelo de
análisis la información anterior a los datos,
proveniente de estudios previos o de la
experiencia empírica informalmente acumulada
que siempre se tiene sobre el problema que se
examina. Una alternativa ante esta situación se
conoce como:
Estadística Bayesiana.
Bayes nació en Londres en 1702 y falleció el 17 de abril
de 1761 en Tunbridge Wells, Kent. Fue distinguido
como Fellow de la Royal Society en 1742, aunque
hasta ese momento no había dado publicidad a trabajo
alguno bajo su nombre. Su artículo más emblemático
se titulaba Ensayo hacia la solución de un problema en
la doctrina del azar (Essay towards solving a problem in
the doctrine
of chances) y fue publicado póstumamente.
El Reverendo Thomas Bayes resolvió cuantitativamente
por entonces el problema de determinar cuál de varias
hipótesis es más probable sobre la base de sus datos.
Su descubrimiento básico se conoce como el Teorema
de Bayes.
El pensamiento bayesiano tiene más similitud que el
frecuentista con el tipo de situaciones en que se ve el
científico.
Habitualmente: lo que se tiene son datos y lo se que quiere
descubrir es qué circunstancias determinaron que los datos
fueran esos y no otros.
La diferencia esencial entre el pensamiento clásico y el
bayesiano radica en que el Frecuentista se pronuncia sobre
los datos a partir de supuestos. El Bayesiano se pronuncia
sobre los supuestos partiendo de los datos.
Probabilidad Condicional.
Si se tienen dos eventos A y B (donde A y B son ambos eventos
posibles, es decir, con probabilidad no nula), entonces la
probabilidad condicional de A dado B, se define como:
Probabilidad Conjunta
Corresponde a la probabilidad de que se presenten resultados
comunes a los eventos A y B y se denota como P(A∩B)
>>>>>
Que no es otra cosa más que comparar que tanto la probabilidad
del evento intersección está en relación con la probabilidad del
evento B.
Auxiliándonos con Diagramas de Venn podemos ilustrar esta definición
de la manera siguiente:
Análogamente si ahora comparamos que tanto la
probabilidad del evento intersección está en relación con la
probabilidad del evento A tenemos:
de modo que despejando la probabilidad de la intersección y
luego sustituyendo en el numerador de la ecuación [1] :
se llega a expresión más simple del Teorema de Bayes:
>>>>>
>>>>>
Antes de generalizar el Teorema de Bayes para más
eventos, es necesario ver:
Teorema de la Probabilidad Total.
Se llama partición al conjunto de eventos Ai tales que
es decir es un conjunto de eventos mutuamente
excluyentes y que cubren todo el espacio de probabilidad.
jiA
AAA
j
n
A
y
...
i
21
Si un conjunto de eventos Ai forman una partición del espacio de
probabilidad y
para cualquier otro evento B, se tiene:
ii AAp 0)(
)(...)()( 21 nABABABB
Entonces:
n
i
iinn ApABpApABpApABpApABpBp1
2211 )()|()()|(...)()|()()|()(
De modo que, tomando el evento Ai en lugar de A en la fórmula
[2] y aplicando al denominador el Teorema de la Probabilidad
Total, se tiene:
Teorema de Bayes
ni
ApABp
ApABpABp
k
i
ii
iii ,...,1 para
)()|(
)()|()|(
1
>>>>>
Regresemos a la ecuación [2]
El Teorema de Bayes produce probabilidades inversas, en
el sentido de que expresa P(A|B) en términos de P(B|A).
La terminología convencional para P(A|B) es la
probabilidad a posteriori de A dado B y para P(A) es la
probabilidad a priori de A, dado que se aplica antes, sin
estar condicionada por la información de que B ocurrió.
Existe otra alternativa de presentación de la forma sencilla del
Teorema de Bayes, pero antes de verla, expresemos al
evento B de la siguiente manera:
Si ilustramos esta última expresión con Diagramas de Venn
tenemos:
)()()(__
BApBApBp
AABABAB de ocomplement el es donde )()(____
Entonces:
Que es lo mismo que:
Así el Teorema de Bayes [2] también se puede presentar
como:
)()()(__
BApBApBp
)()|()()|()(____
ApABpApABpBp
)()|()()|(
)()|()|(
____
ApABpApABp
ApABpBAp
Ejemplo:
Análisis diagnósticos
Se quiere saber si el nivel de glucosa en la sangre sirve para
diagnosticar la diabetes.
Se considera que el análisis es positivo si se encuentra un
nivel por encima de un cierto valor, digamos 120 mg/l.
Para evaluarlo se somete a este análisis a una serie de
individuos diabéticos diagnosticados por otro procedimiento
(el patrón de oro o "gold standar") y a una serie de
individuos no diabéticos.
Denotemos por:
NE = a los individuos no enfermos
E = a los individuos enfermos
Se denomina coeficiente falso-positivo, a la
estimación de la probabilidad condicionada p(+|NE).
Se denomina coeficiente falso-negativo a la
estimación de la probabilidad condicionada p(-|E).
Estos dos coeficientes cuantifican los dos errores
que la prueba puede cometer y caracterizan a la
misma.
Simétricamente, los coeficientes que cuantifican los
aciertos son:
Sensibilidad, p(+|E)
Especificidad p(-|NE)
Cuando la prueba se usa con fines diagnósticos (o de
"screening") interesa calcular p(E|+) y/o p(NE|-).
Como E y NE son una partición de eventos
mutuamente excluyentes se puede usar el Teorema
de Bayes para calcular p(E|+) y/o p(NE|-).
Si p(+|NE) es del 4% y p(-|E) es del 5% y si la prevalencia de
la diabetes en la población donde se aplica el análisis clínico
es del 7% ¿cuál es la probabilidad de que sea diabético un
individuo en el que el análisis dé positivo? y ¿de que no lo sea
si el análisis da negativo?
p(+|NE) = 0,04 p(-|NE) = 0,96
p(-|E) = 0,05 p(+|E) = 0,95
p(E) = 0,07 p(NE) = 0,93
Por lo general, la probabilidad condicional de que ocurra A dado que
haya ocurrido B no tiene por que coincidir con la probabilidad
(incondicional) de A.
Es decir, saber que ha ocurrido B generalmente hace cambiar la
probabilidad de ocurrencia de A.
Cuando P(A|B) es igual a P(A), se dice que A es independiente de B.
Puesto que
P(A∩B) = P(A|B) P(B)
Se deduce que:
Los eventos A y B son independientes si
P(A∩B) = P(A) P(B)
Esto es, la probabilidad de que uno de ellos ocurra no se ve afectada por la
información de que el otro haya ocurrido o no.
Este concepto se puede extender a cualquier número de eventos.
La probabilidad de la intersección de cualquier número de eventos
independientes será igual al producto se sus probabilidades.
Los eventos A1, A2, …, An son independientes si
P(A1 ∩ A2 ∩ … ∩ An) = P(A1) P(A2) … P(An)
Referencias:
Material docente de la Unidad de Bioestadística
Clínica
Hospital Ramón Cajal y Medrano
Madrid España
Silva LC, Muñoz A. Debate sobre métodos
frecuentistas vs bayesianos. Gac Sanit 2000; 14:
482-94.