Estimación e intervalos de confianza

Post on 17-Jun-2015

257 views 6 download

Transcript of Estimación e intervalos de confianza

Estimación e intervalos de

confianzaYhunary Solano

Estimación Se le llama estimación a una muestra aleatoria que se toma de una población a través de la cual queremos calcular la

aproximación a los parámetros que queremos estimar y desconocemos. A dicha aproximación le denominamos

estimación.

Estimación puntual Es cuando se usa un solo valor extraído de la

muestra para estimar el parámetro desconocido de la población.

Al valor usado se le llama estimador. Es un número que se utiliza para aproximar el

verdadero valor de dicho parámetro.

A fin de realizar tal estimación, tomaremos una muestra de la población y calcularemos el

parámetro muestral asociado.

El valor de este parámetro muestral será la estimación puntual del parámetro buscado.

La media de la población se puede estimar puntualmente mediante la media de la muestra:

La proporción de la población se puede estimar puntualmente mediante la proporción de la muestra:

La desviación típica de la población se puede estimar puntualmente mediante la desviación típica de la

muestra, aunque hay mejores estimadores:

S=σ

Estimación por intervalo

Consiste en la obtención de un intervalo dentro del cual estará el valor del

parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes

conceptos

Intervalo de confianza:

El intervalo de confianza es una expresión del tipo [θ1, θ2] o θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con una determinada certeza o nivel de confianza. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circunstancial.

Variabilidad del Parámetro:

Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto. También hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota σ. 

Error de la estimación: Es una medida de su precisión que se corresponde con la

amplitud del intervalo de confianza. Cuanta más precisión se desee en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o disminuir el error, más ocurrencias deberán incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, más error se comete al aumentar la precisión. Se suele llamar E, según la fórmula E = θ2 - θ1.

Límite de Confianza: Es la probabilidad de que el verdadero valor del

parámetro estimado en la población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-α), aunque habitualmente suele expresarse con un porcentaje ((1-α)·100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores α de 0,05 y 0,01 respectivamente.

Valor α: También llamado nivel de significación. Es la

probabilidad (en tanto por uno) de fallar en nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-α). Por ejemplo, en una estimación con un nivel de confianza del 95%, el valor α es (100-95)/100 = 0,05

Valor crítico: Se representa por Zα/2. Es el valor de la abscisa

en una determinada distribución que deja a su derecha un área igual a α/2, siendo 1-α el nivel de confianza. Normalmente los valores críticos están tabulados o pueden calcularse en función de la distribución de la población.

Método por analogía. Consiste en aplicar la misma expresión formal del

parámetro poblacional a la muestra , generalmente , estos estimadores son de cómoda operatividad , pero en ocasiones presentan sesgos y no resultan eficientes. Son recomendables, para muestras de tamaño grande al cumplir por ello propiedades asintóticas de consistencia.

Método de los momentos. Consiste en tomar como estimadores de los

momentos de la población a los momentos de la muestra . Podríamos decir que es un caso particular del método de analogía. En términos operativos consiste en resolver el sistema de equivalencias entre unos adecuados momentos empíricos(muestrales) y teóricos(poblacionales).

Ejemplo : Conocemos que la media poblacional de una

determinada variable x depende de un parámetro K que es el que realmente

queremos conocer (estimar). Así:

Por el método de los momentos tendríamos que:

De donde:  

Estimadores maximo-verosimiles.

La verosimilitud consiste en otorgar a un estimador/estimación una determinada

"credibilidad" una mayor apariencia de ser el cierto valor(estimación) o el cierto camino para

conseguirlo(estimador).

En términos probabilísticos podríamos hablar de que la verosimilitud es la probabilidad de que ocurra o se dé

una determinada muestra si es cierta la estimación que hemos efectuado o el estimador que hemos planteado.

Evidentemente , la máxima verosimilitud , será aquel estimador o estimación que nos arroja mayor

credibilidad.

En una situación formal tendríamos :

Un estimador máximo-verosímil es el que se obtiene maximizando la función de

verosimilitud (likelihood) de la muestra:

Que es la función de probabilidad (densidad o cuantía) que asigna la probabilidad de que se obtenga una muestra dependiendo del (o de los)parámetro(s) " "    pero considerada como función de  .  

Si la distribución de la población es tal que su densidad depende de uno o más parámetros     , la probabilidad (densidad) de cad realización muestral xi  (con i=1,2,..,n) será:      y, a partir de aquí podremos obtener la función de verosimilitud de la muestra:

Si el muestreo es simple:

Por ser independientes cada una de las realizaciones muéstrales.

El estimador que maximice

Será el estimador máximo-verosímil (E.M.V.) Y será aquel valor/expresión para el que se verifique

la derivada :       

Si lo planteado fuera Estimador Máximo -Verosímil de varios parámetros:

Las expresiones serían. . 

Debido a que la función de verosimilitud es a fin de cuentas una función de probabilidad ,será una

función definida no negativa y por lo tanto alcanzará su máximo en los mismos puntos que su logaritmo.

Por esta razón suele maximizarse

En lugar de la propia función de verosimilitud . Suele hacerse esto en todos aquellos casos en los que la

función de verosimilitud depende de funciones exponenciales.