4.4 Características estadísticas del estimador lider
Hay una
serie de características deseables en los estimadores para que éstos
constituyan una buena aproximación a los respectivos parámetros. Se trata de
rasgos que podrían entenderse como criterios de calidad de los estimadores.
1. Carencia de sesgo. Se dice que un estimador es insesgado
si el valor esperado de su distribución de probabilidad es igual al parámetro.
Es decir, si es igual a Ө la media de los valores Ê calculados en cada una de
las muestras aleatorias posibles del mismo tamaño. Si el estadístico Ê es
utilizado como estimador del parámetro Ө, ese estimador carece de sesgo cuando
E(Ê) = Ө Por ejemplo, la media [D] es un estimador insesgado de µ, puesto que
se cumple, tal y como vimos en el capítulo anterior al estudiar la distribución
muestral del estadístico media, que E( [D]) = µ En el caso de la varianza,
suelen manejarse habitualmente dos estimadores: [D] o bien, [D]. Para cada uno
de ellos, el valor esperado resulta ser: [D] El segundo de los estimadores
posee la característica de ser un estimador insesgado de σ2 , razón por la que
suele emplearse con más frecuencia que el primero a la hora de estimar el
parámetro varianza poblacional. Cuando E(Ê) ≠ Ө, decimos que el estimador
sesgado tiene un sesgo positivo si E(Ê) > Ө, o que tiene un sesgo negativo
si E(Ê) < Ө. Un estimador sesgado tenderá a ofrecer sistemáticamente valores
que se alejan en un sentido u otro del parámetro, aunque la muestra sea elegida
aleatoriamente.
2. Consistencia. Un estimador Ê es consistente si, además de
carecer de sesgo, se aproxima cada vez más al valor del parámetro a medida que
aumenta el tamaño de la muestra. Si el tamaño n se hace indefinidamente grande,
los valores de Ê se concentran cada vez más en torno al valor del parámetro,
hasta que con un tamaño 2. muestral infinito obtenemos una varianza del
estimador nula.
Por tanto, un estimador es consistente si cuando n tiende a
infinito se cumple E(Ê) = Ө; var(Ê) = 0 La media es un estimador consistente
del parámetro µ, puesto que se verifican las condiciones anteriores. Es decir.
[D] También se comprueba que los dos estimadores de la varianza, presentados en
el apartado anterior, resultan ser estimadores consistentes de σ2 .
3. Eficiencia. La eficiencia de un estimador está vinculada
a su varianza muestral. Así, para un mismo parámetro Ө, se dice que el
estimador Ê1 es más eficiente que el estimador Ê2 si se cumple var(Ê1) <
var(Ê2) Por tanto, si un estadístico es más eficiente que otro, significa que
varía menos de unas muestras a otras. Se demuestra que la media es un estimador
del parámetro µ más eficiente que la mediana. Del mismo modo, la varianza Sn-12
es un estimador de σ2 más eficiente que Sn 2 .
4. Suficiencia. Un estimador es suficiente cuando en su
cálculo se emplea toda la información de la muestra. Por ejemplo, al calcular
el estimador [D] del correspondiente parámetro poblacional, utilizamos la
fórmula: [D] para cuyo cálculo se tienen en cuenta todas las puntuaciones Xi.
Otro tanto ocurre con los estimadores Sn-12 y Sn 2 de la varianza. Todos ellos
pueden ser considerados estimadores suficientes de los respectivos parámetros.
No hay comentarios:
Publicar un comentario