es la muestra (formalmente, las realizaciones de una variable aleatoria X) y
Gran parte de los apartados siguientes se relacionan con la estimación no sesgada suponiendo una distribución normal.
Cuando la variable aleatoria está normalmente distribuida, existe una corrección menor para eliminar el sesgo.
Para deducir esta corrección, ha de tenerse en cuenta que una variable X normalmente distribuida, según el teorema de Cochran, implica que
tiene una distribución χ² con n − 1 grados de libertad, y por lo tanto, su raíz cuadrada
Se puede obtener un estimador sin sesgo de σ al dividir s por c4 (n).
Es importante tener en cuenta que esta corrección solo produce un estimador imparcial para la "X" distribuida de manera normal e independiente.
Cuando se cumple esta condición, otro resultado de s que involucra a c4 (n) es que el error estándar de s es[2][3]
, mientras que el error estándar del estimador no sesgado es
Esta expresión es solo aproximada, de hecho, la fórmula exacta es: Sin embargo, la diferencia en el sesgo obtenido con la regla aproximada es relativamente pequeña: por ejemplo, para n = 3 es igual al 1.3%, y para n = 9 la diferencia ya es menor del 0.1%.
Un enfoque general para la estimación sería determinar la máxima verosimilitud.
En ningún caso las estimaciones obtenidas generalmente serán no sesgadas.
Básicamente, podrían obtenerse ajustes teóricos para obtener estimaciones no sesgadas, pero, a diferencia del caso de la distribución normal, casi siempre dependerían de los parámetros estimados.
Si el requisito es simplemente reducir el sesgo de una desviación estándar estimada, en lugar de eliminarlo por completo, entonces hay dos enfoques prácticos disponibles, ambos dentro del contexto del remuestreo, que se denominan jackknife y bootstrapping.
Ambas técnicas se pueden aplicar a estimaciones basadas en parámetros de la desviación estándar o a la propia desviación estándar de la muestra.
Para distribuciones no normales, una fórmula aproximada (hasta O (n−1)) para el estimador no sesgado de la desviación estándar es: donde γ2 denota la curtosis de la población.
Sin embargo, los datos del mundo real a menudo no cumplen con este requisito; y pueden estar autocorrelacionados (característica también conocida como correlación serial).
Es decir, la variabilidad real de los datos será mayor que la indicada por una varianza no corregida o un cálculo de desviación estándar.
Es esencial reconocer que, si esta expresión se va a usar para corregir el sesgo, al dividir la estimación
Esto se debe a que la citada función de autocorrelacion estimada siempre estará sesgada.
[6] Para ilustrar la magnitud del sesgo en la desviación estándar, considérese un conjunto de datos que consiste en lecturas secuenciales de un instrumento que usa un filtro digital específico, cuya función de autocorrelación se sabe que está dada por donde α es el parámetro del filtro, y toma valores de cero a la unidad.
El sesgo se indica mediante valores en el eje vertical diferentes de la unidad; es decir, si no hubiera sesgo, la proporción entre la desviación estándar estimada y la conocida sería la unidad.
Del mismo modo, reescribiendo la expresión anterior para la varianza de la media, y sustituyendo la estimación por
En el caso de datos no independientes (distribuidos normalmente e independientemente), el radicando es la unidad y θ es solo la función c4 dada en la primera sección anterior.
Se puede demostrar a través de una simulación que ignorar θ (es decir, tomarlo como unidad) y usar elimina todo menos un pequeño porcentaje del sesgo causado por la autocorrelación, lo que lo convierte en un estimador de sesgo "reducido", en lugar de un estimador "no" sesgado.
La figura anterior, que muestra un ejemplo del sesgo en la desviación estándar frente al tamaño de la muestra, se basa en esta aproximación; el sesgo real sería algo mayor que el indicado en esos gráficos, ya que no se incluye el sesgo de transformación θ.