Estimador extremo

En estadística, los estimadores extremos constituyen una amplia clase de estimadores para modelos paramétricos que se calculan mediante la maximización (o minimización) de una determinada función objetivo, que depende de la muestra.

La teoría general de estimadores extremos fue desarrollada por Amemiya (1985).

se llama estimador extremo si existe una función objetivo

es el espacio de parámetros.

A veces se da una condición más débil: donde

es una variable que converge en probabilidad a cero.

no necesita ser el valor exacto que maximiza la función objetivo, sino simplemente estar lo suficientemente cerca de ese valor.

La teoría de los estimadores extremos no especifica cuál debe ser la función objetivo.

Existen varios tipos de funciones objetivo adecuadas para diferentes modelos, por lo que el estudio de los estimadores extremos nos permite analizar simultáneamente las propiedades teóricas de una amplia clase de estimadores.

La teoría sólo especifica las propiedades que la función objetivo debe tener, de forma que, cuando uno elige una función objetivo particular, sólo debe verificar que esas propiedades se cumplen.

Si el espacio de parámetros

es compacto y existe una función límite

es un estimador consistente de

[1]​ La convergencia uniforme en probabilidad de

sea compacto puede relajarse: basta suponer que el máximo de

está bien separado, es decir, que para toda secuencia

Intuitivamente, esto significa que no existen puntos

esté próximo a

Suponiendo que son ciertas las hipótesis anteriores para la consistencia y que las derivadas de

satisfacen ciertas condiciones,[2]​ el estimador extremo es asintóticamente normal.

Esta función objetivo se llama función de log-verosomilitud.

Cuando el espacio de parámetros no es compacto ( en este ejemplo), aunque la función objetivo tenga un único máximo en , este máximo puede no estar bien separado , en cuyo caso el estimador no será consistente.