En estadística, los estimadores extremos constituyen una amplia clase de estimadores para modelos paramétricos que se calculan mediante la maximización (o minimización) de una determinada función objetivo, que depende de la muestra.
La teoría general de estimadores extremos fue desarrollada por Amemiya (1985).
se llama estimador extremo si existe una función objetivo
es el espacio de parámetros.
A veces se da una condición más débil: donde
es una variable que converge en probabilidad a cero.
no necesita ser el valor exacto que maximiza la función objetivo, sino simplemente estar lo suficientemente cerca de ese valor.
La teoría de los estimadores extremos no especifica cuál debe ser la función objetivo.
Existen varios tipos de funciones objetivo adecuadas para diferentes modelos, por lo que el estudio de los estimadores extremos nos permite analizar simultáneamente las propiedades teóricas de una amplia clase de estimadores.
La teoría sólo especifica las propiedades que la función objetivo debe tener, de forma que, cuando uno elige una función objetivo particular, sólo debe verificar que esas propiedades se cumplen.
Si el espacio de parámetros
es compacto y existe una función límite
es un estimador consistente de
[1] La convergencia uniforme en probabilidad de
sea compacto puede relajarse: basta suponer que el máximo de
está bien separado, es decir, que para toda secuencia
Intuitivamente, esto significa que no existen puntos
esté próximo a
Suponiendo que son ciertas las hipótesis anteriores para la consistencia y que las derivadas de
satisfacen ciertas condiciones,[2] el estimador extremo es asintóticamente normal.
Esta función objetivo se llama función de log-verosomilitud.