Estimador extremo

De Wikipedia, la enciclopedia libre

En estadística, los estimadores extremos constituyen una amplia clase de estimadores para modelos paramétricos que se calculan mediante la maximización (o minimización) de una determinada función objetivo, que depende de la muestra. La teoría general de estimadores extremos fue desarrollada por Amemiya (1985).

Definición[editar]

Un estimador se llama estimador extremo si existe una función objetivo tal que

donde es el espacio de parámetros. A veces se da una condición más débil:

donde es una variable que converge en probabilidad a cero. Con esta modificación, no necesita ser el valor exacto que maximiza la función objetivo, sino simplemente estar lo suficientemente cerca de ese valor.

La teoría de los estimadores extremos no especifica cuál debe ser la función objetivo. Existen varios tipos de funciones objetivo adecuadas para diferentes modelos, por lo que el estudio de los estimadores extremos nos permite analizar simultáneamente las propiedades teóricas de una amplia clase de estimadores. La teoría sólo especifica las propiedades que la función objetivo debe tener, de forma que, cuando uno elige una función objetivo particular, sólo debe verificar que esas propiedades se cumplen.

Consistencia[editar]

Cuando el espacio de parámetros no es compacto ( en este ejemplo), aunque la función objetivo tenga un único máximo en , este máximo puede no estar bien separado, en cuyo caso el estimador no será consistente.

Si el espacio de parámetros es compacto y existe una función límite tal que:

  1. en probabilidad uniformemente en , y
  2. la función es continua y tiene un único máximo en ,

entonces es un estimador consistente de .[1]

La convergencia uniforme en probabilidad de significa que

La condición de que sea compacto puede relajarse: basta suponer que el máximo de está bien separado, es decir, que para toda secuencia tal que se verifica . Intuitivamente, esto significa que no existen puntos lejanos a tales que esté próximo a .

Normalidad asintótica[editar]

Suponiendo que son ciertas las hipótesis anteriores para la consistencia y que las derivadas de satisfacen ciertas condiciones,[2]​ el estimador extremo es asintóticamente normal.

Ejemplos[editar]

donde es la función de densidad de la distribución de la que fue extraída la muestra. Esta función objetivo se llama función de log-verosomilitud.

  • Estimador de mínima distancia.

Referencias[editar]

  1. Newey & McFadden (1994), Theorem 2.1
  2. Shi, Xiaoxia. «Lecture Notes: Asymptotic Normality of Extremum Estimators».