Eficiencia (estadística)

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En estadística se dice que un estimador es más eficiente o más preciso que otro estimador, si la varianza del primero es menor que la del segundo. Por ejemplo, si \hat \theta_1 y \hat \theta_2 son ambos estimadores de \theta y


\operatorname{Var}(\hat \theta_1) < \operatorname{Var}(\hat \theta_2),

se dice que \hat \theta_1 es más eficiente que \hat \theta_2. Un estimador es más eficiente (más preciso), por tanto, cuanto menor es su varianza.

La eficiencia de los estimadores está limitada por las características de la distribución de probabilidad de la muestra de la que proceden. El teorema de Cramér-Rao determina que la varianza de un estimador insesgado \hat \theta de un parámetro \theta es, como mínimo,


\mathrm{var} \left(\widehat{\theta}\right)
\geq
\frac{1}
{
 \mathrm{E}
 \left[
  \left[
   \frac{\partial}{\partial \theta} \log f(X;\theta)
  \right]^2
 \right]
}

donde  f(X;\theta) es la función de densidad de probabilidad de la muestra X=(X_1,X_2,\cdots,X_n)^t en función del parámetro \theta, (denominada función de verosimilitud). Si un estimador alcanza esta cota mínima, entonces se dice que el estimador es de mínima varianza.

Véase también[editar]

Bibliografía[editar]

  • Borovkov, A. A. Estadística matemática, Editorial Mir, Moscú, 1984, capítulo 16.
  • García Nogales, Agustín, Estadística matemática, Publicaciones de la Universidad de Extremadura, página 136.