Estimador insesgado de varianza mínima

De Wikipedia, la enciclopedia libre

En estadística un estimador insesgado de varianza mínima es aquel que tiene menor varianza que cualquier otro estimador insesgado para todos los posibles valores del parámetro.

Para los problemas estadísticos prácticos, es importante determinar si es que existe dicho estimador, ya que, naturalmente, se evitarían procedimientos sub-óptimos, manteniendo constante el resto de las condiciones. Esto ha llevado al desarrollo sustancial de la teoría estadística relacionada con el problema de la estimación óptima. Aunque la memoria particular de "óptimo" aquí - que requiere insesgamiento y medir la "bondad" con la varianza - puede no ser siempre lo que se quiere para cualquier situación práctica dada, es una donde se encuentran los resultados útiles y de aplicación general.

Definición[editar]

Considere la estimación basada en los datos IID de algún miembro de la familia de las densidades , en donde es el espacio de parámetros. Un estimador de es insesgado de varianza mínima si ,

para cualquier otro estimador insesgado

Si un estimador insesgado de existe, entonces se puede probar que hay una Estimador insesgado de varianza mínima esencialmente único. Usando el Teorema de Rao-Blackwell también se puede probar que la determinación de la Estimador insesgado de varianza mínima es simplemente una cuestión de encontrar un estadístico completo y suficiente para la familia y acondicionamiento cualquier estimador imparcial sobre el mismo.

Además, por el teorema de Lehmann-Scheffé, un estimador insesgado es una función de una completa, estadístico suficiente es el estimador UMVUE.

Ponga formalmente, supongamos es imparcial para , y que es una estadística suficiente completa para la familia de densidades. Entonces

es el MVUE para

Un caso análogo bayesiano es un estimador de Bayes, en particular con error cuadrático medio mínimo (MMSE).

Selección del estimador[editar]

Un estimador eficiente no tiene por qué existir, pero si lo hace y si es imparcial, es la MVUE. Puesto que el error cuadrático medio (MSE) de un estimador es δ

la MVUE minimiza MSE entre los estimadores no sesgados. En algunos casos estimadores sesgados tener menor MSE porque tienen una varianza más pequeña que lo hace cualquier estimador insesgado; ver sesgo estimador.

Ejemplo[editar]

Considere la posibilidad de que los datos son una sola observación de una distribución absolutamente continua en con la densidad:

y deseamos encontrar el estimador de UMVU

En primer lugar, reconocemos que la densidad se puede escribir como

Qué es una familia exponencial con suficiente estadística . De hecho, esta es una familia exponencial de rango completo, y por lo tanto T es completa suficiente. Ver familia exponencial para una derivación que muestra

Por lo tanto

Claramente es insesgado, por lo que el estimador es UMVU

Este ejemplo ilustra que una función imparcial de la estadística suficiente completa será UMVU.

Otros ejemplos[editar]

  • Para una distribución normal de media y varianza desconocidas, la media de la muestra y (imparcial) varianza de la muestra son los MVUEs para la media poblacional y la varianza de la población.
Sin embargo, la desviación estándar de la muestra no es imparcial para la desviación estándar de la población - ver estimación no sesgada de la desviación estándar. Además, para otras distribuciones de la media muestral y la varianza de la muestra no se encuentran en MVUEs generales - para una distribución uniforme con límites superior e inferior desconocidas, el rango medio es la MVUE para la media poblacional.
  • Si k ejemplares se eligen (sin reemplazo) de una distribución uniforme discreta sobre el conjunto {1, 2, ..., N} con desconocido límite superior N, el MVUE para N es

donde m es el máximo de la muestra. Este es un escalados y desplazados (de manera imparcial) transformar del máximo de la muestra, que es una estadística suficiente y completa. Vea problema tanque alemán para más detalles.

Referencias[editar]

  • Keener, Robert W. (2006). Statistical Theory: Notes for a Course in Theoretical Statistics. Springer. pp. 47-48, 57-58. 
  • Voinov V. G.,, Nikulin M.S. (1993). Unbiased estimators and their applications, Vol.1: Univariate case. Kluwer Academic Publishers. pp. 521p.