Error cuadrático medio

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En estadística, el error cuadrático medio (ECM) de un estimador mide el promedio de los errores al cuadrado, es decir, la diferencia entre el estimador y lo que se estima. El ECM es una función de riesgo, correspondiente al valor esperado de la pérdida del error al cuadrado o pérdida cuadrática. La diferencia se produce debido a la aleatoriedad o porque el estimador no tiene en cuenta la información que podría producir una estimación más precisa.[1]

El MSE es el segundo momento (sobre el origen) del error, y por lo tanto incorpora tanto la varianza del estimador así como su sesgo. Para un estimador insesgado, el ECM es la varianza del estimador. Al igual que la varianza, el EMC tiene las mismas unidades de medida que el cuadrado de la cantidad que se estima. En una analogía con la desviación estándar, tomando la raíz cuadrada del EMC produce el error de la raíz cuadrada de la media o la desviación de la raíz cuadrada media (RMSE o RMSD), que tiene las mismas unidades que la cantidad que se estima; para un estimador insesgado, el RMSE es la raíz cuadrada de la varianza, conocida como la desviación estándar.

Definición y propiedades básicas[editar]

Si \hat{Y} es un vector de n predicciones y Y es el vector de los verdaderos valores, entonces el (estimado) ECM del predictor es:

\operatorname{ECM}=\frac{1}{n}\sum_{i=1}^n(\hat{Y_i} - Y_i)^2.

Esta es una cantidad conocida, calculado dada una muestra particular (y por lo tanto es dependiente de la muestra).

El MSE de un estimador \hat{\theta} con respecto al parámetro desconocido \theta se define como

\operatorname{ECM}(\hat{\theta})=\operatorname{E}\big[(\hat{\theta}-\theta)^2\big].

Esta definición depende del parámetro desconocido, y el MSE en este sentido es una propiedad de un estimador (de un método de obtención de una estimación).

El MSE es igual a la suma de la varianza y el cuadrado sesgo del estimador o de las predicciones. En el caso de la MSE de un estimador, [2]

\operatorname{ECM}(\hat{\theta})=\operatorname{Var}(\hat{\theta})+ \left(\operatorname{Bias}(\hat{\theta},\theta)\right)^2.

Así pues, el ECM evalúa la calidad de un estimador o conjunto de predicciones en cuanto a su variación y el grado de sesgo.

Desde MSE es una expectativa, no es técnicamente una variable aleatoria, pero va a estar sujeto a error de estimación cuando se calcula para un estimador particular de \theta con valor verdadero desconocido. Por lo tanto, cualquier estimación de la MSE sobre la base de un parámetro estimado es de hecho una variable aleatoria.

Demostración[editar]

\begin{align}\operatorname{MSE}(\hat{\theta})\equiv \mathbb{E}((\hat{\theta}-\theta)^2)&=
 \mathbb{E}\left[\left(\hat{\theta}-\mathbb{E}(\hat\theta)+\mathbb{E}(\hat\theta)-\theta\right)^2\right]
\\ & =
\mathbb{E}\left[\left(\hat{\theta}-\mathbb{E}(\hat\theta)\right)^2 +2\left((\hat{\theta}-\mathbb{E}(\hat\theta))(\mathbb{E}(\hat\theta)-\theta)\right)+\left( \mathbb{E}(\hat\theta)-\theta \right)^2\right]
\\ & = \mathbb{E}\left[\left(\hat{\theta}-\mathbb{E}(\hat\theta)\right)^2\right]+2\mathbb{E}\left[(\hat{\theta}-\mathbb{E}(\hat\theta))(\mathbb{E}(\hat\theta)-\theta)\right]+\mathbb{E}\left[\left(\mathbb{E}(\hat\theta)-\theta\right)^2\right]
\\ & = \mathbb{E}\left[\left(\hat{\theta}-\mathbb{E}(\hat\theta)\right)^2\right]+2(\mathbb{E}(\hat\theta)-\theta)\overbrace{\mathbb{E}(\hat{\theta}-\mathbb{E}(\hat\theta))}^{=\mathbb{E}(\hat\theta)-\mathbb{E}(\hat\theta)=0}+\mathbb{E}\left[\left(\mathbb{E}(\hat\theta)-\theta\right)^2\right]
\\ & = \mathbb{E}\left[\left(\hat{\theta}-\mathbb{E}(\hat\theta)\right)^2\right]+\mathbb{E}\left[\left(\mathbb{E}(\hat\theta)-\theta\right)^2\right]
\\ & = \operatorname{Var}(\hat\theta)+ \operatorname{Bias}(\hat\theta,\theta)^2
\end{align}

Regresión[editar]

En el análisis de regresión, el término de error cuadrático medio se utiliza a veces para referirse a la estimación insesgada de la varianza del error: la suma residual de cuadrados, dividida por el número de grados de libertad. Esta definición para una cantidad calculada conocida, difiere de la definición anterior para el ECM calculado para un predictor en que se utiliza un denominador diferente. El denominador es el tamaño reducido de la muestra por el número de parámetros del modelo estimado a partir de los mismos datos, (np) para p regresores o (np-1) si se utiliza una intercepción.[3] Para más detalles, ver los errores y los residuos en las estadísticas. Tenga en cuenta que, aunque el ECM no es un estimador insesgado de la varianza del error, es coherente, dada la consistencia del predictor.

También en el análisis de regresión, "error cuadrático medio", se refiere a menudo al error medio de predicción cuadrado o "fuera de la media muestral de error al cuadrado", puede referirse a la media de las desviaciones al cuadrado de las predicciones de los verdaderos valores, a lo largo un espacio fuera de la muestra de ensayo, generado por un modelo estimado durante un espacio de muestra particular. Esto también es una, cantidad calculada conocida, y varía por muestra y por espacio de ensayo fuera de la muestra.

Referencias[editar]

  1. Lehmann, E. L.; Casella, George (1998). Theory of Point Estimation (2nd edición). New York: Springer. ISBN 0-387-98502-6. MR 1639875. 
  2. Wackerly, Dennis; Scheaffer, William (2008). Mathematical Statistics with Applications (7 edición). Belmont, CA, USA: Thomson Higher Education. ISBN 0-495-38508-5. 
  3. Steel, R.G.D, and Torrie, J. H., Principles and Procedures of Statistics with Special Reference to the Biological Sciences., McGraw Hill, 1960, page 288.