Suma residual de cuadrados

De Wikipedia, la enciclopedia libre

En estadística e inteligencia artificial, la suma residual de cuadrados (RSS), también conocida como suma de residuos cuadrados (SSR) o suma de cuadrados de estimación de errores (SSE), es la suma de los cuadrados de residuos (desviaciones predichas a partir de valores empíricos reales). de datos). Es una medida de la discrepancia entre los datos y un modelo de estimación, como una regresión lineal. Un RSS pequeño indica un ajuste estrecho del modelo a los datos. Se utiliza como criterio de optimización en la selección de parámetros y la selección de modelos .

En general, suma total de cuadrados = suma explicada de cuadrados + suma residual de cuadrados. Para ver una prueba de esto en el caso de mínimos cuadrados ordinarios (OLS) multivariante, consulte partición en el modelo OLS general .

Una variable explicativa[editar]

En un modelo con una sola variable explicativa (explanatory variable en inglés), RSS viene dado por:[1]

donde y i es el i -ésimo valor de la variable a predecir, x i es el i -ésimo valor de la variable explicativa, y es el valor pronosticado de y i (también denominado ). En un modelo de regresión lineal simple estándar, , donde y son coeficientes, y y x son la regresora y la regresora, respectivamente, y ε es el término de error . La suma de los cuadrados de los residuos es la suma de los cuadrados de  ; es decir

donde es el valor estimado del término constante y es el valor estimado del coeficiente de pendiente .

Expresión matricial para la suma residual de cuadrados OLS - MCO[editar]

El modelo de regresión general con n observaciones y k explicadores (explanators en inglés), el primero de los cuales es un vector unitario constante cuyo coeficiente es el intercepto de la regresión, es

donde y es un vector n × 1 de observaciones de variables dependientes, cada columna de la matriz n × k , X es un vector de observaciones en uno de los k explicadores, es un vector k × 1 de coeficientes verdaderos, y e es un vector n × 1 de los errores subyacentes verdaderos. El estimador de mínimos cuadrados ordinarios para es

El vector residual =  ; entonces la suma residual de los cuadrados es:

,

(equivalente al cuadrado de la norma de residuos). En su totalidad:

,

donde H es la matriz sombrero, o la matriz de proyección en regresión lineal.

Relación con la correlación producto-momento de Pearson[editar]

La línea de regresión de mínimos cuadrados está dada por

,

donde y , donde y

Por lo tanto,

donde

La correlación producto-momento de Pearson está dada por por lo tanto,

Véase también[editar]

Referencias[editar]

  1. Archdeacon, Thomas J. (1994). Correlation and regression analysis : a historian's guide. University of Wisconsin Press. pp. 161-162. ISBN 0-299-13650-7. OCLC 27266095. 

Bibliografía[editar]

  • Draper, N.R.; Smith, H. (1998). Applied Regression Analysis (3rd edición). John Wiley. ISBN 0-471-17082-8.