Mínimos cuadrados generalizados

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En estadística, los mínimos cuadrados generalizados (en inglés, generalized least squares (GLS)) es una técnica para la estimación de los parámetros desconocidos en un modelo de regresión lineal. El GLS se aplica cuando las varianzas de las observaciones son desiguales, es decir, cuando se presenta heterocedasticidad, o cuando existe un cierto grado de correlación entre las observaciones.[1] En estos casos los mínimos cuadrados ordinarios pueden ser estadísticamente ineficaces o incluso dar inferencias engañosas.[2]

Método[editar]

En un modelo típico de regresión lineal observamos los datos \{y_i,x_{ij}\}_{i=1..n,j=1..p} en n unidades estadísticas n. Los valores de respuesta se colocan en un vector Y = (y1, ..., yn)′, y los valores de los predictores se colocan en el diseño de la matriz X = [[xij]], donde xij es el valor de la jth variable predictora de la unidad número i. El modelo asume que la media condicional de Y dado X es una función lineal de X, mientras que el condicional varianza del término de error dado X es una matriz conocida Ω. Esto se escribe como:


    Y = X\beta + \varepsilon, \qquad \mathrm{E}[\varepsilon|X]=0,\ \operatorname{Var}[\varepsilon|X]=\Omega.

Aquí β es un vector de coeficientes de regresión "desconocidos" que deben ser estimados a partir de los datos.

Supongamos que b es un candidato para la estimación β. A continuación, el residual de vector para b será Y - Xb. El método de mínimos cuadrados generalizados estima β, reduciendo al mínimo el cuadrado de Mahalanobis longitud de este vector residual:


    \hat\beta = \underset{b}{\rm arg\,min}\,(Y-Xb)'\,\Omega^{-1}(Y-Xb),

Dado que el objetivo es una forma cuadrática en b, el estimador tiene una fórmula explícita:


    \hat\beta = (X'\Omega^{-1}X)^{-1} X'\Omega^{-1}Y.

Propiedades[editar]

El estimador GLS es insesgado, consistente, eficiente y asintóticamente normal:


    \sqrt{n}(\hat\beta - \beta)\ \xrightarrow{d}\ \mathcal{N}\!\left(0,\,(X'\,\Omega^{-1}X)^{-1}\right).

GLS es equivalente a la aplicación de mínimos cuadrados ordinarios a una versión linealmente transformada de los datos. Para ver esto, el factor Ω = BB′, por ejemplo utilizando el factor de descomposición de Cholesky. Entonces, si multiplicamos ambos lados de la ecuación Y = + ε by B−1, obtenemos un modelo lineal equivalente Y* = X*β + ε*, donde Y* = B−1Y, X* = B−1X, y ε* = B−1ε.

Mínimos cuadrados ponderados[editar]

Un caso especial de GLS, llamado mínimos cuadrados ponderados (WLS), se produce cuando todas las entradas fuera de la diagonal de Ω son 0. Esta situación se presenta cuando las varianzas de los valores observados son diferentes (es decir, la heterocedasticidad está presente), pero donde no existen correlaciones entre las variaciones observadas. El peso de la unidad i es proporcional al recíproco de la varianza de la respuesta de la unidad i.

Mínimos cuadrados generalizados factibles[editar]

Factibles mínimos cuadrados generalizados (MCGF) es similar a la de mínimos cuadrados generalizados, excepto que utiliza una matriz de varianza-covarianza estimada donde la matriz verdadera no se conoce directamente.

Los mínimos cuadrados ordinarios (OLS) estimador se calculan como siempre por:


\widehat \beta_{OLS} = (X' X)^{-1} X' y

y se construye el estimador de los residuales \widehat{u}_j= (Y-Xb)_j.

Construcción  \widehat{\Omega}_{OLS} :


\widehat{\Omega}_{OLS} = \operatorname{diag}(\widehat{u}^2_1, \widehat{u}^2_2, \dots , \widehat{u}^2_n).

Estimar  \beta_{FGLS1} usando  \widehat{\Omega}_{OLS} al usar mínimos cuadrados ponderador


\widehat \beta_{FGLS1} = (X'\widehat{\Omega}^{-1}_{OLS} X)^{-1} X' \widehat{\Omega}^{-1}_{OLS} y

 \widehat{u}_{FGLS1} = Y - X \widehat \beta_{FGLS1}

\widehat{\Omega}_{FGLS1} = \operatorname{diag}(\widehat{u}^2_{FGLS1,1}, \widehat{u}^2_{FGLS1,2}, \dots , \widehat{u}^2_{FGLS1,n})

\widehat \beta_{FGLS2} = (X'\widehat{\Omega}^{-1}_{FGLS1} X)^{-1} X' \widehat{\Omega}^{-1}_{FGLS1} y

Esta estimación de \widehat{\Omega} puede ser iterada para converger a los supuestos marcados por White.

Los estimadores WLS y MCGF tienen las siguientes distribuciones:


\widehat \beta_{WLS} ~\sim N(\beta , (X'\Omega^{-1}X)^{-1})

\widehat \beta_{FGLS} ~\sim N(\beta , (X'\widehat{\Omega}_{OLS}^{-1}X)^{-1}(X'\widehat{\Omega}_{OLS}^{-1}\Omega\widehat{\Omega}_{OLS}^{-1}X)(X'\widehat{\Omega}_{OLS}^{-1}X)^{-1})

Referencias[editar]

  1. Greene, William H. (2000). Econometric Analysis, Fourth ed., New York, NY: Macmillan.
  2. Buse, A. (1973). Goodness of fit in generalized least squares estimation. The American Statistician, 27(3), 106-108.