Multicolinealidad

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

El proceso o término de multicolinealidad en Econometría es una situación en la que se presenta una fuerte correlación entre variables explicativas del modelo. La correlación ha de ser fuerte, ya que siempre existirá correlación entre dos variables explicativas en un modelo, es decir, la no correlación de dos variables es un proceso idílico, que sólo se podría encontrar en condiciones de laboratorio.

Clases de colinealidad[editar]

Multicolinealidad exacta[editar]

Afirmamos que hay colinealidad exacta, cuando una o más variables, son una combinación lineal de otra, es decir, existe un coeficiente de determinación entre estas dos variables de 1. Esto provoca que la Matriz X'X tenga determinante 0, y sea singular (no invertible).

Multicolinealidad aproximada[editar]

Afirmamos que hay colinealidad aproximada, cuando una o más variables, no son exactamente una combinación lineal de la otra, pero existe un coeficiente de determinación entre estas variables muy cercano al uno y por lo tanto:

 |X'X| \simeq 0

Colinealidad exacta, efectos y soluciones[editar]

Se da cuando el rango es menor al número de columnas:  Rg(X)= r < k \

Ordenamos las variables explicativas del modelo de manera que:

 X = [X_r|X_{s=k-r}] \longleftrightarrow Rg(X_r) = r \

Teniendo en cuenta que:

 X_s =  X_rM \longleftrightarrow X = X_r[I_r|M]= X_rZ \longleftrightarrow Z = [I_r|M]


Sustituimos en el Modelo:

 X = X_rZ \rightarrow Y= X_rZ \beta + u \leftarrow Y = X \beta + u  \

Y llamamos a  Z \beta = \vartheta

y si reescribimos el modelo tenemos:

 Y = X_r \vartheta + u

Cuando hay colinealidad exacta no podemos estimar los parámetros del modelo, lo que estimamos son combinaciones lineales de ellos que reciben el nombre de funciones estimables. Siendo en nuestro caso particular \vartheta nuestra función estimable.

Ejemplo de como operar con funciones estimables:

 X = \begin{pmatrix} 1 & 4 & 8 \\ 1 & 2 & 4 \\ 1 & 5 & 10 \\1 & 7 & 14 \\ 1 & 9 & 18 \\ 1 & 12 & 24 \\ 1 & 13 & 26 \\ 1 & 1 & 2 \end{pmatrix}

Como se puede ver, la tercera columna es el doble de la segunda, de manera que la matriz X'X es singular y en consecuencia no podríamos obtener el estimador MCO.

De manera que en virtud de lo visto anteriormente tenemos:

X_r = \begin{pmatrix} 1 & 4 \\ 1 & 2 \\ 1 & 5 \\1 & 7 \\ 1 & 9 \\ 1 & 12 \\ 1 & 13 \\ 1 & 1\end{pmatrix} X_s = \begin{pmatrix} 8 \\ 4 \\ 10 \\ 14 \\ 18 \\ 24 \\26 \\2 \end{pmatrix}  M = \begin{pmatrix} 0 \\ 2 \end{pmatrix} Z = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 2 \end{pmatrix}

De manera que:

\vartheta = Z \beta = \begin{pmatrix} \beta_1 \\ \beta_2 + 2\beta_3  \end{pmatrix}

Colinealidad aproximada, efectos y soluciones[editar]

El efecto de la multicolinealidad es el aumento de las varianzas de los estimadores de los coeficientes de regresión debido a :

 |X'X| \simeq 0 \longleftrightarrow \frac{1}{|X'X|} \approx \infty

y al ser la Varianza de las perturbaciones:

Cov(\beta)= \sigma^2_\epsilon(X'X)^{-1}=\sigma^2_\epsilon \frac{1}{|X'X|} adj(X'X)' \

Debido a esto y dado que para realizar el análisis estructural se necesita la varianza de los estimadores y al ser un componente de esta la inversa de |X'X| la convierte muy elevada, y en consecuencia las estimaciones son poco precisas y afecta negativamente al análisis estructural.

Otro efecto son que tenemos unas estimaciones sensibles a la muestra. Puesto que la función objetivo (suma de cuadrados de residuos) es muy plana en el entorno del óptimo, de modo que pequeños cambios en los valores de y o de X pueden dar lugar a cambios importantes en las estimaciones.

Detección de la colinealidad[editar]

Método del Factor de Inflación de la Varianza

Partimos de que:

FIV (\beta_i)= \frac{1}{1-R^2_{xi}}  \longleftrightarrow T(\beta_i) = 1-R^2_{xi}

De manera que podemos hacer un contraste de hipótesis, para ver si hay o no colinealidad para la i-ésima variable, habrá colinealidad cuando:

FIV (\beta_i) > \frac{k - 2}{n - k + 1}F_0 + 1

Siendo  F_0 \ el cuantil de la distribución F de Snedecor con k - 2 y n – k + 1 grados de libertad.

Por este método analizamos la colinealidad que produce una determinada variable explicativa.

Autovalores y número de condición de |X'X|

Partimos de que:

|X'X| = \displaystyle\prod_{i=1}^k \lambda_j

Siendo:

 \lambda_j \ i-ésimo autovalor de la matriz. Por tanto, podemos reducir el diagnóstico a comprobar si la matriz tiene algún autovalor próximo a cero.

 IC (X'X)= \sqrt {\frac{\lambda_{max}}{\lambda_{min}}}

De manera que en función del número de condición tenemos:

 10 \le IC \le 30 \rightarrow Moderada

 IC > 30 \rightarrow Grave

Por este método analizamos la colinealidad que producen todas las variables explicativas del modelo en su conjunto.

Método del determinante en la matriz de correlación de exógenas

En supuesto que no hay multicolinealidad fuerte, la matriz de correlación tiende a la matriz identidad, por lo cual su determinante tiende a la unidad.

Caso contrario, cuando hay multicolinealidad, la matriz de correlación dista de ser la identidad, y la determinante estará cercana a cero; entonces bajo esta situación se dice que hay indicios de multicoinealidad.

Solución de la colinealidad[editar]

Aumentar el tamaño muestral puede reducir un problema de colinealidad aproximada.

Si se suprimen variables que están correladas con otras, la pérdida de capacidad explicativa será pequeña y la colinealidad se reducirá.

Trabajar con las series logaritmizadas.

Utilizar datos de corte transversal.

Desestacionalizar las series y quitarles la tendencia.