Multicolinealidad

De Wikipedia, la enciclopedia libre
Factor de inflación de alta varianza en multicolinealidad

El proceso o término de multicolinealidad en econometría es una situación en la que se presenta una fuerte correlación entre variables explicativas del modelo. La correlación ha de ser fuerte, ya que siempre existirá correlación entre dos variables explicativas en un modelo, es decir, la no correlación de dos variables es un proceso idílico, que sólo se podría encontrar en condiciones de laboratorio.[1][2]

Clases de colinealidad[editar]

Existen varios tipos de colinealidad.[3]

Multicolinealidad exacta[editar]

Afirmamos que hay colinealidad exacta, cuando una o más variables, son una combinación lineal de otra, es decir, existe un coeficiente de correlación entre estas dos variables de 1. Esto provoca que , es decir, la matriz tenga determinante y sea singular (no invertible).

Efectos y soluciones de la colinealidad exacta[editar]

Se da cuando el rango es menor al número de columnas:

Ordenamos las variables explicativas del modelo de manera que:

Teniendo en cuenta que:

Sustituimos en el Modelo:

Y llamamos a

y si reescribimos el modelo tenemos:

Cuando hay colinealidad exacta no podemos estimar los parámetros del modelo, lo que estimamos son combinaciones lineales de ellos que reciben el nombre de funciones estimables. Siendo en nuestro caso particular nuestra función estimable.

Ejemplo de cómo operar con funciones estimables:

Como se puede ver, la tercera columna es el doble de la segunda, de manera que la matriz X'X es singular y en consecuencia no podríamos obtener el estimador MCO.

De manera que en virtud de lo visto anteriormente tenemos:

De manera que:

Multicolinealidad aproximada[editar]

Afirmamos que hay colinealidad aproximada, cuando una o más variables, no son exactamente una combinación lineal de la otra, pero existe un coeficiente de determinación entre estas variables muy cercano al uno y por lo tanto:

Efectos y soluciones de la colinealidad aproximada[editar]

El efecto de la multicolinealidad es el aumento de las varianzas de los estimadores de los coeficientes de regresión debido a :

y al ser la Varianza de las perturbaciones:

Debido a esto y dado que para realizar el análisis estructural se necesita la varianza de los estimadores y al ser un componente de esta la inversa de |X'X| la convierte muy elevada, y en consecuencia las estimaciones son poco precisas y afecta negativamente al análisis estructural.

Otro efecto son que tenemos unas estimaciones sensibles a la muestra. Puesto que la función objetivo (suma de cuadrados de residuos) es muy plana en el entorno del óptimo, de modo que pequeños cambios en los valores de y o de X pueden dar lugar a cambios importantes en las estimaciones.

Detección de la colinealidad[editar]

Método del factor de inflación de la varianza[editar]

Partimos de que:

De manera que podemos hacer un contraste de hipótesis, para ver si hay o no colinealidad para la i-ésima variable, habrá colinealidad cuando:

Siendo el cuantil de la distribución F de Snedecor con k - 2 y n – k + 1 grados de libertad.

Por este método analizamos la colinealidad que produce una determinada variable explicativa.

Autovalores y número de condición de |X'X|[editar]

Partimos de que:

Siendo:

i-ésimo autovalor de la matriz. Por tanto, podemos reducir el diagnóstico a comprobar si la matriz tiene algún autovalor próximo a cero.

De manera que en función del número de condición tenemos:

Por este método analizamos la colinealidad que producen todas las variables explicativas del modelo en su conjunto.

Método del determinante en la matriz de correlación de exógenas[editar]

En supuesto que no hay multicolinealidad fuerte, la matriz de correlación tiende a la matriz identidad, por lo cual su determinante tiende a la unidad.

Caso contrario, cuando hay multicolinealidad, la matriz de correlación dista de ser la identidad, y la determinante estará cercana a cero; entonces bajo esta situación se dice que hay indicios de multicolinealidad.

Solución de la colinealidad[editar]

  • Aumentar el tamaño muestral puede reducir un problema de colinealidad aproximada.
  • Si se suprimen variables que están correlacionadas con otras, la pérdida de capacidad explicativa será pequeña y la colinealidad se reducirá.
  • Trabajar con las series logaritmizadas.
  • Utilizar datos de corte transversal.
  • Desestacionalizar las series y quitarles la tendencia.

Referencias[editar]

  1. «Multicolinealidad». Consultado el 25 de febrero de 2020. 
  2. «El Concepto de Multicolinealidad». Consultado el 25 de febrero de 2020. 
  3. «Multicolinealidad». Consultado el 25 de febrero de 2020.