Impacto y Detección de la Multicolinealidad en Modelos de Regresión

Enviado por Programa Chuletas y clasificado en Matemáticas

Escrito el en español con un tamaño de 5,22 KB

Multicolinealidad

Definición: Relación lineal entre variables explicativas.

Tipos de Multicolinealidad

  • Multicolinealidad (MCL) perfecta: La relación entre variables explicativas es exacta. Se incumple una de las hipótesis de partida.
  • Multicolinealidad (MCL) de grado: Relación lineal aproximada.

Notas destacables

  • Es un problema de la muestra y no de la población.
  • La multicolinealidad tiene consecuencias cuando el modelo tiene una finalidad explicativa, no predictiva.

Consecuencias

Multicolinealidad Perfecta

(Relación lineal exacta entre variables explicativas): La matriz de datos X contiene una columna que es combinación lineal exacta de otras u otras; su rango, por tanto, es inferior a k (número de variables explicativas incluido el regresor ficticio). En consecuencia, no existe la inversa de X’X y es imposible la estimación individual de los parámetros (sí sería posible obtener una función estimable, es decir, la obtención de un valor para una combinación de varios coeficientes).

Multicolinealidad de Grado

(Relación lineal aproximada entre variables explicativas):

  • Teóricas: Ninguna (Los estimadores MCO son insesgados, consistentes y eficientes).
  • Prácticas: Grandes varianzas estimadas, lo que provoca:
    • Intervalos de confianza amplios (mayor probabilidad de aceptar la hipótesis nula de parámetros no significativos).
    • El modelo en conjunto suele ser significativo, pero no la mayoría de parámetros individualmente (Contradicción entre test F y test t).
    • Dificultad en la interpretación de los parámetros.

Detección de la Multicolinealidad

Detección a través de sus consecuencias (signos contrarios a los esperados; elevados errores estándar; R² elevado y pocas t significativas).

Este procedimiento consiste en detectar la multicolinealidad a través de sus propias consecuencias, es decir, cuando aparece una contradicción que consiste en obtener un modelo con un R² elevado (indicativo de un buen ajuste) y un estadístico F que muestre la validez del modelo en conjunto, y en cambio pocos o ningunos coeficientes significativos (indicativo de que no hay variables relevantes o la mayoría son irrelevantes). Esta situación se produce en presencia de multicolinealidad. Los coeficientes estimados presentan elevadas varianzas, lo que incide en la significación individual. Es decir, aparecerán varios coeficientes no significativos, no porque realmente sean no significativos, sino porque los estadísticos “t” tenderán a 0, lo que conducirá a aceptar la hipótesis de no significatividad individual de los parámetros.

Matriz de correlaciones (coeficiente de correlación simple)

Se trata de calcular coeficientes de correlación simple entre pares de variables explicativas. Si se obtienen elevados valores para estos coeficientes (próximos a 1 o -1), puede afirmarse casi con toda seguridad que hay un problema de multicolinealidad. Sin embargo, obtener altos coeficientes de correlación es una condición suficiente, pero no necesaria para que exista multicolinealidad; ello quiere decir que si se presentan coeficientes bajos (por ejemplo, menores a 0.5) no se puede afirmar nada acerca de la multicolinealidad y habrá que acudir a otras medidas.

Regresiones parciales (separadas)

Consiste en plantear tantas regresiones como variables explicativas estemos considerando. Cada regresión parcial se construye con la endógena y una sola de las variables explicativas. Si cuando se incluyen de forma conjunta las variables en el modelo estas presentan coeficientes no significativos, y en cambio cuando se incluyen individualmente presentan coeficientes significativos, esta situación contradictoria es típica de la presencia de la multicolinealidad.

Regresiones auxiliares

La multicolinealidad puede ser un problema grave si el R² de una regresión auxiliar es mayor que el R² global. Consiste en regresar todas las explicativas utilizando como endógena aquella que supuestamente provoca la multicolinealidad.

Factor de agrandamiento (o inflación) de la varianza y número de condición

El factor de inflación de la varianza (VIF) y el número de condición son herramientas adicionales para evaluar la severidad del problema de la multicolinealidad en la estimación de parámetros.

Entradas relacionadas: