Predicciones y Errores en Modelos de Regresión: Conceptos y Soluciones

Enviado por Programa Chuletas y clasificado en Matemáticas

Escrito el en español con un tamaño de 7,59 KB

Predicciones en Modelos de Regresión

Las predicciones consisten en obtener estimaciones relativas a los cambios experimentados por ciertas variables (endógenas) dada información adicional sobre el comportamiento de otras variables.

Tipos de Predicciones

  • Ex-Ante: Se conocen con certidumbre las observaciones de las variables explicativas (datos existentes).
  • Ex-Post: Utiliza variables explicativas que pueden ser o no conocidas.

Predicción Puntual

Está dada por Yf = β0 + β1x1 + β2x2 + ... + βkXkYf = c´β → predictor óptimo de E(Yf) donde (F)c´ = [1 X1 X2 X3 ... Xkf]

Violación de Supuestos en Modelos de Regresión

¿Cómo saber si se ha violado algún supuesto?

  • Analizar los errores (deben ser ruido blanco o no correlacionados).
  • Los parámetros estimados se alejan de los valores esperados, pueden ser sensibles ante cualquier cambio.
  • Contradicciones en los test T y F.
  • Baja capacidad de predicción.

Errores de Especificación

Y = xβ + μ → Tres problemas:

  • Omisión de variables.
  • Inclusión de variables explicativas irrelevantes.
  • Error en la especificación matemática funcional.

Omisión de Variables

Y = Xβ + μ con E(uu) = δ2 donde X* omite alguna variable explicativa relevante →

Los estimadores de los coeficientes serán sesgados y el sesgo es una combinación lineal de los verdaderos coeficientes de las variables excluidas (β1 ... βk).

Sesgo(βMCO) = (coeficiente de la variable excluida) * (coeficiente de regresión de la regresión de las excluidas sobre la incluida)

Mala Especificación en la Forma Funcional

Esto ocurre cuando un modelo de regresión no representa adecuadamente la relación funcional entre la variable dependiente y las independientes.

Se sabe que X es la matriz de observaciones correspondientes a las variables independientes del modelo, pero puede suceder que haya omisión de variables relevantes con términos cuadráticos, transformación logarítmica mal empleada u omisión de interacción con variables binarias.

Test de Ramsey

Permite evaluar variables omitidas, forma funcional incorrecta, correlación entre X y μ. Bajo estos errores de especificación, los estimadores β serán sesgados e inconsistentes, por lo que el procedimiento de inferencia no es válido.

Problema de Autocorrelación

En el modelo Y = Xβ + μ → E(u) = 0; E(u) = σ2 → i) Var(u) = σ2 → homocedasticidad ii) Cov(uu) = 0 → no autocorrelación. Asumiendo que Mvc(u) = σ2, es decir, no correlación serial de los errores, el estimador MCO es eficiente, tiene menor varianza en la clase de estimadores lineales insesgados. Autocorrelación de orden 1 → μt = ρμt-1 + εt, esto quiere decir que E(uu´) = σ2, cuando no hay correlación, alguno es diferente de cero.

Posibles Causas de Autocorrelación

  • Por lo general, se presenta cuando se emplean muestras de series de tiempo.
  • Error de especificación (omisión de variables relevantes).
  • Inercia en el comportamiento.
  • Autocorrelación debido a error de especificación (Greener).

Consecuencias de la Autocorrelación

  • El estimador MCO continúa siendo insesgado y consistente.
  • El estimador MCO es ineficiente (no tiene varianza mínima).

Pruebas para Detectar el Problema de Autocorrelación

  • Test de Durbin-Watson: Válido solo para AR(1). H0 = no autocorrelación (ρ = 0). H1 = autocorrelación de orden 1. No es válido en modelos autorregresivos. No es válido si el modelo no incluye intercepto.
  • Test de Breusch-Godfrey: H0 = no autocorrelación de orden p. H1 = autocorrelación de orden p.

Heterocedasticidad

En el modelo Y = Xβ + μ → se asume que Mvc(u) = E(uu) = σ2. El estimador MCO es eficiente, tiene menor varianza en la clase de estimadores lineales insesgados. Cuando no se cumple este supuesto, se tiene el problema de heterocedasticidad, es decir, Var(u/x) = σi2, la varianza no es constante.

Posibles Causas de Heterocedasticidad

  • Por lo general, se presenta cuando se emplean muestras de corte transversal.
  • Omisión de variables relevantes.

Consecuencias de la Heterocedasticidad

La que falla es la varianza. El estimador MCO continúa siendo insesgado y consistente, pero es ineficiente en términos de varianza asintótica.

Pruebas para Detectar Heterocedasticidad

  • Test de Goldfeld-Quandt: H0 = homocedasticidad (σ12 = σ22); H1 = heterocedasticidad con varianza creciente. Si FFtabla, se acepta la hipótesis nula.
  • Test de White: Si nR2X2 al 5%, se acepta la hipótesis nula (homocedasticidad); de lo contrario (heterocedasticidad), p-value ≥ 0.05, se acepta la hipótesis nula.

Multicolinealidad

Y = Xβ + μ. Sobre los regresores (X´s) se asume que: X es una matriz de valores fijos independientes de μ. Rango lleno de la matriz X (no hay relación lineal exacta entre X´s). No colinealidad exacta entre 2 variables X´s. No multicolinealidad exacta entre varias X´s. Este problema surge cuando los regresores de un modelo econométrico presentan un grado de correlación lineal que es difícil de identificar. Es un problema muestral.

Causas de la Multicolinealidad

  • Tendencias comunes.
  • Modelos de rezago distribuidos.
  • Algunas variables explicativas varían juntas porque los datos en la muestra no fueron recopilados de una base suficientemente amplia.

Multicolinealidad Perfecta

i) No se puede estimar β debido a que det(X´X) = 0. ii) Var(β) = σ2(X´X)-1 = infinito.

Multicolinealidad Severa

i) Mayor sensibilidad de los coeficientes a pequeñas variaciones en la data. La presencia de la multicolinealidad se puede evidenciar cuando: → Los signos estimados no son los esperados. → Los estadísticos T no son significativos a pesar de un F o R2 alto. → Los resultados de la regresión cambian de manera importante cuando una variable explicativa se elimina.

Soluciones a la Multicolinealidad

  • Aumentar el tamaño de la muestra (n).
  • Omitir la variable colineal.
  • Información a priori.
  • No hacer nada.

Entradas relacionadas: