Fundamentos de Econometría: Propiedades y Desafíos del Modelo de Regresión Lineal
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 387,33 KB
Introducción al Modelo Lineal General y sus Propiedades
En el Modelo Lineal General, las perturbaciones (errores) siguen una distribución normal N(0, σ²I), y el vector de estimadores MCO (Mínimos Cuadrados Ordinarios) de los parámetros β sigue una distribución normal N(β, σ²(X'X)⁻¹). Esto ocurre porque los estimadores de los parámetros (β̂) son insesgados, lo que implica que E(uᵢ) = 0 y E(β̂) = β.
Problemas Comunes en la Regresión Lineal
Multicolinealidad
La multicolinealidad ocurre cuando dos o más variables explicativas están correlacionadas entre sí. Esto puede generar problemas en la estimación de los coeficientes.
Autocorrelación
La autocorrelación ocurre cuando los errores (uₜ) no son independientes entre sí, es decir, existe correlación entre las perturbaciones en diferentes momentos del tiempo. Las condiciones ideales para los errores son:
- E(uₜ) = 0 → Los estimadores son insesgados.
- E(uₜ²) = σ² → La varianza es constante (homocedasticidad).
- Cov(uₜ, uₜ₋₁) ≠ 0 → Indica la presencia de autocorrelación.
Para que los estimadores MCO sean insesgados, deben cumplir que E(uₜ) = 0 y E(β̂) = β. Para que sean consistentes, se requiere que lim(n→∞) β̂ = β. Y para que sean eficientes, la Var(uₜ) = σ² (es decir, la varianza de las perturbaciones debe ser constante, lo que se conoce como homocedasticidad) y no debe haber problemas de autocorrelación, porque de lo contrario no serían eficientes.
Consecuencias de la Multicolinealidad Perfecta
¿Qué problema se plantea cuando el rango de la matriz de diseño X (Rg(X)) es menor que el número de parámetros (k)? Esto significa que las variables explicativas son linealmente dependientes, lo que implica que una variable explicativa está perfectamente correlacionada con otra, resultando en multicolinealidad perfecta. Esto tiene graves consecuencias para los estimadores de mínimos cuadrados de β: para calcular los estimadores MCO, necesitamos invertir la matriz (X'X), y si el det(X'X) = 0, su inversa no existe.
Evaluación y Contraste de Hipótesis del Modelo
Bondad de Ajuste y Elasticidad
Para comprobar la fiabilidad del modelo, usamos el R² (coeficiente de determinación) para analizar la bondad de ajuste. Por ejemplo, para contrastar si la elasticidad de matriculaciones frente al PIB es unitaria, se plantea la hipótesis de que si el PIB aumenta un 1%, las matriculaciones lo hacen en una unidad.
Problema de Variable Omitida y sus Implicaciones
En un modelo, se ha omitido una variable X₃ₜ, y además, X₃ₜ = 0.6X₃ₜ₋₁. Se asume inicialmente que Cov(X₁ₜ, X₃ₜ) = Cov(X₂ₜ, X₃ₜ) = 0. Para que el término omitido (X₃ₜ) no cause sesgo, no debería estar correlacionado con las variables explicativas del modelo.