Conceptos Fundamentales y Problemas Comunes en Modelos Econométricos
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 9,07 KB
Heterocedasticidad
La heterocedasticidad se presenta cuando la varianza del término de error de un modelo de regresión es cambiante. Esto significa que la varianza del error está relacionada con una o más variables explicativas, ya sea en su forma de nivel, cuadrática o como interacción entre dos variables explicativas. Su presencia debilita la prueba de hipótesis al incrementar o disminuir la varianza de los coeficientes estimados. La varianza disminuye siempre que se incluyan variables que tengan relación con la experiencia a través del tiempo, pero no hay certeza de que se estén probando las hipótesis correctas.
Fórmula específica para la varianza del estimador:
var (b¨)= + x2 Ge2/(+(xi-x*)2)2
Prueba de White
La Prueba de White es un método común para detectar la heterocedasticidad. Sus hipótesis son:
- H₀: El error es homocedástico (varianza constante).
- H₁: El error es heterocedástico (varianza no constante).
Los pasos para realizar la prueba son:
- Estimar el modelo original:
Yᵢ = β₀ + β₁X₁ᵢ + β₂X₂ᵢ + εᵢ
- Obtener la serie de errores al cuadrado: Calcular los residuos (ε̂ᵢ = Yᵢ - Ŷᵢ) y luego elevarlos al cuadrado (ε̂ᵢ²).
- Estimar el modelo auxiliar: Regresar los errores al cuadrado sobre las variables explicativas originales, sus cuadrados y sus productos cruzados. Se busca identificar cuál de las variables explicativas (X) influye en la varianza del error.
ε̂ᵢ² = α₀ + α₁X₁ᵢ + α₂X₂ᵢ + α₃X₁ᵢ² + α₄X₂ᵢ² + α₅X₁ᵢX₂ᵢ + vᵢ
- Obtener el R² del modelo auxiliar.
- Estimar el estadístico de prueba: Multiplicar el tamaño de la muestra (n) por el R² del modelo auxiliar (nR²).
- Comparar con el valor crítico: El estadístico nR² se compara con un valor crítico de la distribución Chi-cuadrado (χ²) con un nivel de significancia α=5% y grados de libertad iguales al número de regresores en el modelo auxiliar (excluyendo la constante). Si nR² > χ² crítico, se rechaza H₀, indicando heterocedasticidad.
Solución: Se puede solucionar transformando todas las variables a logaritmo natural (ln) o utilizando estimadores de Mínimos Cuadrados Generalizados (MCG) o errores estándar robustos. (Consultar tabla Chi-cuadrado).
Multicolinealidad
La multicolinealidad se refiere a una relación lineal imperfecta entre dos o más variables explicativas en un modelo econométrico. Su presencia impide distinguir los efectos netos de las variables relacionadas sobre la variable endógena. Se presenta cuando las variables explicativas están conectadas entre sí, lo que dificulta aislar el impacto individual de cada una.
Características y consecuencias:
- R² altos, pero valores t bajos para los coeficientes individuales.
- Coeficientes (β) no significativos estadísticamente.
- Estimaciones de los coeficientes (β̂) son inestables y sensibles a pequeños cambios en la muestra.
Ejemplo: Si en el modelo Y = β₀ + β₁X₁ + β₂X₂ + β₃X₃ + ε, las variables X₂ y X₃ están altamente correlacionadas, es difícil identificar el efecto individual de X₂ y X₃ sobre Y. Una posible solución es eliminar una de las variables correlacionadas (e.g., X₂ o X₃) o combinarlas si tienen sentido teórico.
Autocorrelación
La autocorrelación es la correlación entre los términos de error poblacional en una regresión. Surge cuando los términos de error del modelo no son independientes entre sí. Los estimadores de Mínimos Cuadrados Ordinarios (MCO) obtenidos bajo esta circunstancia dejan de ser eficientes (no son los de menor varianza). La autocorrelación generalmente aparece en datos de series de tiempo.
Representación de un proceso autorregresivo de orden 1 (AR(1)) para los errores:
Yₜ = α + βXₜ + uₜ
Donde el término de error uₜ sigue un proceso autorregresivo:
uₜ = ρuₜ₋₁ + εₜ; para –1 < ρ < 1
Donde εₜ es un término de error de ruido blanco (independiente e idénticamente distribuido).
Problemas de Autocorrelación
Ignorar el problema de la autocorrelación conlleva a:
- Estimadores ineficientes: Aunque los estimadores MCO siguen siendo insesgados, ya no son los más eficientes.
- Invalidez de las pruebas de hipótesis usuales: Las pruebas t y F dejan de ser válidas, ya que muy probablemente arrojen conclusiones erróneas. Esto se debe a que la matriz de varianzas y covarianzas de los estimadores estará incorrecta.
Modelos Autorregresivos
Los modelos autorregresivos son aquellos cuya variable endógena también es una variable exógena rezagada. Es decir, el valor actual de la variable dependiente se explica por sus valores pasados.
Ejemplo:
Yₜ = β₀ + β₁Xᵢ + β₂Yₜ₋₁ + εᵢ
En este modelo, Yₜ₋₁ (el valor de Y en el período anterior) está relacionada con la variable endógena Yₜ.
Equilibrio a Largo Plazo en Modelos Autorregresivos
En el equilibrio a largo plazo, se asume que la variable endógena se estabiliza, es decir, Yₜ = Yₜ₋₁ = Y*.
Derivación del equilibrio:
Y* = β₀ + β₁X₁ + β₂Y*
Y* - β₂Y* = β₀ + β₁X
Y*(1 - β₂) = β₀ + β₁X
Y* = β₀/(1 - β₂) + β₁X/(1 - β₂)
Tipos de Modelos Autorregresivos y de Medias Móviles
AR(1) - Autorregresivo de Orden 1
Yₜ = βYₜ₋₁ + εₜ
AR(2) - Autorregresivo de Orden 2
Yₜ = β₁Yₜ₋₁ + β₂Yₜ₋₂ + εₜ
MA(q) - Medias Móviles de Orden q (ejemplo MA(2))
Yₜ = α₀ + α₁εₜ + α₂εₜ₋₁
Donde εₜ son los términos de error de ruido blanco.
Variables Explicativas Rezagadas
Los modelos con variables explicativas rezagadas incorporan valores pasados de las variables independientes para explicar el valor actual de la variable dependiente.
Ejemplo:
Yₜ = β₀ + β₁Xₜ + β₂Xₜ₋₁ + β₃Xₜ₋₂ + εₜ
En este tipo de modelos:
- En el corto plazo, el efecto de X sobre Y se considera solo a través de β₁ (el efecto contemporáneo).
- En el largo plazo, el efecto total es la suma de los coeficientes asociados a los rezagos (β₁ + β₂ + β₃), asumiendo que los efectos de los rezagos disminuyen con el tiempo.
El modelo se extiende hasta que los coeficientes asociados a los rezagos cambian de signo o se vuelven insignificantes. Un ejemplo clásico es la distribución del ingreso durante varios períodos, donde el ingreso actual puede depender de ingresos pasados. Este es un tipo de modelo en el cual las variables explicativas presentan rezago temporal.
Variables Dummy
Las variables dummy (o variables ficticias) se utilizan en modelos de regresión para capturar el efecto de cambios cualitativos o atributos categóricos (e.g., género, estación del año, presencia de una política). La variable dummy (D) toma dos valores: 1 cuando se presenta el fenómeno o atributo y 0 cuando no.
Los modelos de regresión que incluyen variables dummy se distinguen en:
- Modelos de Análisis de la Varianza (ANOVA): Si el modelo solo está compuesto de variables explicativas cualitativas (dummy).
Yᵢ = β₁ + β₂Dᵢ + uᵢ
- Modelos de Análisis de la Covarianza (ANCOVA): Si el modelo incluye una combinación de variables cuantitativas y cualitativas (dummy).
Yᵢ = β₁ + β₂Dᵢ + β₃Xᵢ + uᵢ
Variables de Tendencia
La tendencia es el movimiento de largo plazo en una serie temporal y describe lo que ocurre a lo largo del tiempo. Una tendencia es un movimiento persistente de largo plazo de una variable a través del tiempo. Una serie de tiempo fluctúa alrededor de su tendencia.
Existen dos clases principales de tendencias:
- Una tendencia determinística: Es una función no aleatoria del tiempo. Por ejemplo, puede ser lineal en el tiempo. Si la inflación se incrementara 0.1 de punto porcentual cada trimestre, podríamos escribir esta tendencia como 0.1t, donde t se mide en trimestres.
- Una tendencia estocástica: Es aleatoria y cambia con el tiempo. Por ejemplo, una tendencia estocástica en la inflación podría presentar incrementos por un período largo de tiempo, seguido por un período largo de reducciones.