Diagnóstico y Validación de Modelos de Regresión: Conceptos Clave en Econometría
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en
español con un tamaño de 6,26 KB
Conceptos Fundamentales en el Diagnóstico de Modelos de Regresión
Este documento recopila y clarifica términos esenciales para el diagnóstico y la validación de modelos de regresión, abordando desde los supuestos clásicos hasta la evaluación de la bondad de ajuste y la significatividad de los parámetros.
1. Pruebas de Especificación y Supuestos Clásicos
1.1. Test RESET (Ramsey Regression Equation Specification Error Test)
- El test RESET evalúa la correcta especificación de la forma funcional del modelo.
1.2. Normalidad de los Errores
- Los errores del modelo deben seguir una distribución normal.
1.3. Homocedasticidad
- Se asume homocedasticidad, es decir, que la varianza de los errores es constante. La ausencia de este supuesto se conoce como heterocedasticidad.
1.4. Ausencia de Autocorrelación
- Autocorrelación: Se refiere a la correlación entre los errores en diferentes momentos o para diferentes observaciones. Se busca la ausencia de autocorrelación hasta un orden específico (ej. orden 3).
- Test de Durbin-Watson: Detecta autocorrelación positiva. Valores cercanos a 0 en el estadístico de Durbin-Watson indican autocorrelación positiva.
- Test de Ljung-Box (Portmanteau): Evalúa la ausencia de autocorrelación hasta un orden determinado (ej. orden 12).
2. Multicolinealidad
La multicolinealidad ocurre cuando las variables explicativas de un modelo están altamente correlacionadas entre sí, lo que puede afectar la fiabilidad de los estimadores.
- Detección: Se considera la existencia de multicolinealidad si el VIF (Factor de Inflación de la Varianza) es superior a 5 o 10.
- Efectos: Aumenta las varianzas de los estimadores, haciendo que los contrastes t y F no sean fiables.
- Cálculo del VIF: VIF = 1 / (1 - R²), donde R² es el coeficiente de determinación de la regresión de una variable explicativa sobre las demás.
- Índice de Condición: Calculado como la raíz cuadrada del cociente entre el autovalor máximo y el mínimo de la matriz de diseño. Un valor superior a 30 indica colinealidad grave.
3. Evaluación de Coeficientes y Errores
3.1. Significatividad de los Coeficientes (p-valor)
- Para evaluar la significatividad individual de los coeficientes, se utiliza el p-valor asociado al estadístico t.
- Si el p-valor es menor que 0.05 (p < 0.05), el coeficiente se considera estadísticamente significativo.
- Si el p-valor es mayor que 0.05 (p > 0.05), el coeficiente no es significativo.
3.2. Cálculo del Estadístico t
- El valor t se calcula como el coeficiente estimado dividido por su error estándar.
3.3. Errores Estándar Robustos
- Se utilizan para corregir problemas de heterocedasticidad y/o autocorrelación en los errores, proporcionando estimaciones más fiables de la varianza de los coeficientes.
3.4. Modelo U2
- Se puede utilizar un modelo específico (ej. U2) para evitar que los errores se compensen entre sí.
3.5. Condiciones en Coeficientes
- Si se cumplen simultáneamente dos condiciones sobre los coeficientes del modelo, los datos no contradicen la hipótesis planteada.
4. Medidas de Bondad de Ajuste y Comparación de Modelos
4.1. Coeficiente de Determinación (R²)
- Mide la proporción de la varianza de la variable dependiente que es explicada por el modelo.
- Fórmulas: R² = SR / ST o R² = 1 - (SE / ST).
4.2. Estadístico F
- Evalúa la significatividad global del modelo de regresión.
- Fórmula: F = (R² / (k-1)) / ((1-R²) / (n-k)), donde k es el número de parámetros y n el número de observaciones.
- Relación derivada: R² = ((k-1) / (n-k)) * F.
4.3. Descomposición de la Varianza
- ST (Suma Total de Cuadrados): Variabilidad total de la variable dependiente antes de la regresión.
- SR (Suma de Cuadrados de la Regresión): Variabilidad explicada por el modelo.
- SE (Suma de Cuadrados de los Errores): Variabilidad no explicada por el modelo (cuánto se equivoca el modelo al predecir).
- Relación: ST = SR + SE.
4.4. Suma de Residuos
- La suma de los residuos es cero si el modelo de regresión incluye una constante, ya que esta permite que los errores se equilibren.
4.5. Criterios de Información
- El Error Estándar de la Regresión (SER) y el Criterio de Información de Akaike (AIC) son utilizados para comparar y seleccionar entre diferentes modelos, favoreciendo aquellos con mejor ajuste y menor complejidad.
5. Estimación de la Varianza del Error
- Mínimos Cuadrados Ordinarios (MCO): La varianza estimada del error (σ²) es SR / (n-k).
- Máxima Verosimilitud: La varianza estimada del error (σ²) es SR / N. Estos estimadores no coinciden, pero son asintóticamente equivalentes bajo el supuesto de normalidad.
6. Pronóstico y Errores de Predicción
6.1. Cálculo del Error de Pronóstico
- El error de pronóstico se calcula como la diferencia entre el valor real y el pronosticado (ej. Error = Y_actual - Y_pronosticado). Un ejemplo específico es (Yt+1 - Yt-1).
6.2. Significatividad de los Errores
- Si el valor absoluto del estadístico t (calculado como Error / Error Estándar) es menor que un valor crítico t, los errores no son significativos.
6.3. Intervalo de Confianza para el Pronóstico (IC)
- El Intervalo de Confianza para un pronóstico se calcula como: Pronóstico ± 1.96 * Error Estándar (para un nivel de confianza del 95%).
7. Conceptos Adicionales
7.1. Análisis de Puntos Críticos (SAT)
- Para analizar puntos críticos o de inflexión (ej. en un test de estabilidad o de cambio estructural), se puede derivar una función (ej. sube²) y sustituir en la ecuación, igualando a cero para encontrar los valores relevantes.