Fundamentos y Diagnóstico en Modelos de Regresión Múltiple

Enviado por Chuletator online y clasificado en Matemáticas

Escrito el en español con un tamaño de 4,43 KB

Conceptos Fundamentales en Modelos de Regresión

1. Multicolinealidad y Varianza

Si existe una fuerte correlación entre las variables explicativas de un modelo de regresión múltiple, esto implica que las varianzas de los parámetros estimados son muy altas.

Verdadero. Una fuerte correlación entre las variables independientes (X) aumenta la varianza de los estimadores, V(β̂). Considerando el modelo Y = β₀ + β₁x₁ + β₂x₂ + U, la varianza se define como:

V(β̂₁) = σ² / [Σx₁²(1 - r₁₂²)]

2. Sesgo de Especificación y Test RESET

Para analizar si un modelo de regresión presenta sesgo de especificación, debo estimar un modelo de variables dicotómicas, considerando un quiebre donde creo que está el sesgo.

Falso. Se debe aplicar un test RESET. El uso de variables dummy para medir un quiebre estructural no guarda relación directa con la detección de sesgo de especificación.

3. Precisión en la Predicción

Usando un modelo de regresión, mientras más nos alejemos del valor medio de la variable X para realizar una predicción de la media del valor de Y, más malo será el pronóstico.

Falso. El intervalo de confianza de un pronóstico de E(Y|X) está dado por V(ŷ₀), donde V(ŷ₀) = σ²[1/n + (x₀ - x̄)² / Σ(xᵢ - x̄)²]. Si bien es cierto que a medida que x₀ se aleja de la media , la varianza aumenta y el intervalo de confianza se vuelve más impreciso, esto no implica necesariamente que el pronóstico sea "malo".

4. Heterocedasticidad e Inferencia

La heterocedasticidad hace que los betas sean más imprecisos.

Falso. La heterocedasticidad provoca que los β̂ pierdan la propiedad de varianza mínima y, por ende, la propiedad MELI (Mejor Estimador Lineal Insesgado). Esta situación invalida la inferencia estadística de los parámetros.

5. El Rol del Término de Error

El análisis de regresión es útil ya que permite medir la contribución del término de error sobre el valor de la variable explicada.

Falso. El análisis de regresión estima el valor medio de la población de la variable dependiente (Y) a partir de variables independientes (X) fijas en el muestreo.

6. Supuesto de Normalidad

La importancia del supuesto de normalidad de los errores en un modelo econométrico me permite realizar inferencia estadística de los parámetros estimados.

Falso. La normalidad de u permite definir una distribución específica a los parámetros estimados, lo que facilita la realización de inferencia estadística sobre los parámetros poblacionales.

7. Inferencia: Test t vs. Test Fisher

Para realizar inferencia estadística de los parámetros poblacionales en un modelo de regresión múltiple se necesita conocer los t-student de los parámetros estimados individuales.

Incierto. Si la inferencia es sobre los β individuales, se utiliza el test t-student. Sin embargo, si la inferencia involucra más de un parámetro (igualdad de parámetros, significancia global, restricciones lineales o contribución marginal conjunta), se debe emplear el test Fisher (F).

8. Problemas y Soluciones ante la Heterocedasticidad

¿Cuáles son los problemas en una estimación econométrica cuando existe heterocedasticidad?

Las estimaciones habituales de las desviaciones estándar (SD) de los parámetros β, calculadas a partir de MCO (Mínimos Cuadrados Ordinarios), no están sesgadas pero son inconsistentes. La varianza no es mínima y los estimadores MCO dejan de ser eficientes.

¿Cómo se resolvería la presencia de heterocedasticidad en una estimación?

Si se conoce el patrón de heterocedasticidad, se resuelve mediante Mínimos Cuadrados Generalizados (MCG). Si el patrón es desconocido, se asume uno, se ajusta la regresión para aplicar MCG y posteriormente se evalúa la matriz de varianzas y covarianzas.

Entradas relacionadas: