Supuestos Fundamentales del Modelo de Regresión Lineal Clásico
Enviado por Programa Chuletas y clasificado en Matemáticas
Escrito el en español con un tamaño de 6,12 KB
Supuestos del Modelo de Regresión Lineal Clásico (MRLC)
El Modelo de Regresión Lineal Clásico (MRLC) se basa en una serie de supuestos fundamentales que garantizan que los estimadores obtenidos por Mínimos Cuadrados Ordinarios (MCO) posean propiedades deseables, como insesgadez, eficiencia y consistencia (bajo ciertas condiciones adicionales).
1. Valor Esperado de los Errores es Cero
El primer supuesto establece que el valor esperado de los términos de error (residuos) es cero para cada observación. Matemáticamente, esto se expresa como $E[\varepsilon_i] = 0$ para todo $i$. Esto implica que, en promedio, los errores no son sistemáticamente positivos ni negativos. Los errores ($\varepsilon_i$) son considerados variables aleatorias que representan la parte de la variable dependiente que no es explicada por los regresores incluidos en el modelo.
2. Homocedasticidad
El supuesto de homocedasticidad implica que la varianza de los términos de error es constante para todas las observaciones. Es decir, la dispersión de los errores alrededor de la recta de regresión es la misma a lo largo de todo el rango de los valores de los regresores. Matemáticamente, se formula como $Var(\varepsilon_i) = \sigma^2$ para todo $i$, donde $\sigma^2$ es una constante finita y positiva. Si este supuesto no se cumple, se presenta heterocedasticidad, donde la varianza de los errores varía entre observaciones. La presencia de heterocedasticidad no sesga los estimadores de MCO, pero sí los hace ineficientes y invalida los cálculos estándar de los errores estándar, afectando la inferencia estadística (tests t y F).
3. Ausencia de Autocorrelación
El supuesto de ausencia de autocorrelación (o correlación serial) establece que los términos de error de diferentes observaciones no están correlacionados entre sí. Matemáticamente, $Cov(\varepsilon_i, \varepsilon_j) = 0$ para todo $i \neq j$. Esto significa que el error en una observación particular no proporciona información sobre el error en otra observación. La presencia de autocorrelación a menudo indica un error de especificación del modelo, como la omisión de variables relevantes o el uso de una forma funcional incorrecta, especialmente en series temporales. Al igual que la heterocedasticidad, la autocorrelación no sesga los estimadores de MCO, pero los hace ineficientes e invalida la inferencia estadística estándar.
4. Ausencia de Multicolinealidad Perfecta
El supuesto de ausencia de multicolinealidad perfecta establece que no existe una relación lineal exacta entre dos o más regresores en el modelo. Es decir, ningún regresor puede ser expresado como una combinación lineal exacta de otros regresores. Matemáticamente, esto implica que la matriz de datos de los regresores ($X$) tiene rango columna completo, lo que asegura que la matriz $X'X$ sea no singular (invertible). La multicolinealidad perfecta hace que los estimadores de MCO sean imposibles de calcular. La multicolinealidad aproximada (alta correlación pero no perfecta) es común y, aunque permite calcular los estimadores, aumenta su varianza, lo que lleva a:
- Estimadores menos precisos (mayor dispersión).
- Errores estándar grandes.
- Estadísticos t pequeños, dificultando la declaración de significancia estadística individual de los regresores afectados.
Detección de Multicolinealidad:
- Análisis de la matriz de correlación entre regresores (valores cercanos a 1 o -1).
- Cálculo del Factor de Inflación de la Varianza (FIV).
- Determinante de la matriz $X'X$ cercano a cero (en caso de multicolinealidad aproximada).
Posibles Soluciones (para multicolinealidad aproximada):
- Aumentar el tamaño muestral (si es posible).
- Eliminar una de las variables altamente correlacionadas (si la pérdida de información es mínima).
- Transformar las variables (ej. logaritmos, diferencias).
- Utilizar datos de corte transversal en lugar de series temporales (si aplica).
- Desestacionalizar o quitar tendencia a las series temporales.
5. Regresores No Estocásticos (o Exogeneidad Estricta)
Este supuesto, en su forma más estricta (exogeneidad estricta), establece que los regresores ($X$) son fijos en muestreo repetido o, de manera equivalente, que los regresores son independientes de los términos de error para todas las observaciones. Matemáticamente, $E[\varepsilon_i | X] = 0$ para todo $i$, lo que implica $Cov(X, \varepsilon) = 0$. Este es un supuesto crucial para la insesgadez de los estimadores de MCO. Si los regresores están correlacionados con el término de error ($Cov(X, \varepsilon) \neq 0$), los estimadores de MCO serán sesgados e inconsistentes. Esto puede ocurrir en presencia de:
- Variables omitidas que están correlacionadas tanto con el regresor incluido como con la variable dependiente.
- Endogeneidad (cuando la variable dependiente influye en el regresor, o hay causalidad bidireccional).
- Errores de medición en los regresores.
La derivación de $\beta$ bajo MCO asume $Cov(x, \varepsilon) = 0$. Si $Cov(x, \varepsilon) = \gamma \neq 0$, el estimador de MCO $\hat{\beta} = \frac{Cov(x,y)}{Var(x)}$ en realidad estima $\beta + \frac{\gamma}{Var(x)}$. Por lo tanto, $\hat{\beta}$ está sesgado por el término $\frac{\gamma}{Var(x)}$. La magnitud del sesgo depende de la covarianza entre el regresor y el error ($\gamma$) y de la varianza del regresor ($Var(x)$).
El cumplimiento de estos supuestos es fundamental para la validez de la inferencia estadística en el modelo de regresión lineal estimado por MCO.