Descomposición de la Varianza en Modelos de Regresión Lineal
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en
español con un tamaño de 16,44 KB
Descomposición de la Varianza de Y
Como podemos observar, la varianza de Y (1) se presenta desglosada en dos términos fundamentales:
1. La Varianza Residual (2)
Consiste en las variaciones que experimentan las observaciones o puntos del diagrama en torno a las rectas de regresión. Esta parte aleatoria de la varianza de Y es la que no puede ser interpretada en términos de las rectas de ajuste.
2. La Varianza Sistemática o Explicada (3)
Explica las variaciones de Y respecto a su media a partir de las rectas de regresión. Es la parte de la varianza que el modelo puede explicar a través del ajuste estadístico.
Casos Típicos del Coeficiente de Determinación
El coeficiente r² nos permite medir qué porcentaje de la varianza de la variable Y es explicado en términos del modelo de regresión:
- Si r = 0: Se representa como una recta horizontal en la media de Y. En este escenario, la Varianza Total = Varianza Residual. El modelo no explica nada; no hay ningún punto que pueda ser descrito por el modelo, resultando en una mayor dispersión.
- Si r = -/+ 1: Todos los puntos están alineados sobre la recta, ya que r² será igual a 1. La sumatoria de los residuos es cero porque la nube de puntos y la recta coinciden; por lo tanto, la Varianza Total = Varianza Explicada. Toda la variación que sufre la variable Y es explicada por el componente del modelo, es decir, por la recta de ajuste.
En los casos intermedios, existe un porcentaje explicado por el modelo y una parte que permanece como residual.
Relación entre el Coeficiente de Correlación y el Ángulo de las Rectas
A mayor coeficiente angular, menor es la correlación entre las variables:
- Si el coeficiente angular es de 90°, existe una correlación de 0; la tangente de la diferencia de ángulos tiende al infinito.
- Si las rectas están solapadas, el coeficiente angular es de 0° y la correlación es perfecta (o tiende a 1). La tangente de la diferencia de ángulos es 0.
Cualquier coeficiente angular intermedio situaría la correlación en el rango entre -1 y 1.
Pronóstico de Fidelidad y Estimación
El estudio de regresión persigue dos objetivos principales:
1. Estimación
Consiste en estimar los coeficientes de regresión. Estos pueden considerarse como elasticidades o como la reacción promedio de la variable dependiente ante cambios unitarios de la explicativa. Esto resulta de gran utilidad para evaluar cuestiones de impacto, permitiendo determinar los valores de "a" y "b" (el denominado problema de la estimación).
2. Predicción
Su fin es realizar pronósticos, proyectando el valor de la variable dependiente atendiendo a un determinado valor que asume la explicativa. Es una técnica puntual y no probabilística: el pronóstico arroja un valor específico para la variable dependiente y no un rango de variación.
Diferencia entre Pronosticar y Extrapolar
Es fundamental pronosticar valores de Y que se encuentren dentro del rango de variación de la tabla de datos original. La recta de regresión es útil para hacer pronósticos dentro del rango de valores que toma la serie y no fuera de esta, para evitar la extrapolación de resultados, la cual no es su finalidad principal.
Fidelidad de las Estimaciones
Consiste en analizar si, para un valor determinado de X, la nube de puntos podría distribuirse de forma normal alrededor de la recta de regresión.