Conceptos Fundamentales de Regresión Lineal y Correlación Estadística
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 3,82 KB
Correlación de Spearman
El coeficiente de Spearman es un estimador no paramétrico de la correlación entre dos variables medidas en una escala al menos ordinal. En la mayoría de los casos, se utiliza cuando las variables son de tipo ordinal o cuando no cumplen el supuesto de normalidad. La interpretación del valor de este coeficiente es similar al de Pearson, ya que también toma valores entre -1 y 1.
Regresión Lineal Simple
La Regresión Lineal Simple tiene como propósito predecir o estimar una variable, llamada respuesta o dependiente, a partir de otra variable llamada predictora, explicativa o independiente, mediante la utilización de un modelo matemático.
Modelo Estadístico
El modelo estadístico se expresa como:
Yi = β0 + β1Xi + εi
Donde:
Yi
es la variable dependiente.Xi
es la variable independiente.β0
yβ1
son parámetros desconocidos (llamados intercepto y coeficiente de regresión, respectivamente).εi
son los errores del modelo, los cuales se suponen independientes y normalmente distribuidos con media cero y varianzaσ2
, esto es,εi ~ N(0, σ2)
.
Estimación de Parámetros: Mínimos Cuadrados Ordinarios (MCO)
Los parámetros del modelo β0
y β1
son estimados por el método de Mínimos Cuadrados Ordinarios (MCO). Este método permite obtener los valores estimados b0
y b1
de modo que la suma de los errores al cuadrado sea mínima.
Supuestos del Análisis de Regresión Lineal Simple
- Para cada valor de
X
, existe una distribución normal de la variableY
. - El error tiene distribución normal con media 0 y varianza constante
σ2
, lo cual se puede expresar de la siguiente forma:εi ~ N(0, σ2)
. Esta expresión indica que no existe dependencia o correlación entre las observaciones y tampoco existe relación de los valores deεi
con los valores deXi
(Homocedasticidad).
Análisis de Varianza (ANOVA)
Cuando se obtiene la ecuación de regresión, todavía no se puede afirmar estadísticamente que exista una dependencia lineal de la variable Y
respecto a la variable X
. Por lo tanto, es necesario proceder con una prueba de hipótesis de la pendiente de la ecuación de regresión (β1
), y esto se logra utilizando un procedimiento matemático conocido como el Análisis de Varianza (ANOVA). El ANOVA permite evaluar si existe dependencia lineal o no de la variable dependiente (Y
) respecto a la variable independiente (X
).
Cuadro de Análisis de Varianza (Cuadro ANOVA)
El ANOVA descompone los efectos de la variabilidad de la variable dependiente Y
en dos efectos:
- Efecto debido a la Regresión
- Efecto debido al Residual
La variabilidad de estos dos efectos es comparada mediante una prueba de hipótesis con la distribución F
para evaluar cuál variabilidad es más importante en el modelo de regresión: el efecto de regresión o el efecto del residual o error. Si el efecto de Regresión es más importante, se rechazaría la Hipótesis Nula; caso contrario, no se rechazaría.