Medición de Relaciones Estadísticas: Correlación y Regresión Lineal
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en
español con un tamaño de 4,25 KB
Correlación:
relación q existe
Entre 2 variables. El grado de correlación indica en q medida existe un patrón
Claro de alguna relación en particular entre 2 variables. Tipo de
Correlaciones: a) Positiva b) negativa c) sin relación.
¿Cómo se miden relaciones? La covarianza:
grado en el que 2 variables cambian a la vez.
La covarianza entre 2 variables, Sxy, nos indica si la posible relación entre 2 Variables es directa o inversa: Directa: Sxy >0 Inversa: Sxy<0 Incorreladas: Sxy =0 . El signo de la covarianza nos dice si el Aspecto de la nube de puntos es creciente o no, pero no nos dice nada sobre el Grado de relación entre las variables. Necesitamos estandarizar la covarianza Para poder comparar entre estudios y para poder saber el grado de relación.
Estandarizando la covarianza:
El coeficiente de correlación de
Pearson:
Es la covarianza estandarizada. No depende de la métrica de la
Variable. Se puede comparar entre variables y entre estudios.
Sólo toma
Valores en [-1,1]. Las variables no correlacionan r=0. Relación lineal perfecta
Entre dos variables: r=+1 o r=-1. Cuanto más cerca esté r de +1 o -1 mejor será
El grado de relación lineal. ¿Cómo se interpreta? Significación: H0: La
correlación entre 2 variables es cero. H1: La correlación entre 2 variables es
Distinta de 0. Si p<0,05 rechazamos H0 y podemos afirmar q hay correlación
Entre las variables. Supuestos de
Coeficiente de Pearson:
a) Distribución de las variables es Normal b)
Escala de medida: Continua (intervalo o razón; no ordinal).
¿Qué hacemos si esto no se cumple?:
Coeficiente de correlación de Spearman: rho (rs ): Test no paramétrico
(no exige normalidad en las variables). Para variables ordinales (y continuas
También) Interpretación = q Pearson. Coeficiente de correlación de Kendall:
Tau (τ): Test no paramétrico (no exige normalidad en las variables)
Preferible cuando tenemos tamaño de muestra pequeño. Interpretación = q Pearson
Y Spearman.
Causalidad:
Correlación no
Implica Causalidad • Podría existir otra variable • No se puede establecer
Causa- efecto.
Regresión:
El análisis de
regresión sirve para predecir una medida en función de otra medida (o varias).
Obj: analizar un modelo q pretende explicar una variable y utilizando la info
Proporcionada por los valores de otras X. Y = Variable dependiente (predicha o
Explicada). X = Variable independiente (predictora o explicativa). Tipos: Regresión simple y múltiple.
¿Cómo se explican los datos con una Regresión?: a)Es necesario ajustar la recta q Mejor describa los datos B) El método de Mínimos Cuadrados es el método Utilizado para encontrar esa línea entre todas los posibles. Regresiónà Ŷ = b0 + b1*X + error
PASO 2: ¿Cómo de bien la recta describe
Los datos?: Ajuste del modelo:
Cálculo del estadístico F y la p
Asociada: H(0) = No hay relación entre
Variables. H(1) = Sí que hay relación entre variables Sí p<0.05 hay relación
Entre las variables, se puede predecir una a partir de la otra.
PASO 3: ¿Cuál es la magnitud de la
Relación entre las variables?
Ŷ = (b0 + b1*X) + error. Yi = Puntuación
Esperada Xi= Puntuación del participante b0 = Constante (punto de intersección
Entre la línea recta y la vertical de VD o resultado) b1 = Gradiente o
Coeficiente de regresión. Es la inclinación de la recta. Nos da info de la
Relación entre la VI (o predictora) y la VD (o resultado). Gradiente: b1:Se
Interpreta igual que la correlación. H(0) : b1 = 0. H(1) : b1 ≠ 0. b1 positivo: las dos variables cambian
En la misma dirección. b1 negativo:
Las dos variables cambian en la dirección opuesta.
Regresión múltiple:
1. Recta que
Mejor describe los datos 2. ¿Cómo de bien se ajusta a los datos? 3. ¿Cuál es la
Magnitud de la relación entre las variables?