Medición de Relaciones Estadísticas: Correlación y Regresión Lineal

Enviado por Chuletator online y clasificado en Matemáticas

Escrito el en español con un tamaño de 4,25 KB

Correlación:


relación q existe Entre 2 variables. El grado de correlación indica en q medida existe un patrón Claro de alguna relación en particular entre 2 variables. Tipo de Correlaciones: a) Positiva b) negativa c) sin relación.

¿Cómo se miden relaciones? La covarianza:


grado en el que 2 variables cambian a la vez.

La covarianza entre 2 variables, Sxy, nos indica si la posible relación entre 2 Variables es directa o inversa: Directa: Sxy >0 Inversa: Sxy<0 Incorreladas: Sxy =0 . El signo de la covarianza nos dice si el Aspecto de la nube de puntos es creciente o no, pero no nos dice nada sobre el Grado de relación entre las variables. Necesitamos estandarizar la covarianza Para poder comparar entre estudios y para poder saber el grado de relación.

Estandarizando la covarianza:

El coeficiente de correlación de Pearson:
Es la covarianza estandarizada. No depende de la métrica de la Variable. Se puede comparar entre variables y entre estudios.

Sólo toma Valores en [-1,1]. Las variables no correlacionan r=0. Relación lineal perfecta Entre dos variables: r=+1 o r=-1. Cuanto más cerca esté r de +1 o -1 mejor será El grado de relación lineal. ¿Cómo se interpreta? Significación: H0: La correlación entre 2 variables es cero. H1: La correlación entre 2 variables es Distinta de 0. Si p<0,05 rechazamos H0 y podemos afirmar q hay correlación Entre las variables. Supuestos de Coeficiente de Pearson:
a) Distribución de las variables es Normal b) Escala de medida: Continua (intervalo o razón; no ordinal).

¿Qué hacemos si esto no se cumple?:
Coeficiente de correlación de Spearman: rho (rs ): Test no paramétrico (no exige normalidad en las variables). Para variables ordinales (y continuas También) Interpretación = q Pearson. Coeficiente de correlación de Kendall: Tau (τ): Test no paramétrico (no exige normalidad en las variables) Preferible cuando tenemos tamaño de muestra pequeño. Interpretación = q Pearson Y Spearman.

Causalidad:
Correlación no Implica Causalidad • Podría existir otra variable • No se puede establecer Causa- efecto.

Regresión:
El análisis de regresión sirve para predecir una medida en función de otra medida (o varias). Obj: analizar un modelo q pretende explicar una variable y utilizando la info Proporcionada por los valores de otras X. Y = Variable dependiente (predicha o Explicada). X = Variable independiente (predictora o explicativa).  Tipos: Regresión simple y múltiple.

¿Cómo se explican los datos con una Regresión?:  a)Es necesario ajustar la recta q Mejor describa los datos B) El método de Mínimos Cuadrados es el método Utilizado para encontrar esa línea entre todas los posibles. Regresiónà Ŷ = b0 + b1*X + error

PASO 2: ¿Cómo de bien la recta describe Los datos?: Ajuste del modelo:
Cálculo del estadístico F y la p Asociada:  H(0) = No hay relación entre Variables. H(1) = Sí que hay relación entre variables Sí p<0.05 hay relación Entre las variables, se puede predecir una a partir de la otra.

PASO 3: ¿Cuál es la magnitud de la Relación entre las variables?
Ŷ = (b0 + b1*X) + error. Yi = Puntuación Esperada Xi= Puntuación del participante b0 = Constante (punto de intersección Entre la línea recta y la vertical de VD o resultado) b1 = Gradiente o Coeficiente de regresión. Es la inclinación de la recta. Nos da info de la Relación entre la VI (o predictora) y la VD (o resultado). Gradiente: b1:Se Interpreta igual que la correlación. H(0) : b1 = 0. H(1) : b1 ≠ 0. b1 positivo: las dos variables cambian En la misma dirección. b1 negativo: Las dos variables cambian en la dirección opuesta.

Regresión múltiple:
1. Recta que Mejor describe los datos 2. ¿Cómo de bien se ajusta a los datos? 3. ¿Cuál es la Magnitud de la relación entre las variables?


Entradas relacionadas: