Explorando la Estadística: Una Visión General de las Pruebas Estadísticas
Enviado por Programa Chuletas y clasificado en Matemáticas
Escrito el en español con un tamaño de 5,34 KB
Chi-cuadrado
El Chi-cuadrado es una prueba estadística utilizada para determinar si existe una relación entre dos variables categóricas. El GL (Grados de Libertad) se calcula como N-1. Para una tabla 2x2, el GL es 1. La distribución es asimétrica y no puede ser negativa. El nivel de significación es asintótico.
Condiciones para el Chi-cuadrado
- Más de 20 sujetos.
- Menos del 20% de las casillas tienen frecuencias esperadas menores a 5.
- No hay casillas con frecuencias observadas menores a 5.
Si se cumplen estas condiciones, se puede utilizar la prueba de Chi-cuadrado. Si no se cumplen, se puede utilizar la prueba de Monte Carlo o la prueba exacta.
Tamaño del Efecto
El Chi-cuadrado proporciona información sobre si existe o no una relación, pero no sobre el tamaño de la misma. Para medir el tamaño del efecto, se utilizan las siguientes medidas:
- Tablas 2x2: Phi, V de Cramer.
- Tablas IxJ: Coeficiente de contingencia.
- Diseños pre-post: Estadístico de McNemar.
El Índice de Probabilidad también indica el tamaño del efecto, calculando la estimación del riesgo de X dentro de cada grupo y entre ellos, solo para tablas 2x2.
Valores del Estadístico de McNemar
- 0.1: No relación.
- 0.5: Moderada relación.
- 1: Relación perfecta.
Covarianza
La covarianza se utiliza para comprobar si dos variables están relacionadas. Si los cambios en la media de una variable afectan a la otra, las variables covarían. Puede ser positiva (desviación de la media en la misma dirección) o negativa (desviación en dirección opuesta). Está limitada por la escala de medida y la misma unidad.
Coeficiente de Correlación de Pearson
El coeficiente de correlación de Pearson convierte la covarianza en unidades estandarizadas en función de la desviación típica. Su valor oscila entre 1 (correlación directa/positiva perfecta) y -1 (correlación indirecta/negativa perfecta).
Interpretación del Coeficiente de Correlación de Pearson
- 0: No correlación.
- 0.2 - 0.3: Baja correlación.
- 0.4 - 0.5: Moderada correlación.
- 0.6 - 0.7: Buena correlación.
- 0.8 - 0.9: Muy buena correlación.
- 1: Correlación perfecta.
Otras Medidas de Asociación
- Variable C + Cuasicu (ordinal): Coeficiente de Spearman, Coeficiente tau de Kendall, Coeficiente de Goodman-Kruskal.
- Variables C + Q (nominal): Coeficiente de correlación biserial-puntual, Coeficiente de correlación biserial, y Coeficiente de correlación tetracórica.
Regresión Lineal Simple
La regresión lineal simple se representa por la ecuación y = ax + b, donde:
- X es la variable para realizar las predicciones (independiente).
- Y es la variable sobre la que se predice (dependiente).
- B es el lugar donde la recta se cruza con el eje Y (origen).
- A es cuánto cambia el valor de Y por un incremento de X.
El criterio de los mínimos cuadrados se utiliza para encontrar la recta que minimiza la suma de cuadrados.
La regresión lineal también puede ser múltiple, con una variable dependiente y varias independientes.
Distribución T
La distribución T es simétrica y similar a la normal. Existe una distribución para cada GL. Para valores de GL mayores a 50, la distribución es similar a la normal. Con menos GL, hay más dispersión.
Supuestos de la Distribución T
- Normalidad: Kolmogorov-Smirnov o Shapiro-Wilk.
- Homocedasticidad: Prueba de Levene.
- Independencia.
ANOVA de 1 Factor
El ANOVA (Análisis de Varianza) de 1 factor se utiliza para comparar las medias de 3 o más grupos. La distribución F es asimétrica positiva y se calcula para cada tipo de varianza en función de sus GL. En diseños entre sujetos (igual que factorial), el cálculo del ratio F es MSm/MSr.
Supuestos del ANOVA
- Normalidad: Prueba de Kruskal-Wallis.
- Homocedasticidad: Prueba de Welch, Brown-Forsythe.
- Independencia: Medidas repetidas.
Pruebas Post-Hoc
Las pruebas post-hoc se utilizan después de un ANOVA para determinar qué grupos difieren significativamente. Algunas pruebas comunes son: DMS, Bonferroni, Sidak, Tukey, y Games-Howell (si no se asumen varianzas iguales, p < 0.05).
Medidas Repetidas
En medidas repetidas, el ratio F se calcula de manera similar. Los supuestos son:
- Normalidad: Prueba de Friedman.
- Esfericidad: Prueba de Mauchly. Si no se cumple, se utiliza el límite inferior, Greenhouse-Geisser o Huynh-Feldt.