Fundamentos de Contrastes No Paramétricos: Ajuste, Independencia y Comparaciones
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 5,95 KB
Contrastes No Paramétricos
1. Contrastes de Bondad de Ajuste
Estos contrastes evalúan si una muestra de datos se ajusta a una distribución teórica específica.
1.1. Contraste de Ajuste a una Distribución Multinomial
Dada una población dividida en k categorías, se desea contrastar la siguiente hipótesis nula: H0: p1 = p1*, p2 = p2*, ..., pk = pk* (donde pi es la proporción poblacional de la categoría i y pi* es el valor teórico esperado).
Para resolver el contraste, se selecciona una muestra y se registran las frecuencias observadas en cada categoría. A continuación, se calculan las frecuencias esperadas bajo el supuesto de que la hipótesis nula H0 es cierta.
1.2. Contraste de Ajuste a una Distribución de Poisson
Se dice que una variable aleatoria X sigue una distribución de probabilidad de Poisson si su función de cuantía es P(X=k) = (e-λ * λk) / k!. Esta distribución se asocia generalmente al número de eventos que ocurren por unidad de tiempo o espacio. El contraste evalúa si los datos observados se ajustan a esta distribución.
1.3. Contraste de Bondad de Ajuste a una Normal
Consiste en contrastar estadísticamente si una variable X sigue o no una distribución de probabilidad normal. Existen diversas pruebas para este fin, como la de Kolmogorov-Smirnov o la de Shapiro-Wilk.
2. Contraste de Independencia
Pretendemos contrastar si dos características categóricas X e Y son o no independientes estadísticamente. Se parte de una tabla de contingencia (o tabla de doble entrada) que muestra las frecuencias observadas para cada combinación de categorías de las dos variables.
3. Otros Contrastes No Paramétricos
3.1. Contraste (Test) de los Signos
Este contraste se utiliza en diversas situaciones:
- Para comparar preferencias entre dos opciones (ej., dos marcas).
- Para contrastar si la mediana de una población toma un valor específico (H0: Mediana = M0).
La mediana de un conjunto de valores es aquel valor que, una vez ordenados los datos de menor a mayor, ocupa la posición central.
3.2. Contraste de Rango con Signo de Wilcoxon (Muestras Pareadas)
Se trata de un contraste para comparar dos poblaciones relacionadas (muestras pareadas) cuando no se puede suponer la distribución normal de las diferencias o cuando la variable es de tipo ordinal. Es una alternativa a la prueba t de Student para muestras pareadas.
Se consideran muestras pareadas aquellas en las que se realizan dos observaciones sobre cada individuo (o unidades emparejadas), eliminando así posibles distorsiones en el análisis. Se suele aplicar a muestras de tamaño 10 o superior.
El procedimiento general es:
- Calcular las diferencias entre los pares de observaciones.
- Ordenar los valores absolutos de las diferencias no nulas por rango. Si existen diferencias iguales en valor absoluto, se les asigna el rango medio.
- Asignar a cada rango el signo de la diferencia original.
- Calcular la suma de los rangos con signo positivo (W+) y/o la suma de los rangos con signo negativo (W-). El estadístico de prueba (T o W) se basa en estas sumas.
Si la hipótesis nula H0 (generalmente, de igualdad de medianas o distribuciones) es cierta, se espera que los rangos con signo positivo y negativo se compensen, y el estadístico tome un valor cercano al esperado bajo H0.
3.3. Contraste de Mann-Whitney-Wilcoxon (MWW) (Muestras Independientes)
En este contraste, la hipótesis nula H0 postula que dos poblaciones A y B son idénticas (o, más comúnmente, que tienen la misma mediana o distribución). Se aplica a muestras independientes (no pareadas).
Este contraste es una alternativa no paramétrica a la prueba t de Student para muestras independientes y se utiliza cuando no se puede admitir el supuesto de normalidad ni, en algunas versiones, el de homocedasticidad (igualdad de varianzas) en las poblaciones.
Para realizar este contraste:
- Se selecciona una muestra de cada población.
- Se combinan ambas muestras y se ordenan todas las observaciones de menor a mayor, asignando rangos.
- Se separan nuevamente las muestras, manteniendo los rangos asignados.
- Se suman los rangos para cada muestra (R1 y R2). El estadístico de prueba (U de Mann-Whitney) se calcula a partir de estas sumas.
- Fijándose en el estadístico calculado, se determina la zona de aceptación y rechazo utilizando las tablas estadísticas correspondientes o software estadístico.
3.4. Contraste de Kruskal-Wallis (Múltiples Muestras Independientes)
Esta técnica es la alternativa no paramétrica al ANOVA de una vía. Se utiliza para comparar las medianas o distribuciones de tres o más poblaciones independientes.
A diferencia de ANOVA, que exige normalidad y homocedasticidad en poblaciones con variables numéricas, el contraste de Kruskal-Wallis se utiliza precisamente cuando fallan estas condiciones. Solo requiere que las poblaciones sean independientes y que la variable dependiente sea medible al menos a nivel ordinal.
Para aplicarlo:
- Se toma una muestra de cada población a comparar.
- Se combinan todas las observaciones y se realiza una ordenación global por rangos.
- A continuación, se calcula la suma de rangos para cada grupo (Ri).
- Se calcula el estadístico de prueba H, que sigue aproximadamente una distribución Chi-cuadrado bajo la hipótesis nula de igualdad de poblaciones.