Estadística Bivariada: Medidas y Tipos de Asociación de Variables

Enviado por Chuletator online y clasificado en Matemáticas

Escrito el en español con un tamaño de 4,35 KB

Conceptos Fundamentales en Distribuciones Bivariadas

Las distribuciones bivariadas surgen cuando se consideran simultáneamente dos variables de una misma población o muestra, de forma que a cada elemento observado le corresponde un par de valores o un par de categorías.

Tipos de Tablas y Distribuciones

  • Tabla de correlación: Se utiliza cuando ambas variables son cuantitativas.
  • Tabla de contingencia: Se emplea cuando ambas variables son cualitativas.
  • Distribuciones marginales: Coinciden con las distribuciones de cada una de las variables por separado.

Los porcentajes deben calcularse en el sentido del factor causal o de la variable independiente.

Características de la Asociación entre Variables

Existencia de Asociación

Existe asociación cuando las correspondientes distribuciones porcentuales condicionadas difieren entre sí. Si entre dos variables no existe ningún tipo de relación, se dice que son independientes. Para determinar la independencia, se pueden calcular las respectivas distribuciones marginales y condicionadas, el cálculo de épsilon, y comparar las frecuencias esperadas (Fe) y observadas (Fo).

Cálculo de Frecuencias Esperadas (Fe)

La frecuencia esperada (Fe) se calcula multiplicando el total de la fila por el total de la columna, y el resultado se divide por el número total de casos (N).

Fuerza de la Asociación

  • Asociación funcional: Si existe una expresión matemática que nos permite obtener de manera inequívoca los valores de una de las variables a partir de los de la otra.
  • Asociación estadística: Existe un tipo de relación que no puede representarse de manera exacta por una fórmula matemática.

Dirección de la Asociación

  • Asociación positiva: Si los valores altos de una variable se corresponden con los valores altos de la segunda, y los valores bajos se corresponden igualmente con los bajos.
  • Asociación negativa: Si a los valores altos de una de las variables le corresponden los valores bajos de la otra.
  • Asociación perfecta: Todos los casos se concentran en una diagonal, y cada categoría de una variable o atributo está relacionada con una de la otra variable.

Naturaleza de la Asociación

Se refiere a la forma en que se distribuyen los datos en una tabla.

Medidas de Asociación: Simétricas y Asimétricas

  • Medidas simétricas: Reflejan la fuerza de la relación entre dos variables y no distinguen entre los papeles asignados a cada variable (es decir, no hay una variable independiente y otra dependiente).
  • Medidas asimétricas: Orientadas a medir la capacidad e influencia de una variable independiente en la predicción de los valores de la variable dependiente.

Interpretación de Coeficientes de Asociación

  • +1: Asociación perfecta positiva.
  • -1: Asociación perfecta negativa.
  • 0: Independencia estadística (no hay asociación lineal).

El Coeficiente Chi-Cuadrado (χ²)

El coeficiente Chi-Cuadrado (χ²) es una medida de asociación no paramétrica con las siguientes características:

  • Es una medida de distribución libre (no requiere supuestos sobre la distribución de los datos).
  • Es ampliamente utilizado en estadística inferencial.
  • Es útil para variables medidas a nivel nominal y ordinal.
  • Es siempre un número positivo.
  • Puede ser 0 si no existe asociación entre las variables.

El Coeficiente T

El coeficiente T (a menudo referido como el coeficiente T de Tschuprow) corrige el problema del límite superior del coeficiente C (coeficiente de contingencia de Pearson), mediante una ligera modificación del denominador de la expresión del coeficiente máximo. Esta modificación incluye un valor que refleja el número de celdas de la tabla. El límite superior de T es la unidad (1) cuando la tabla de contingencia es cuadrada (es decir, tiene el mismo número de filas y columnas).

Entradas relacionadas: