Conceptos estadísticos y medidas de tendencia central y dispersión

Enviado por Programa Chuletas y clasificado en Matemáticas

Escrito el en español con un tamaño de 4,63 KB

Población

Población: conjunto de unidades o elementos que participan del objeto de estudio. A cada unidad se le denomina individuo. Las poblaciones pueden tener tamaño finito o infinito.

Muestra: subconjunto representativo de la población. Pueden ser de tamaño finito o infinito.

Carácter: propiedad que presentan los individuos de una población y que se desea estudiar.

Modalidad: cada posible estado que puede presentar un carácter. Deben ser incompatibles (cada individuo presenta solo una) y exhaustivas (cada individuo debe clasificarse en una de las modalidades del carácter).

Media aritmética: es una característica de posición de tendencia central que se define como el promedio de los valores de la distribución.

Moda: es una característica de posición de tendencia central que se define como el valor más frecuente de la distribución.

Mediana: es una característica de tendencia central definida como el valor que divide la distribución en dos partes iguales.

Varianza: se define como la media de las diferencias cuadráticas de los valores de la distribución con respecto a su media aritmética.

Desviación típica: se define como la raíz cuadrada de la varianza.

CV: es una medida de dispersión relativa que expresa la dispersión de una distribución con respecto a su media. Se define como el cociente entre la desviación típica de la distribución y su media aritmética. Se utiliza para poder comparar la dispersión de distintas distribuciones y estimar la representatividad de la media. Cuanto menor sea el CV, menor será la dispersión respecto a su media y, por tanto, más homogénea será la distribución y más representativa será la media.

Característica de forma:

Objetivo: proporcionan información sobre la forma de la distribución sin necesidad de realizar ninguna representación gráfica de la misma.

Tipos:

  • Medidas de asimetría: proporcionan información sobre si la distribución es simétrica o no respecto a un valor (habitualmente la media) y cuantifican el grado de asimetría e informan de su carácter (asimetría a izquierda o a derecha). La medida más usada es el coeficiente de asimetría de Fisher.
  • Medidas de apuntamiento, aplastamiento o curtosis: estudian la mayor o menor concentración de frecuencias en la zona central de la distribución considerando como modelo la distribución normal. Ese grado de concentración dará origen a distribuciones más o menos apuntadas. Se utilizan en distribuciones unimodales, simétricas o ligeramente asimétricas. La medida más usada es el coeficiente de curtosis.

Coeficiente de determinación: se nota por R^2 y se define como la proporción de variabilidad de la variable dependiente que es explicada por la regresión en el ajuste de modelos donde se verifica la descomposición de la varianza (varianza total (v. variable dependiente) = varianza explicada por la regresión (v. valores ajustados) + varianza residual). R^2 = 1 - varianza residual / varianza total. Interpretación: 0 ≤ R^2 ≤ 1. R^2 = 1 -> correlación perfecta según la función de regresión ajustada (dependencia funcional). R^2 = 0 -> incorrelación según la función de regresión ajustada. 0 ≤ R^2 ≤ 1 -> cierto grado de correlación según la función de regresión ajustada (mayor cuanto más se aproxime a 1).

Coeficiente de determinación lineal: se nota por r^2 y cuantifica la bondad del ajuste, es decir, mide el grado de correlación entre las variables según la recta ajustada en un modelo lineal. r^2 = xy^2 / (x^2 * y^2) = aa'. Interpretación: r^2 = 1 -> correlación lineal perfecta (dependencia funcional lineal). r^2 = 0 -> incorrelación lineal. 0 < r^2 < 1 -> cierto grado de correlación lineal (tanto más intensa cuanto más cercano a 1).

Coeficiente de correlación lineal: se nota por r y cuantifica la interdependencia lineal entre las variables, es decir, el grado de asociación lineal junto con el sentido positivo o negativo de variación conjunta de las variables. -1 ≤ r ≤ 1. - r = 1 -> asociación lineal perfecta positiva. r = -1 -> asociación lineal perfecta negativa. r = 0 -> asociación nula. 0 < r < 1 -> cierto grado de asociación lineal positiva. -1 < r < 0 -> cierto grado de asociación lineal negativa.

Entradas relacionadas: