Repaso Integral de Medidas Estadísticas y Distribuciones de Probabilidad

Enviado por Programa Chuletas y clasificado en Matemáticas

Escrito el en español con un tamaño de 7,08 KB

Conceptos Fundamentales de Estadística Descriptiva y Probabilidad

Estadística Descriptiva y Medidas Centrales

  • Frecuencia Relativa ($f_i$): Se calcula como $\frac{\text{Frecuencia Absoluta}}{\text{Total de observaciones}}$.
  • Media para Variables Continuas: Se calcula como $\frac{\sum (x_i \cdot n_i)}{N}$, donde $x_i$ es la marca de clase y $n_i$ es la frecuencia absoluta.
  • Varianza ($\text{Var}$): Es la suma de todos los $(x - \text{Media})^2$ dividida por el número de datos ($N$): $\text{Var} = \frac{\sum (x - \text{Media})^2}{N}$.
  • Desviación Típica ($\sigma$): Es la raíz cuadrada de la varianza: $\sigma = \sqrt{\text{Var}}$.
  • Coeficiente de Variación ($\text{CV}$): Se calcula como $\frac{\text{Desviación Típica}}{\text{Media}}$. Cuanto más cercano a cero sea el valor, más representativa es la media.

Índice de Gini ($\text{IG}$)

El Índice de Gini mide la desigualdad o concentración. Se calcula mediante la siguiente expresión, utilizando las frecuencias relativas ($f_i$) y las frecuencias acumuladas relativas ($Q_i$):

$$\text{IG} = 1 - \sum_{i} f_i (Q_i + Q_{i-1})$$

Donde $Q_i$ es la frecuencia relativa acumulada. Para su cálculo se suelen seguir los siguientes pasos:

  1. Calcular $f_i = \frac{n_i}{\text{Total}}$.
  2. Calcular $x_i \cdot n_i$.
  3. Calcular $Q_i$ (frecuencia relativa acumulada).
  4. Calcular $Q_i + Q_{i-1}$ (considerando $Q_0 = 0$).
  5. Calcular $f_i \cdot (Q_i + Q_{i-1})$.
  6. Sumar todos los valores de la columna 4 y restarlos a 1. Cuanto más cercano a cero sea el valor de esta resta, más equitativo es el sistema.

Modelos de Predicción y Series Temporales

Coeficiente de Determinación ($r^2$)

Cuanto más cerca esté $r^2$ de 1, más certeras son las previsiones obtenidas del modelo de regresión.

Medias Móviles (MM)

Para una media móvil de orden 4 ($\text{MM}_4$):

  1. Se toman 4 datos y se calcula su promedio. Este valor se coloca provisionalmente a la altura de la segunda observación ($\text{MM}_{4,1}$).
  2. En la segunda fase, se hace la media de cada dos observaciones consecutivas de la serie de medias móviles, quedando vacías dos casillas por arriba y por abajo en la columna de medias móviles.

El concepto de $\text{MM}$ se refiere al promedio de un número de datos consecutivos.

Descomposición de la Serie Temporal

Para obtener la tendencia ($Y$):

  1. Se calcula la diferencia entre la serie original y la última media móvil: $s + i = Y - \text{MM}$.
  2. Se ordena esta nueva columna ($s+i$) por periodos (años, trimestres, meses, etc.).
  3. Se calcula la media de las filas horizontales (media por periodo).
  4. Se calcula la media de esos promedios de las filas horizontales (media general de los índices).
  5. Se obtiene el Índice de Variación Estacional ($ ext{IVE}$ o Componente Estacional): A la última media de las medias de las filas horizontales se le resta a los valores de las medias de las filas horizontales.
  6. Se obtiene la Serie Desestacionalizada: Se calcula restando la componente estacional a la tendencia ($Y - \text{IVE}$).
  7. Se escoge la última columna (serie desestacionalizada) y se representa gráficamente para obtener la ecuación de tendencia y el $r^2$.
  8. Para la predicción, se sustituye la $x$ de la ecuación por el número de dato que se desea pronosticar.

Cálculo de Probabilidades

Reglas Fundamentales

  • Probabilidad de diferencia de sucesos: $P(A - B) = P(A) - P(A \cap B)$.
  • Probabilidad de unión: $P(A \cup B) = P(A) + P(B) - P(A \cap B)$.
  • Probabilidad Condicional: $P(A | B) = \frac{P(A \cap B)}{P(B)}$. Se pueden despejar para obtener otras relaciones.

Independencia y Disyunción

  • Si $A$ y $B$ son independientes: $P(A \cap B) = P(A) \cdot P(B)$.
  • Si $A$ y $B$ son disjuntos (mutuamente excluyentes): $P(A \cap B) = 0$.
  • Si son independientes, la probabilidad de $A$ dado que no ocurre $B$ es: $P(A \cap B^c) = P(A) - P(A \cap B)$.

Teorema de la Probabilidad Total

Para un suceso $H$ y un conjunto de sucesos $A, B, \dots$ que forman un sistema completo de sucesos disjuntos:

$$P(H) = P(H|A)P(A) + P(H|B)P(B) + \dots$$

Distribuciones de Probabilidad Unidimensionales

Distribuciones Discretas

  • Bernoulli: Describe un único experimento con dos resultados: éxito (1) con probabilidad $p$, y fracaso (0) con probabilidad $1-p$. $X \sim \text{B}(p)$.
  • Binomial: Número de éxitos ($X$) en $n$ experimentos de Bernoulli independientes. $X \sim \text{B}(n, p)$, donde $n$ es el número de veces y $p$ es la probabilidad de éxito (que proviene de la distribución de Bernoulli).
  • Geométrica: Número de fracasos ($X$) hasta el primer éxito. $X \sim \text{G}(p)$, donde $p$ es la probabilidad de éxito.
  • Binomial Negativa: Número de fracasos ($X$) hasta el $r$-ésimo éxito. $X \sim \text{BN}(r, p)$, donde $r$ es el número de éxitos deseados y $p$ es la probabilidad de éxito.
  • Poisson: Describe el número de veces que ocurre un evento en un intervalo fijo de tiempo o espacio, dado un promedio conocido ($\lambda$). $X \sim \text{P}(\lambda)$.

Distribuciones Continuas y Bidimensionales

Distribuciones Marginales

Dada una función de densidad conjunta $f(x, y)$:

  • Función de Densidad Marginal de $X$: $$f_X(x) = \int_{-\infty}^{\infty} f(x, y) \, dy$$
  • Esperanza Matemática (Valor Esperado) de $X$: $$E(X) = \int_{-\infty}^{\infty} x \cdot f_X(x) \, dx$$ (Los límites de integración varían según el rango de $x$ definido en el enunciado).
  • Varianza de $X$: $\text{Var}(X) = E(X^2) - (E(X))^2$.
Distribuciones Condicionadas

La función de densidad condicionada de $X$ dado $Y=y$ es:

$$f(X|Y=y) = \frac{f(x, y)}{f_Y(y)}$$

  • Esperanza Condicionada: $$E(X|Y=y) = \int_{-\infty}^{\infty} x \cdot f(x|y=y) \, dx$$ (La integral varía sobre el rango de $x$).
  • Varianza Condicionada: $\text{Var}(X|Y=y) = E(X^2|Y=y) - (E(X|Y=y))^2$.

Independencia: Las variables son independientes si y solo si la función de densidad conjunta es el producto de las marginales: $f(x, y) = f_X(x) \cdot f_Y(y)$.

Bidimensionales Discretas

Para variables aleatorias discretas $X$ e $Y$ con función de probabilidad conjunta $P(x=x_i; y=y_j)$:

  • Probabilidad Condicional: $$P(X=x_i | Y=y_j) = \frac{P(X=x_i ; Y=y_j)}{P(Y=y_j)}$$
  • Esperanza Condicionada: $$E(X|Y=y_j) = \sum_i x_i \cdot P(X=x_i | Y=y_j)$$
  • Varianza Condicionada: $\text{Var}(X|Y=y_j) = E(X^2|Y=y_j) - (E(X|Y=y_j))^2$.

Entradas relacionadas: