Repaso Integral de Medidas Estadísticas y Distribuciones de Probabilidad
Enviado por Programa Chuletas y clasificado en Matemáticas
Escrito el en
español con un tamaño de 7,08 KB
Conceptos Fundamentales de Estadística Descriptiva y Probabilidad
Estadística Descriptiva y Medidas Centrales
- Frecuencia Relativa ($f_i$): Se calcula como $\frac{\text{Frecuencia Absoluta}}{\text{Total de observaciones}}$.
- Media para Variables Continuas: Se calcula como $\frac{\sum (x_i \cdot n_i)}{N}$, donde $x_i$ es la marca de clase y $n_i$ es la frecuencia absoluta.
- Varianza ($\text{Var}$): Es la suma de todos los $(x - \text{Media})^2$ dividida por el número de datos ($N$): $\text{Var} = \frac{\sum (x - \text{Media})^2}{N}$.
- Desviación Típica ($\sigma$): Es la raíz cuadrada de la varianza: $\sigma = \sqrt{\text{Var}}$.
- Coeficiente de Variación ($\text{CV}$): Se calcula como $\frac{\text{Desviación Típica}}{\text{Media}}$. Cuanto más cercano a cero sea el valor, más representativa es la media.
Índice de Gini ($\text{IG}$)
El Índice de Gini mide la desigualdad o concentración. Se calcula mediante la siguiente expresión, utilizando las frecuencias relativas ($f_i$) y las frecuencias acumuladas relativas ($Q_i$):
$$\text{IG} = 1 - \sum_{i} f_i (Q_i + Q_{i-1})$$
Donde $Q_i$ es la frecuencia relativa acumulada. Para su cálculo se suelen seguir los siguientes pasos:
- Calcular $f_i = \frac{n_i}{\text{Total}}$.
- Calcular $x_i \cdot n_i$.
- Calcular $Q_i$ (frecuencia relativa acumulada).
- Calcular $Q_i + Q_{i-1}$ (considerando $Q_0 = 0$).
- Calcular $f_i \cdot (Q_i + Q_{i-1})$.
- Sumar todos los valores de la columna 4 y restarlos a 1. Cuanto más cercano a cero sea el valor de esta resta, más equitativo es el sistema.
Modelos de Predicción y Series Temporales
Coeficiente de Determinación ($r^2$)
Cuanto más cerca esté $r^2$ de 1, más certeras son las previsiones obtenidas del modelo de regresión.
Medias Móviles (MM)
Para una media móvil de orden 4 ($\text{MM}_4$):
- Se toman 4 datos y se calcula su promedio. Este valor se coloca provisionalmente a la altura de la segunda observación ($\text{MM}_{4,1}$).
- En la segunda fase, se hace la media de cada dos observaciones consecutivas de la serie de medias móviles, quedando vacías dos casillas por arriba y por abajo en la columna de medias móviles.
El concepto de $\text{MM}$ se refiere al promedio de un número de datos consecutivos.
Descomposición de la Serie Temporal
Para obtener la tendencia ($Y$):
- Se calcula la diferencia entre la serie original y la última media móvil: $s + i = Y - \text{MM}$.
- Se ordena esta nueva columna ($s+i$) por periodos (años, trimestres, meses, etc.).
- Se calcula la media de las filas horizontales (media por periodo).
- Se calcula la media de esos promedios de las filas horizontales (media general de los índices).
- Se obtiene el Índice de Variación Estacional ($ ext{IVE}$ o Componente Estacional): A la última media de las medias de las filas horizontales se le resta a los valores de las medias de las filas horizontales.
- Se obtiene la Serie Desestacionalizada: Se calcula restando la componente estacional a la tendencia ($Y - \text{IVE}$).
- Se escoge la última columna (serie desestacionalizada) y se representa gráficamente para obtener la ecuación de tendencia y el $r^2$.
- Para la predicción, se sustituye la $x$ de la ecuación por el número de dato que se desea pronosticar.
Cálculo de Probabilidades
Reglas Fundamentales
- Probabilidad de diferencia de sucesos: $P(A - B) = P(A) - P(A \cap B)$.
- Probabilidad de unión: $P(A \cup B) = P(A) + P(B) - P(A \cap B)$.
- Probabilidad Condicional: $P(A | B) = \frac{P(A \cap B)}{P(B)}$. Se pueden despejar para obtener otras relaciones.
Independencia y Disyunción
- Si $A$ y $B$ son independientes: $P(A \cap B) = P(A) \cdot P(B)$.
- Si $A$ y $B$ son disjuntos (mutuamente excluyentes): $P(A \cap B) = 0$.
- Si son independientes, la probabilidad de $A$ dado que no ocurre $B$ es: $P(A \cap B^c) = P(A) - P(A \cap B)$.
Teorema de la Probabilidad Total
Para un suceso $H$ y un conjunto de sucesos $A, B, \dots$ que forman un sistema completo de sucesos disjuntos:
$$P(H) = P(H|A)P(A) + P(H|B)P(B) + \dots$$
Distribuciones de Probabilidad Unidimensionales
Distribuciones Discretas
- Bernoulli: Describe un único experimento con dos resultados: éxito (1) con probabilidad $p$, y fracaso (0) con probabilidad $1-p$. $X \sim \text{B}(p)$.
- Binomial: Número de éxitos ($X$) en $n$ experimentos de Bernoulli independientes. $X \sim \text{B}(n, p)$, donde $n$ es el número de veces y $p$ es la probabilidad de éxito (que proviene de la distribución de Bernoulli).
- Geométrica: Número de fracasos ($X$) hasta el primer éxito. $X \sim \text{G}(p)$, donde $p$ es la probabilidad de éxito.
- Binomial Negativa: Número de fracasos ($X$) hasta el $r$-ésimo éxito. $X \sim \text{BN}(r, p)$, donde $r$ es el número de éxitos deseados y $p$ es la probabilidad de éxito.
- Poisson: Describe el número de veces que ocurre un evento en un intervalo fijo de tiempo o espacio, dado un promedio conocido ($\lambda$). $X \sim \text{P}(\lambda)$.
Distribuciones Continuas y Bidimensionales
Distribuciones Marginales
Dada una función de densidad conjunta $f(x, y)$:
- Función de Densidad Marginal de $X$: $$f_X(x) = \int_{-\infty}^{\infty} f(x, y) \, dy$$
- Esperanza Matemática (Valor Esperado) de $X$: $$E(X) = \int_{-\infty}^{\infty} x \cdot f_X(x) \, dx$$ (Los límites de integración varían según el rango de $x$ definido en el enunciado).
- Varianza de $X$: $\text{Var}(X) = E(X^2) - (E(X))^2$.
Distribuciones Condicionadas
La función de densidad condicionada de $X$ dado $Y=y$ es:
$$f(X|Y=y) = \frac{f(x, y)}{f_Y(y)}$$
- Esperanza Condicionada: $$E(X|Y=y) = \int_{-\infty}^{\infty} x \cdot f(x|y=y) \, dx$$ (La integral varía sobre el rango de $x$).
- Varianza Condicionada: $\text{Var}(X|Y=y) = E(X^2|Y=y) - (E(X|Y=y))^2$.
Independencia: Las variables son independientes si y solo si la función de densidad conjunta es el producto de las marginales: $f(x, y) = f_X(x) \cdot f_Y(y)$.
Bidimensionales Discretas
Para variables aleatorias discretas $X$ e $Y$ con función de probabilidad conjunta $P(x=x_i; y=y_j)$:
- Probabilidad Condicional: $$P(X=x_i | Y=y_j) = \frac{P(X=x_i ; Y=y_j)}{P(Y=y_j)}$$
- Esperanza Condicionada: $$E(X|Y=y_j) = \sum_i x_i \cdot P(X=x_i | Y=y_j)$$
- Varianza Condicionada: $\text{Var}(X|Y=y_j) = E(X^2|Y=y_j) - (E(X|Y=y_j))^2$.