Conceptos esenciales de variables aleatorias: esperanza, varianza, momentos y distribuciones
Enviado por Programa Chuletas y clasificado en Matemáticas
Escrito el en
español con un tamaño de 4,35 KB
Variable aleatoria
Variable aleatoria: es una función con valores reales cuyo dominio es un espacio muestral, es decir, X: Ω → ℝ. Para un subconjunto A ⊆ ℝ se tiene P(A) = P(ω ∈ Ω: X(ω) ∈ A).
Variable aleatoria discreta
Una variable aleatoria discreta toma valores en un conjunto finito o numerable.
Función de masa (pmf)
La función de masa recoge toda la información sobre una variable aleatoria discreta. Si los valores posibles son x_k, entonces p_k = p(x_k) = P[X = x_k]. Además, Σ_k p(x_k) = 1.
Esperanza de una variable aleatoria discreta
La esperanza es una medida ponderada de los valores que puede tomar la variable. Se define como E[X] = μ = x_1·p(x_1) + x_2·p(x_2) + ... = Σ_k x_k·p(x_k).
Linealidad de la esperanza
La esperanza es lineal: si X e Y son variables aleatorias discretas, entonces X + Y es otra variable aleatoria y E[X + Y] = E[X] + E[Y].
Demostración. Usando la distribución conjunta, E[X + Y] = Σ_x Σ_y (x + y) p(X = x, Y = y) = Σ_x Σ_y x p(X = x, Y = y) + Σ_x Σ_y y p(X = x, Y = y) = Σ_x x Σ_y p(X = x, Y = y) + Σ_y y Σ_x p(X = x, Y = y) = Σ_x x p(X = x) + Σ_y y p(Y = y) = E[X] + E[Y].
Varianza de una variable aleatoria
La varianza mide la concentración alrededor de la esperanza. Se define como Var(X) = σ² = E[(X - μ)²]. También se cumple la identidad útil Var(X) = E[X²] - (E[X])².
Demostración. Var(X) = Σ_x (x - μ)² p(x) = Σ_x (x² - 2xμ + μ²) p(x) = Σ_x x² p(x) - 2μ Σ_x x p(x) + μ² Σ_x p(x) = E[X²] - 2μ·μ + μ² = E[X²] - (E[X])².
Propiedades.
- Var(X + b) = Var(X).
- Var(aX) = a² Var(X).
Variable aleatoria continua
Una variable aleatoria continua toma valores en todo ℝ (o al menos en un intervalo).
Función de densidad (pdf)
La función de densidad f(x) mide cuán probable es que la variable aleatoria tome valores próximos a un valor dado. Para un conjunto A,
P[X ∈ A] = ∫_A f(x) dx. Por ejemplo, P[a ≤ X ≤ b] = ∫_a^b f(x) dx.
Condiciones sobre f(x):
- f(x) ≥ 0 para todo x.
- ∫_{-∞}^{+∞} f(x) dx = 1.
Esperanza y varianza (continuas)
Esperanza: E[X] = μ = ∫_{-∞}^{+∞} x·f(x) dx.
Varianza: Var(X) = σ² = E[(X - μ)²] = ∫_{-∞}^{+∞} (x - μ)² f(x) dx.
Momentos
El momento de orden k es mk = E[X^k] y el momento central de orden k es μ_k = E[(X - μ)^k]. Los momentos sirven para caracterizar distribuciones y se usan, entre otros propósitos, para construir estimadores.
Función de distribución acumulada (cdf)
La función de distribución (también llamada función de probabilidad acumulada) se define como F(x) = P(X ≤ x).
Relación con la densidad (cuando existe): F(x) = ∫_{-∞}^x f(t) dt, y f(x) = F'(x) casi en todas partes.
Propiedades de F(x):
- 0 ≤ F(x) ≤ 1 para todo x.
- lim_{x → -∞} F(x) = 0 y lim_{x → +∞} F(x) = 1.
- F es una función no decreciente (si x₁ ≤ x₂ entonces F(x₁) ≤ F(x₂)).
- F es continua por la derecha: el valor de F en un punto coincide con el límite por la derecha en ese punto.
Vectores aleatorios bidimensionales
Un vector aleatorio bidimensional es una aplicación X = (X, Y): M → ℝ², donde M es un espacio muestral.
Función de distribución conjunta
La función de distribución conjunta de (X, Y) es F_{X,Y}(x,y) = P(X ≤ x, Y ≤ y) = P({t ∈ M: X(t) ≤ x} ∩ {t ∈ M: Y(t) ≤ y}).
Distribuciones marginales
Las distribuciones marginales se obtienen como límites de la distribución conjunta:
F_X(x) = lim_{y → +∞} F_{X,Y}(x,y), F_Y(y) = lim_{x → +∞} F_{X,Y}(x,y).
Vectores aleatorios discretos
Si (X, Y) es discreto, las funciones de probabilidad/massa marginales vienen dadas por
p_i = P(X = x_i) = Σ_j P(X = x_i, Y = y_j),
p_j = P(Y = y_j) = Σ_i P(X = x_i, Y = y_j).
Covarianza
La covarianza entre X e Y se define como Cov(X, Y) = E[XY] - E[X]·E[Y].
Vectores aleatorios continuos
Vectores aleatorios continuos: