Fundamentos de Variables Aleatorias y Distribuciones de Probabilidad
Enviado por Programa Chuletas y clasificado en Matemáticas
Escrito el en español con un tamaño de 7,8 KB
Variables Aleatorias Discretas
Conceptos Generales y Propiedades
Las variables aleatorias discretas se caracterizan por tomar un número finito o contable de valores. Cuando sus propiedades son desconocidas, se suelen representar mediante una tabla de probabilidad P(X=x).
Función de Distribución Acumulada (F(x))
La Función de Distribución Acumulada, F(x), se define como P(X ≤ x). Para construirla, se consideran los valores de x de menor a mayor. La probabilidad acumulada P(X ≤ x) se va sumando, comenzando en 0 y terminando en 1. Es importante recordar que la igualdad se incluye en el límite superior del intervalo (es decir, "desde el número hacia abajo").
Esperanza Matemática (E(X))
La Esperanza Matemática o valor esperado de una variable aleatoria discreta X se calcula como el sumatorio de cada valor de la variable (xᵢ) multiplicado por su probabilidad P(X=xᵢ):
E(X) = Σ xᵢ ⋅ P(xᵢ)
Varianza (Var(X))
La Varianza de una variable aleatoria discreta X se calcula como el sumatorio de cada valor de la variable al cuadrado (xᵢ²) multiplicado por su probabilidad P(X=xᵢ), menos el cuadrado de la esperanza:
Var(X) = Σ xᵢ² ⋅ P(xᵢ) - [E(X)]²
La suma de todas las probabilidades P(X=xᵢ) debe ser igual a 1 (Σ P(xᵢ) = 1).
Propiedades Teóricas
- La Función de Distribución Acumulada F(x) siempre está entre 0 y 1: 0 ≤ F(x) ≤ 1.
- F(x) es una función no decreciente.
- Para una variable discreta, la probabilidad de un valor específico P(X = x₀) es diferente de 0.
- Para calcular la probabilidad de un intervalo P(a < X ≤ b), se utiliza la diferencia de las funciones acumuladas: P(a < X ≤ b) = F(b) - F(a).
- Propiedades de la Esperanza:
- E(c) = c (la esperanza de una constante es la constante misma).
- E(cX) = cE(X) (la esperanza de una constante por una variable es la constante por la esperanza de la variable).
- E(g(X)) = Σ g(xᵢ) ⋅ P(xᵢ) (esperanza de una función de la variable).
- Propiedades de la Varianza:
- Var(c) = 0 (la varianza de una constante es cero).
- Var(cX) = c²Var(X) (la varianza de una constante por una variable es el cuadrado de la constante por la varianza de la variable).
Distribuciones Discretas Conocidas
Distribución Bernoulli
- Dominio: {0, 1}
- Parámetro: p (probabilidad de éxito)
- Esperanza: E(X) = p
- Varianza: Var(X) = p(1-p)
- Segundo Momento: E(X²) = p
Distribución Binomial
- Dominio: {0, 1, ..., n}
- Parámetros: n (número de ensayos), p (probabilidad de éxito)
- Función de Probabilidad: P(X=k) = (nk) pk (1-p)n-k
- Esperanza: E(X) = np
- Varianza: Var(X) = np(1-p)
- Segundo Momento: E(X²) = np(1-p) + (np)²
Distribución Geométrica
- Dominio: {1, 2, ...} (número de ensayos hasta el primer éxito)
- Parámetro: p (probabilidad de éxito)
- Función de Probabilidad: P(X=x) = p(1-p)x-1
- Esperanza: E(X) = 1/p
- Varianza: Var(X) = (1-p) / p²
- Segundo Momento: E(X²) = (2-p) / p²
- Media (τ): τ = 1/p
Distribución Poisson
- Dominio: {0, 1, 2, ...} (número de eventos en un intervalo fijo)
- Parámetro: λ (tasa promedio de eventos)
- Función de Probabilidad: P(X=x) = (e-λ λx) / x!
- Esperanza: E(X) = λ
- Varianza: Var(X) = λ
- Segundo Momento: E(X²) = λ + λ²
- La varianza también se denota como σ² (desviación típica al cuadrado).
Función Generadora de Momentos (FGM)
La Función Generadora de Momentos MX(t) es una herramienta útil para derivar momentos de una distribución. Se define como E(etX).
- Binomial: MX(t) = (1-p + pet)n
- Bernoulli: MX(t) = 1 + p(et - 1)
- Poisson: MX(t) = eλ(et - 1)
- Normal: MX(t) = eμt + 0.5σ²t²
- Geométrica: MX(t) = p / (1 - (1-p)et)
- Uniforme Discreta: MX(t) = (1/n) Σk=1n ekt
Momentos de Orden Superior
Los momentos de orden superior (como el segundo o tercer momento) se obtienen derivando la Función Generadora de Momentos n veces con respecto a t, y luego sustituyendo t por 0.
Variables Aleatorias Continuas
Conceptos Generales y Propiedades
Las variables aleatorias continuas pueden tomar cualquier valor dentro de un intervalo. Se describen mediante una función de densidad de probabilidad.
Función de Densidad de Probabilidad (f(x))
- La Función de Densidad de Probabilidad, f(x), debe ser no negativa: f(x) ≥ 0.
- La integral de f(x) sobre todo su dominio debe ser igual a 1: ∫ f(x) dx = 1. Esta propiedad se utiliza a menudo para calcular constantes desconocidas en la función.
- Para calcular la probabilidad de que la variable caiga en un intervalo P(a < X < b), se integra la función de densidad entre esos límites: P(a < X < b) = ∫ab f(x) dx. Para variables continuas, P(X=c) = 0, por lo que P(a ≤ X ≤ b), P(a < X ≤ b), P(a ≤ X < b) y P(a < X < b) son equivalentes.
Esperanza y Varianza para Variables Continuas
- Esperanza: E(X) = ∫ x f(x) dx
- Varianza: Var(X) = ∫ x² f(x) dx - [E(X)]²
- Esperanza de una función g(X): E(g(X)) = ∫ g(x) f(x) dx
Distribuciones Continuas Conocidas
Distribución Uniforme Continua
- Dominio: [a, b]
- Función de Densidad: f(x) = 1 / (b-a) para a ≤ x ≤ b, y 0 en otro caso.
- Esperanza: E(X) = (a+b) / 2
- Varianza: Var(X) = (b-a)² / 12
- Segundo Momento: E(X²) = Var(X) + [E(X)]²
- Función de Distribución Acumulada: F(x) = (x-a) / (b-a) para a ≤ x ≤ b.
Distribución Exponencial
- Dominio: [0, ∞)
- Parámetro: λ (tasa)
- Función de Densidad: f(x) = λe-λx para x ≥ 0, y 0 en otro caso.
- Esperanza: E(X) = 1/λ
- Varianza: Var(X) = 1/λ²
- Segundo Momento: E(X²) = 2/λ²
- Función de Distribución Acumulada: F(x) = 1 - e-λx para x ≥ 0.
Distribución Normal
- Dominio: (-∞, ∞)
- Parámetros: μ (media), σ (desviación estándar)
- Función de Densidad: f(x) = (1 / (σ√2π)) e-0.5((x-μ)² / σ²)
- Variable Estandarizada Z: Para transformar una variable Normal X a una Normal Estándar Z ~ N(0,1), se utiliza la fórmula: Z = (X-μ) / σ.