Fundamentos de Variables Aleatorias y Distribuciones de Probabilidad

Enviado por Programa Chuletas y clasificado en Matemáticas

Escrito el en español con un tamaño de 7,8 KB

Variables Aleatorias Discretas

Conceptos Generales y Propiedades

Las variables aleatorias discretas se caracterizan por tomar un número finito o contable de valores. Cuando sus propiedades son desconocidas, se suelen representar mediante una tabla de probabilidad P(X=x).

Función de Distribución Acumulada (F(x))

La Función de Distribución Acumulada, F(x), se define como P(X ≤ x). Para construirla, se consideran los valores de x de menor a mayor. La probabilidad acumulada P(X ≤ x) se va sumando, comenzando en 0 y terminando en 1. Es importante recordar que la igualdad se incluye en el límite superior del intervalo (es decir, "desde el número hacia abajo").

Esperanza Matemática (E(X))

La Esperanza Matemática o valor esperado de una variable aleatoria discreta X se calcula como el sumatorio de cada valor de la variable (xᵢ) multiplicado por su probabilidad P(X=xᵢ):

E(X) = Σ xᵢ ⋅ P(xᵢ)

Varianza (Var(X))

La Varianza de una variable aleatoria discreta X se calcula como el sumatorio de cada valor de la variable al cuadrado (xᵢ²) multiplicado por su probabilidad P(X=xᵢ), menos el cuadrado de la esperanza:

Var(X) = Σ xᵢ² ⋅ P(xᵢ) - [E(X)]²

La suma de todas las probabilidades P(X=xᵢ) debe ser igual a 1 (Σ P(xᵢ) = 1).

Propiedades Teóricas

  • La Función de Distribución Acumulada F(x) siempre está entre 0 y 1: 0 ≤ F(x) ≤ 1.
  • F(x) es una función no decreciente.
  • Para una variable discreta, la probabilidad de un valor específico P(X = x₀) es diferente de 0.
  • Para calcular la probabilidad de un intervalo P(a < X ≤ b), se utiliza la diferencia de las funciones acumuladas: P(a < X ≤ b) = F(b) - F(a).
  • Propiedades de la Esperanza:
    • E(c) = c (la esperanza de una constante es la constante misma).
    • E(cX) = cE(X) (la esperanza de una constante por una variable es la constante por la esperanza de la variable).
    • E(g(X)) = Σ g(xᵢ) ⋅ P(xᵢ) (esperanza de una función de la variable).
  • Propiedades de la Varianza:
    • Var(c) = 0 (la varianza de una constante es cero).
    • Var(cX) = c²Var(X) (la varianza de una constante por una variable es el cuadrado de la constante por la varianza de la variable).

Distribuciones Discretas Conocidas

Distribución Bernoulli

  • Dominio: {0, 1}
  • Parámetro: p (probabilidad de éxito)
  • Esperanza: E(X) = p
  • Varianza: Var(X) = p(1-p)
  • Segundo Momento: E(X²) = p

Distribución Binomial

  • Dominio: {0, 1, ..., n}
  • Parámetros: n (número de ensayos), p (probabilidad de éxito)
  • Función de Probabilidad: P(X=k) = (nk) pk (1-p)n-k
  • Esperanza: E(X) = np
  • Varianza: Var(X) = np(1-p)
  • Segundo Momento: E(X²) = np(1-p) + (np)²

Distribución Geométrica

  • Dominio: {1, 2, ...} (número de ensayos hasta el primer éxito)
  • Parámetro: p (probabilidad de éxito)
  • Función de Probabilidad: P(X=x) = p(1-p)x-1
  • Esperanza: E(X) = 1/p
  • Varianza: Var(X) = (1-p) / p²
  • Segundo Momento: E(X²) = (2-p) / p²
  • Media (τ): τ = 1/p

Distribución Poisson

  • Dominio: {0, 1, 2, ...} (número de eventos en un intervalo fijo)
  • Parámetro: λ (tasa promedio de eventos)
  • Función de Probabilidad: P(X=x) = (e λx) / x!
  • Esperanza: E(X) = λ
  • Varianza: Var(X) = λ
  • Segundo Momento: E(X²) = λ + λ²
  • La varianza también se denota como σ² (desviación típica al cuadrado).

Función Generadora de Momentos (FGM)

La Función Generadora de Momentos MX(t) es una herramienta útil para derivar momentos de una distribución. Se define como E(etX).

  • Binomial: MX(t) = (1-p + pet)n
  • Bernoulli: MX(t) = 1 + p(et - 1)
  • Poisson: MX(t) = eλ(et - 1)
  • Normal: MX(t) = eμt + 0.5σ²t²
  • Geométrica: MX(t) = p / (1 - (1-p)et)
  • Uniforme Discreta: MX(t) = (1/n) Σk=1n ekt

Momentos de Orden Superior

Los momentos de orden superior (como el segundo o tercer momento) se obtienen derivando la Función Generadora de Momentos n veces con respecto a t, y luego sustituyendo t por 0.

Variables Aleatorias Continuas

Conceptos Generales y Propiedades

Las variables aleatorias continuas pueden tomar cualquier valor dentro de un intervalo. Se describen mediante una función de densidad de probabilidad.

Función de Densidad de Probabilidad (f(x))

  • La Función de Densidad de Probabilidad, f(x), debe ser no negativa: f(x) ≥ 0.
  • La integral de f(x) sobre todo su dominio debe ser igual a 1: ∫ f(x) dx = 1. Esta propiedad se utiliza a menudo para calcular constantes desconocidas en la función.
  • Para calcular la probabilidad de que la variable caiga en un intervalo P(a < X < b), se integra la función de densidad entre esos límites: P(a < X < b) = ∫ab f(x) dx. Para variables continuas, P(X=c) = 0, por lo que P(a ≤ X ≤ b), P(a < X ≤ b), P(a ≤ X < b) y P(a < X < b) son equivalentes.

Esperanza y Varianza para Variables Continuas

  • Esperanza: E(X) = ∫ x f(x) dx
  • Varianza: Var(X) = ∫ x² f(x) dx - [E(X)]²
  • Esperanza de una función g(X): E(g(X)) = ∫ g(x) f(x) dx

Distribuciones Continuas Conocidas

Distribución Uniforme Continua

  • Dominio: [a, b]
  • Función de Densidad: f(x) = 1 / (b-a) para a ≤ x ≤ b, y 0 en otro caso.
  • Esperanza: E(X) = (a+b) / 2
  • Varianza: Var(X) = (b-a)² / 12
  • Segundo Momento: E(X²) = Var(X) + [E(X)]²
  • Función de Distribución Acumulada: F(x) = (x-a) / (b-a) para a ≤ x ≤ b.

Distribución Exponencial

  • Dominio: [0, ∞)
  • Parámetro: λ (tasa)
  • Función de Densidad: f(x) = λe-λx para x ≥ 0, y 0 en otro caso.
  • Esperanza: E(X) = 1/λ
  • Varianza: Var(X) = 1/λ²
  • Segundo Momento: E(X²) = 2/λ²
  • Función de Distribución Acumulada: F(x) = 1 - e-λx para x ≥ 0.

Distribución Normal

  • Dominio: (-∞, ∞)
  • Parámetros: μ (media), σ (desviación estándar)
  • Función de Densidad: f(x) = (1 / (σ√2π)) e-0.5((x-μ)² / σ²)
  • Variable Estandarizada Z: Para transformar una variable Normal X a una Normal Estándar Z ~ N(0,1), se utiliza la fórmula: Z = (X-μ) / σ.

Entradas relacionadas: