Fundamentos de Probabilidad y Distribuciones Estadísticas Clave

Enviado por Chuletator online y clasificado en Matemáticas

Escrito el en español con un tamaño de 7,38 KB

Conceptos Fundamentales de Probabilidad y Distribuciones Estadísticas

Definición Axiomática de Probabilidad

Es la más simple de todas las definiciones; está basada en un conjunto de axiomas que establecen los requisitos mínimos para definir la probabilidad de un suceso.

Ventaja:

  • Permite un desarrollo riguroso y matemático de la probabilidad.

Axiomas (Causas):

  1. La probabilidad de cualquier suceso A es no negativa: P(A) ≥ 0.
  2. La probabilidad del espacio muestral (suceso seguro Ω) es 1: P(Ω) = 1.
  3. Si A, B, C, ... son sucesos mutuamente excluyentes (incompatibles), la probabilidad de su unión es la suma de sus probabilidades individuales: P(A ∪ B ∪ C ∪ ...) = P(A) + P(B) + P(C) + ...

Consecuencias Importantes:

  • La probabilidad del suceso imposible (∅) es nula: P(∅) = 0.
  • La probabilidad del suceso complementario de A (Aᶜ) es 1 menos la probabilidad de A: P(Aᶜ) = 1 - P(A).
  • La probabilidad de la unión de dos sucesos A y B es: P(A ∪ B) = P(A) + P(B) - P(A ∩ B).

Probabilidad Condicional

Se presenta en situaciones donde se incorpora información suplementaria respecto a un suceso relacionado con el experimento aleatorio en cuestión. El hecho de saber que otro suceso ha ocurrido (o no) modifica el espacio de resultados posibles y, consecuentemente, la probabilidad del suceso de interés.

Se define como la probabilidad de que ocurra el suceso A, dado que ha ocurrido el suceso B, y se calcula mediante la fórmula:

P(A|B) = P(A ∩ B) / P(B), siempre que P(B) > 0.

Teorema de la Probabilidad Total

Este teorema se utiliza cuando el espacio muestral está descompuesto en una serie de sucesos mutuamente excluyentes y exhaustivos (forman un sistema completo de sucesos). Permite calcular la probabilidad de un suceso B, conociendo las probabilidades condicionales de B respecto a cada uno de los sucesos que componen el espacio muestral.

Si A₁, A₂, ..., Aₙ son un sistema completo de sucesos, entonces la probabilidad de un suceso B es:

P(B) = P(B|A₁)P(A₁) + P(B|A₂)P(A₂) + ... + P(B|Aₙ)P(Aₙ)

Teorema de Bayes

El Teorema de Bayes es fundamental para calcular la probabilidad de un suceso A dado que ha ocurrido un suceso B, cuando se conocen las probabilidades de B dado A y las probabilidades a priori de A. Es decir, permite actualizar nuestras creencias sobre la probabilidad de un suceso a la luz de nueva evidencia.

Si A₁, A₂, ..., Aₙ son un sistema completo de sucesos y B es un suceso cualquiera, entonces:

P(Aᵢ|B) = [P(B|Aᵢ)P(Aᵢ)] / P(B)

Donde P(B) se puede calcular usando el Teorema de la Probabilidad Total.

Sucesos Independientes

Diremos que dos sucesos A y B son independientes si la ocurrencia de uno no afecta la probabilidad de ocurrencia del otro. Esto se puede expresar de las siguientes maneras:

  • Si P(B) > 0, entonces P(A|B) = P(A).
  • Si P(A) > 0, entonces P(B|A) = P(B).
  • La condición más general y fundamental es que la probabilidad de su intersección es el producto de sus probabilidades individuales: P(A ∩ B) = P(A) × P(B).

Variable Aleatoria

Una variable aleatoria es una función que asigna un valor numérico a cada resultado de un experimento aleatorio. Es un instrumento clave que nos permite transformar los resultados cualitativos o complejos de un experimento en valores numéricos manejables para el análisis estadístico.

Tipos de Variables Aleatorias:

  • Discretas: Aquellas que toman un conjunto finito o contable de valores aislados (ej., número de caras al lanzar una moneda varias veces).
  • Continuas: Aquellas que pueden tomar cualquier valor dentro de un intervalo dado (ej., altura de una persona, tiempo de espera).

Función de Distribución (Acumulada)

La función de distribución (o función de distribución acumulada, F.D.A.) de una variable aleatoria X, denotada como F(x), calcula la probabilidad de que esta variable aleatoria tome un valor menor o igual a un punto dado 'x'.

Se define como: F(x) = P(X ≤ x).

Distribución Hipergeométrica

Esta distribución se aplica en experimentos donde se selecciona una muestra sin reemplazo de una población finita. A diferencia de la binomial, las extracciones no son independientes y la probabilidad de "éxito" cambia con cada extracción.

Consideramos un experimento con las siguientes características:

  • N: Número total de elementos en la población.
  • k: Número de "éxitos" en la población.
  • n: Tamaño de la muestra extraída.

La variable aleatoria X representa el número de éxitos obtenidos en la muestra.

Distribución Geométrica

Sea X la variable aleatoria que indica el número de fracasos antes de obtener el primer éxito en una secuencia de repeticiones idénticas e independientes de un experimento de Bernoulli. Alternativamente, puede definirse como el número de ensayos necesarios hasta obtener el primer éxito.

La variable aleatoria X sigue una distribución geométrica de parámetro p, denotada como X ~ G(p), donde p es la probabilidad de éxito en un solo ensayo.

Distribución Binomial

La distribución binomial modela el número de éxitos en una serie de n ensayos de Bernoulli independientes e idénticos, donde cada ensayo tiene solo dos resultados posibles (éxito o fracaso) y la probabilidad de éxito (p) es constante en cada ensayo.

Sea X una variable aleatoria que sigue una distribución binomial, denotada como X ~ B(n, p), donde:

  • n: Número de ensayos.
  • p: Probabilidad de éxito en un solo ensayo.

Esta variable aleatoria X puede considerarse como la suma de n variables aleatorias independientes e idénticamente distribuidas según una distribución de Bernoulli, donde cada Xᵢ es igual a 1 con probabilidad p (éxito) y 0 con probabilidad 1-p (fracaso).

Distribución de Poisson

La distribución de Poisson es una distribución de probabilidad discreta que representa el número de sucesos aleatorios e independientes que ocurren a una velocidad constante en un intervalo fijo de tiempo o espacio.

Sea X una variable aleatoria que sigue una distribución de Poisson, denotada como X ~ P(λ), donde:

  • λ (lambda): Es el número medio de ocurrencias por unidad de tiempo o espacio.

Es una distribución discreta, al igual que la binomial, por lo que puede tomar todos los valores enteros no negativos (0, 1, 2, ...).

Entradas relacionadas: