Estimadores Estadísticos: Insesgadez, Eficiencia, Consistencia y Contrastes de Hipótesis

Enviado por Programa Chuletas y clasificado en Matemáticas

Escrito el en español con un tamaño de 4,96 KB

Estimadores Estadísticos y Contrastes de Hipótesis

En estadística, es fundamental comprender las propiedades de los estimadores y cómo realizar contrastes de hipótesis. A continuación, se detallan los conceptos clave:

Propiedades de los Estimadores

  • Insesgadez: Un estimador es insesgado si su valor esperado coincide con el parámetro a estimar. Esto significa que su función de densidad (o función de probabilidad en caso discreto) está centrada en el parámetro a estimar, proporcionando valores "alrededor" del parámetro.
  • Eficiencia: Un estimador es eficiente si su varianza coincide con la cota de Cramer-Rao. En este caso, será el estimador de menor varianza entre los estimadores insesgados.
  • Consistencia: Un estimador es consistente si converge en probabilidad hacia el parámetro que estima. Es decir, a partir de un tamaño muestral suficientemente grande, es muy probable que el valor del estimador difiera poco del parámetro a estimar. Matemáticamente, esto se expresa como:
    • Límite cuando n tiende a infinito de la esperanza = estimador
    • Límite cuando n tiende a infinito de la varianza = 0

Pivotes y Distribuciones

Los pivotes son funciones de la muestra y del parámetro desconocido cuya distribución no depende del parámetro. Algunos ejemplos comunes incluyen:

  1. Distribución Normal:
    • Para la media (μ) con desviación estándar (σ) conocida y para la distribución de Bernoulli: (^p - p) / √( ^p * (1 - ^p) / n )
    • Para la media (μ) con desviación estándar (σ) desconocida y para datos pareados con diferencia media (D̄): (D̄ - μd) / (Scd / √n) → N(0,1)
    • Para la varianza (σ2) de una distribución normal: Intervalo de Confianza (IC) para σ2
  2. Sin Asumir Normalidad:
    • Todo conocido.
    • Normal con desviación estándar (σ) desconocida pero igual.
    • Normal con desviaciones estándar (σ) desconocidas y distintas.
    • Ratio de varianzas.

Determinación de Tamaños Muestrales

El tamaño muestral es crucial para obtener resultados precisos. Bajo normalidad:

  • Con varianza conocida: n = (Zα/2 * σ / E)2
  • Con varianza desconocida: n = (tα/2 * Sc / E)2
  • Para proporciones: n = (Zα/2)2 * p̂ * (1 - p̂) / E2

Donde:

  • Sx2: Cuasi desviación típica al cuadrado (cuasi varianza)
  • Sc: Desviación típica muestral
  • σ2: Varianza

Teorema Central del Límite (TCL)

El Teorema Central del Límite es fundamental para aproximar distribuciones. Ni Bernoulli ni Poisson:

  • Xi ≈ N(n * μ, σ * √n) → (∑Xi - n * μ) / (σ * √n) → N(0,1)
  • Media ≈ N(μ, σ / √n) → (Media - μ) / (σ / √n) → N(0,1)

Casos Particulares

  • Distribución Binomial: X → B(p)
    • ∑Xi → N(n * p, √(n * p * q)) → (∑Xi - n * p) / √(n * p * q) ≈ N(0,1)
    • Media ≈ N(p, √(p * q / n)) → (Media - p) / √(p * q / n) ≈ N(0,1)
  • Distribución de Poisson: X → P(λ)
    • ∑Xi ≈ N(n * λ, √(n * λ)) → (∑Xi - n * λ) / √(n * λ) ≈ N(0,1)
    • Media ≈ N(λ, √(λ / n)) → (Media - λ) / √(λ / n) ≈ N(0,1)

Contrastes de Hipótesis

Población Normal con σ Conocida

Pivote Ib)

  • H0: μ ≤ μ0
  • H1: μ > μ0
  • Región Crítica: C = {z* > zα}
  • Valor p: P(H0, z* > zobs)
  • H0: μ = μ0
  • H1: μ ≠ μ0
  • Región Crítica: C = {|z*| > zα/2}
  • Valor p: 2 * P(H0, z* > |zobs|)

Población Normal con σ Desconocida

Pivote Ic)

Similar al caso anterior, pero utilizando la distribución t en lugar de la distribución normal (z).

Contraste para la Varianza

Pivote 1d)

  • H0: σ2 ≤ σ02
  • H1: σ2 > σ02
  • Región Crítica: C = {χ2 > χ21-α}
  • Valor p: P(χ2n-1 > χ2)

Contraste para una Proporción

  • H0: p ≤ p0
  • H1: p > p0
  • Región Crítica: C = {∑Xi > Kα}
  • Valor p: P(H0, ∑Xi > ∑Xi obs)

Entradas relacionadas: