Estimadores Estadísticos: Insesgadez, Eficiencia, Consistencia y Contrastes de Hipótesis
Enviado por Programa Chuletas y clasificado en Matemáticas
Escrito el en español con un tamaño de 4,96 KB
Estimadores Estadísticos y Contrastes de Hipótesis
En estadística, es fundamental comprender las propiedades de los estimadores y cómo realizar contrastes de hipótesis. A continuación, se detallan los conceptos clave:
Propiedades de los Estimadores
- Insesgadez: Un estimador es insesgado si su valor esperado coincide con el parámetro a estimar. Esto significa que su función de densidad (o función de probabilidad en caso discreto) está centrada en el parámetro a estimar, proporcionando valores "alrededor" del parámetro.
- Eficiencia: Un estimador es eficiente si su varianza coincide con la cota de Cramer-Rao. En este caso, será el estimador de menor varianza entre los estimadores insesgados.
- Consistencia: Un estimador es consistente si converge en probabilidad hacia el parámetro que estima. Es decir, a partir de un tamaño muestral suficientemente grande, es muy probable que el valor del estimador difiera poco del parámetro a estimar. Matemáticamente, esto se expresa como:
- Límite cuando n tiende a infinito de la esperanza = estimador
- Límite cuando n tiende a infinito de la varianza = 0
Pivotes y Distribuciones
Los pivotes son funciones de la muestra y del parámetro desconocido cuya distribución no depende del parámetro. Algunos ejemplos comunes incluyen:
- Distribución Normal:
- Para la media (μ) con desviación estándar (σ) conocida y para la distribución de Bernoulli: (^p - p) / √( ^p * (1 - ^p) / n )
- Para la media (μ) con desviación estándar (σ) desconocida y para datos pareados con diferencia media (D̄): (D̄ - μd) / (Scd / √n) → N(0,1)
- Para la varianza (σ2) de una distribución normal: Intervalo de Confianza (IC) para σ2
- Sin Asumir Normalidad:
- Todo conocido.
- Normal con desviación estándar (σ) desconocida pero igual.
- Normal con desviaciones estándar (σ) desconocidas y distintas.
- Ratio de varianzas.
Determinación de Tamaños Muestrales
El tamaño muestral es crucial para obtener resultados precisos. Bajo normalidad:
- Con varianza conocida: n = (Zα/2 * σ / E)2
- Con varianza desconocida: n = (tα/2 * Sc / E)2
- Para proporciones: n = (Zα/2)2 * p̂ * (1 - p̂) / E2
Donde:
- Sx2: Cuasi desviación típica al cuadrado (cuasi varianza)
- Sc: Desviación típica muestral
- σ2: Varianza
Teorema Central del Límite (TCL)
El Teorema Central del Límite es fundamental para aproximar distribuciones. Ni Bernoulli ni Poisson:
- Xi ≈ N(n * μ, σ * √n) → (∑Xi - n * μ) / (σ * √n) → N(0,1)
- Media ≈ N(μ, σ / √n) → (Media - μ) / (σ / √n) → N(0,1)
Casos Particulares
- Distribución Binomial: X → B(p)
- ∑Xi → N(n * p, √(n * p * q)) → (∑Xi - n * p) / √(n * p * q) ≈ N(0,1)
- Media ≈ N(p, √(p * q / n)) → (Media - p) / √(p * q / n) ≈ N(0,1)
- Distribución de Poisson: X → P(λ)
- ∑Xi ≈ N(n * λ, √(n * λ)) → (∑Xi - n * λ) / √(n * λ) ≈ N(0,1)
- Media ≈ N(λ, √(λ / n)) → (Media - λ) / √(λ / n) ≈ N(0,1)
Contrastes de Hipótesis
Población Normal con σ Conocida
Pivote Ib)
- H0: μ ≤ μ0
- H1: μ > μ0
- Región Crítica: C = {z* > zα}
- Valor p: P(H0, z* > zobs)
- H0: μ = μ0
- H1: μ ≠ μ0
- Región Crítica: C = {|z*| > zα/2}
- Valor p: 2 * P(H0, z* > |zobs|)
Población Normal con σ Desconocida
Pivote Ic)
Similar al caso anterior, pero utilizando la distribución t en lugar de la distribución normal (z).
Contraste para la Varianza
Pivote 1d)
- H0: σ2 ≤ σ02
- H1: σ2 > σ02
- Región Crítica: C = {χ2 > χ21-α}
- Valor p: P(χ2n-1 > χ2)
Contraste para una Proporción
- H0: p ≤ p0
- H1: p > p0
- Región Crítica: C = {∑Xi > Kα}
- Valor p: P(H0, ∑Xi > ∑Xi obs)