Muestra aleatoria simple y estimación de parámetros poblacionales
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 9,31 KB
Muestra aleatoria simple: Sea X la variable aleatoria correspondiente a una población con función de distribución F(x). Si las variables aleatorias X1, X2, …, Xn son independientes y tienen la misma función de distribución F(x), que la de la distribución de la población, entonces las variables aleatorias X1, X2, …, Xn forman un conjunto de variables aleatorias independientes e idénticamente distribuidas que constituyen una muestra aleatoria simple de tamaño n de la población F(x).
Parámetro poblacional: Son las características numéricas de la distribución de la población, media, varianza, proporción poblacional.
Estadístico: Un estadístico es cualquier función real de las variables aleatorias que integran la muestra, es decir, es una función de las observaciones muestrales, la cual no contiene ningún valor o parámetro desconocido.
Estimador: El estimador del parámetro poblacional 0 es una función de las variables aleatorias u observaciones muestrales y se representa por:
Estimación: Para una realización particular de la muestra, se obtiene un valor específico del estimador que recibe el nombre de estimación.
Diferencias entre estimador y estimación: Utilizaremos el término estimador cuando nos referimos a la función de variables aleatorias muestrales X1, X2, …, Xn, y los valores que toma la función estimador para las diferentes realizaciones o muestras concretas serán estimaciones. El estimador es un estadístico y por tanto, una variable aleatoria y el valor de esta variable aleatoria para una muestra concreta será la estimación puntual.
Función de distribución empírica: Consideremos una población con una función de distribución F(x) y sean (X1, X2, …, Xn) los valores observados correspondientes a una muestra aleatoria simple procedente de esa población y designamos por N(x) el número de valores observados que son menores o iguales que x. Entonces definimos la función de distribución empírica de la muestra, que la denotaremos por Fn(x) como:
Método de los momentos: El método consiste en igualar tantos momentos muestrales como parámetros desconocidos haya, a los correspondientes momentos poblacionales, que son función de dichos parámetros. La solución al sistema resultante es el estimador por el método de los momentos de los parámetros de la distribución.
Método de máxima verosimilitud: Consiste en elegir como estimador del parámetro desconocido 0 el valor 0(X1, X2, …, Xn) que hace máxima la función de verosimilitud de la muestra L(X1, X2, …, Xn;0). Es decir, consiste en elegir el valor 0(X1, X2, …, Xn) tal que:
L(X1, X2, …, Xn;0) = max L(X1, X2, …, Xn;0)
El estimador 0(X1, X2, …, Xn) se llama estimador de máxima verosimilitud. Para obtenerlo:
1. Obtenemos L (X1, X2, …, Xn;0) = Π(Xi;0)
2. Calculamos en Ln L (X1, X2, …, Xn;0)
3. Resolvemos Ln L (X1, X2, …, Xn;0) = 0
Método de la cantidad pivotal: (para la construcción de intervalos de confianza). Sea una población con función de distribución F(x;0) en donde 0 es un parámetro desconocido, que toma valores en el espacio paramétrico Ω. Este método consiste en la obtención de una cantidad pivotal o simplemente pivote que verifique las siguientes condiciones:
1. La cantidad pivotal o pivote T(X1, X2, …, Xn; 0) es una función de las observaciones muestrales y del parámetro 0, de tal manera que para cada muestra sólo dependerá de 0.
2. La distribución muestral de la cantidad pivotal o pivote T(X1, X2, …, Xn; 0) no depende de 0.
Nivel de confianza: La probabilidad de que el parámetro 0 tome algún valor en el intervalo (0,0), es igual a 1 – α.
Estimador insesgado: Diremos que el estadístico 0 = g(X1, X2, …, Xn) es un estimador insesgado o centrado del parámetro 0 si E 0 = 0 para todos los valores de 0, y entonces: Sesgo 0 = E 0 – 0 = 0.
Estimadores eficientes: Diremos que un estimador 0 del parámetro poblacional 0, es eficiente si es insesgado y además su varianza alcanza la cota Frechet-Cramer-Rao.
Contraste de bondad de ajuste y tablas de contingencia.
Utilizamos la distribución X' de Pearson para:
Contrastar si una supuesta distribución se ajusta a un conjunto de datos. Contrastes de bondad de ajuste.
Contrastar si existe dependencia entre dos características de la misma población.
Contraste de independencia.
Contrastar si varias muestras proceden de la misma población. Contraste de Homogeneidad.
Contrastes de bondad de ajuste: se emplea para verificar si un conjunto de datos o una muestra aleatoria procede de una población con una cierta distribución de probabilidad.
Existen diferentes contrastes de bondad de ajuste:
o El contraste X2 de bondad de ajuste,
Existen dos casos:
1. Cuando los parámetros de la distribución de la población son todos conocidos.
Consideramos una muestra aleatoria de tamaño n y pretendemos contrastar la hipótesis:
Ha = la muestra aleatoria procede de una población con función de distribución Fa(x).
H0 = La muestra no procede de la población con función de distribución Fa(x).
Ha = F(x) = Fo(x)
H0 = F(x) ≠ Fa(x)
P(¡) = P{X ∈ S} = Σp¡ = 1
2. Contraste X2 de bondad de ajuste cuando hay que estimar algunos parámetros de la población.
Ha: F(x) = Fa(x; θ, θ.)
H0: F(x) ≠ Fo(x; θ, θ.)
Donde los parámetros θ, .....θ. son desconocidos.
En resumen, las fases a realizar en este contraste de bondad de ajuste serán:
1) Formulación de las hipótesis.
2) Estimación, si procede, de los parámetros desconocidos, utilizando el método de máxima verosimilitud. Cálculo de las probabilidades teóricas P. obtención de las frecuencias esperadas np, y reagrupamiento, si procede, de las clases hasta satisfacer la condición np ≥ 5.
3) Selección del nivel de significación.
4) Determinación de la región crítica.
5) Obtención del valor experimental.
6) Regla del valor experimental.
o El contraste de Kolmogorov-Smirnov
Nuevo test de bondad de ajuste, que no necesita que las observaciones muestrales se agrupen en intervalos o clases y que es aplicable a muestras pequeñas.
Ha = la muestra aleatoria procede de una población con función de distribución Fo(x).
Comparación entre el test X' de Pearson y el test de Kolmogorov-Smirnov.
1) En general el test X' de Pearson es más complicado de aplicar que el test de Kolmogorov-Smirnov.
2) El test X' utiliza datos agrupados en intervalos o clases, mientras que el test de Kolmogorov-Smirnov utiliza los datos observados directamente.
3) El test X' está pensado para grandes muestras y su distribución es aproximada. Sin embargo, el test de Kolmogorov-Smirnov se puede utilizar para muestras pequeñas.
4) El test X' permite estimar los parámetros desconocidos, lo cual no es posible en los test de Kolmogorov-Smirnov, salvo para el caso de la distribución normal.
5) En general la potencia del test de Kolmogorov-Smirnov es mayor que la potencia del test X' aunque n se hace suficientemente grande las potencias tienden a coincidir.
6) El test X2 se aplica tanto en poblaciones discretas como continuas mientras que el test de Kolmogorov-Smirnov se requiere que la población de donde se extrae la muestra sea continua.
• El contraste de normalidad de Lilliefors.
La hipótesis nula establece que la población pertenece a la familia de distribuciones normales, sin especificar la media o la varianza de la distribución normal.
Ha: La muestra aleatoria procede de una población normal, con media y varianza desconocida.
H0: La muestra no procede de una población normal.