Fundamentos de Modelos Probabilísticos Continuos y Criterios de Estimación Estadística

Enviado por Programa Chuletas y clasificado en Matemáticas

Escrito el en español con un tamaño de 5,59 KB

Modelos Probabilísticos Continuos

Distribución Uniforme Continua (DN Uniforme Continua)

Llamada también distribución rectangular por la forma que tiene su gráfico.

Distribución Normal (DN Normal)

En estadística moderna, es considerada la distribución más importante, ya que la mayoría de los eventos naturales, sociales e industriales se distribuyen de esta manera. Si un experimento binomial bien planificado se repite una gran cantidad de veces y se grafica el histograma de probabilidades, este da origen a una curva en forma de campana llamada curva normal o campana de Gauss.

Características de la Curva Normal

  • Se caracteriza por ser simétrica; por lo tanto, las principales medidas de tendencia central coinciden en el mismo valor.
  • Es ascendente desde $–\infty$ hasta la coordenada $(\mu)$.
  • Es asintótica al eje de $X$.

A esta curva también se la conoce como Ley Normal de los Errores, ya que errores pequeños con respecto a $\mu$ tienen una alta probabilidad de ocurrencia, y errores grandes, una baja probabilidad de ocurrencia.

Debido a lo complejo de la función de densidad de la distribución normal, en su lugar se utiliza la Distribución Normal Estándar ($Z$), que evita el proceso de integración, ya que tiene tablas previamente determinadas que representan áreas bajo la curva.

Uso de Tablas Normales Estándar

Las tablas normales estándar permiten resolver dos tipos de problemas:

  1. Área bajo la curva dado un valor estándar ($Z$).
  2. Determinar a qué valor estándar ($Z$) pertenece una determinada área bajo la curva.

Distribución de la Media Muestral (Teorema del Límite Central)

De acuerdo con el Teorema del Límite Central, si de una población se extraen $n$ muestras de forma aleatoria, entonces los estadísticos determinados en la muestra se distribuyen de la misma manera que el parámetro que estiman. Es decir, si la muestra es aleatoria, los estadísticos que se determinan en ella también son variables aleatorias y, por lo tanto, tienen distribuciones probabilísticas.

Estandarización de Variables

Una variable se puede estandarizar cuando se distribuye normalmente. Dado que la media muestral se distribuye normalmente, significa que puede someterse a un proceso de estandarización donde se genera la variable $Z$ o normal estándar.

Aproximación Binomial a la Normal

Si la distribución binomial se aproxima a la normal, implica que puede someterse a un proceso de estandarización, dando origen a una nueva variable $Z$ o normal estándar.

Estimación Estadística y Muestreo

Introducción a la Estimación

Por estimación se entiende el proceso a través del cual se aproxima la información de un parámetro mediante la información que proporcionan los estadísticos. De aquí la importancia de determinar correctamente la muestra.

Tipos de Estimación

Estimación Puntual

Esta estimación establece que el estadístico estima directamente al parámetro en la población con las siguientes consecuencias:

  • Media muestral ($\bar{x}$) estima la media poblacional ($\mu$).
  • Varianza muestral ($s^2$) estima la varianza poblacional ($\sigma^2$).
  • Proporción muestral ($\hat{p}$) estima la proporción poblacional ($p$).

De acuerdo con el Teorema del Límite Central, si de una misma población se extraen muestras aleatorias y en estas muestras se determinan estadísticos, los estadísticos son variables aleatorias que se distribuyen de la misma manera que el parámetro. Por lo tanto, es muy poco probable que estos coincidan en el mismo valor, lo cual pone en entredicho lo establecido por este tipo de estimación. Además, no está acompañada de un término de confiabilidad. Por esta razón, esta estimación por sí sola no se sugiere.

Estimación de Máxima Verosimilitud

Esta estimación busca todos los estimadores posibles que tiene el mismo parámetro y selecciona el más probable.

Estimación por Intervalos (Intervalica)

Esta estimación no establece cuál es el valor exacto del parámetro, sino que establece por dónde se mueve este con una confiabilidad determinada (generalmente expresada como $(1-\alpha)\times 100\%$).

Es la más recomendada entre los tipos de estimación.

Criterios para un Buen Estimador

Independientemente del tipo de estimación que se use, se deben establecer criterios que permitan seleccionar un buen estimador. (Recordatorio: Estimador es la regla que define la estadística; Estimado es el resultado obtenido al aplicar la regla).

Insesgamiento (Imparcialidad)

Se refiere al hecho de que la esperanza matemática del estimador es igual al parámetro que estima. Esto se entiende como aquel estimador que más se aproxima o menos se aleja del parámetro que estima. Es un criterio bueno, pero no es el único que se debe considerar.

Insesgado de Mínima Varianza

Es aquel estimador que, además de ser insesgado, presenta la menor varianza de todos los estimadores que estiman al mismo parámetro. Se llama también estimador eficiente.

Estimador Suficiente

Un estimador es suficiente si para estimar al parámetro utiliza toda la información de la muestra.

Consistencia (Robustez)

Este criterio establece que a medida que el tamaño de la muestra aumenta, el estimador se aproxima más al parámetro que estima.

Entradas relacionadas: