Probabilidad absoluta

Enviado por Programa Chuletas y clasificado en Matemáticas

Escrito el en español con un tamaño de 7,67 KB

Cap 4. Nociones fundamentales del cálculo de probabilidades.

4.1.1- Concepto de Probabilidad

De acuerdo con la definición de Laplace Probabilidad es la relación entre el número de casos

favorables sobre el número total de casos, siempre que cada uno sea igualmente posible.

La definición se mejora si se observa que en la repetición de un experimento, manteniendo

las condiciones constantes, se genera una dispersión discreta de valores. Por ejemplo, si se

mide una determinada magnitud, la frecuencia   f   de una medida es la relación entre las

veces que se obtuvo el evento 1, sobre el número total   n   de medidas efectuadas:

Las mediciones sucesivas de una magnitud generan un conjunto de aproximaciones. Los

resultados de las distintas mediciones no son generalmente iguales. De estos resultados se

obtienen las frecuencias de distribución correspondientes.

Las principales leyes de distribución son: la de Bernoulli o Binomial, la de

Poisson, la normal o de Gauss, etc.

4.1.2- Ley de distribución Binomial o de Bernoulli

En estadística, la distribución binomial de Bernoulli es una distribución de probabilidad

discreta que mide el número de éxitos en una secuencia de n ensayos independientes entre sí,

con una probabilidad constante p de ocurrencia de éxito durante todo el proceso.

Se denominará p a la probabilidad elemental de obtener un éxito y, q = 1 – p  a la de no

obtenerlo.

La probabilidad que ocurran x eventos favorables en las n observaciones, sin importar el orden

de  aparición es:    



4.1.3- Ley de Distribución de Poisson

 En teoría de probabilidad y estadística, la distribución de  Poisson es una distribución de

probabilidad discreta. Si en la distribución de Bernoulli el  número de observaciones n tiende a

infinito y la probabilidad p de los casos favorables tiende a  cero, pero de manera tal que el

producto np tiende a un valor finito  λ, se obtiene la ley de  distribución de Poisson o de los

sucesos o eventos raros. Esta ley sólo tiene sentido para valores enteros de x, y es sumamente

útil en la Ciencia Física para el estudio de las desintegraciones radiactivas.

Ley de distribución de Poisson :  


4.1.4- Ley de Distribución Normal o de Gauss

 La distribución Normal es una distribución de probabilidad continua. Si en la distribución de

Bernoulli el número de observaciones n tiende a infinito y la probabilidad p de los casos

favorables  se mantiene constante, se obtiene la ley de distribución de Gauss, de gran

importancia en la teoría de errores.


4.1.5- Principales carácterísticas de la curva de Gauss

La función de distribución de Gauss (4.1.11) se representa gráficamente en la figura 4.1.1.


Como h es un parámetro que depende de la distribución particular (4.1.11) se puede normalizar si se toma como variable (hx) y se cumple que:


Entonces:


Constituye una curva universal. Esta curva normalizada o universal corresponde al valor medio

cero y varianza unidad.

4.2- TEORÍA DE ERRORES

La teoría de errores tiene como objeto encontrar una función que, a partir de los resultados de una serie de mediciones, se obtenga la probabilidad de obtener un determinado error.
Esta función se denomina Función de distribución de probabilidad de los errores.

Para aplicar la Matemática Estadística a la teoría de errores de observación, es necesario determinar la ley de distribución de probabilidad. El concepto básico del esquema de Bernoulli se puede aplicar a la teoría de errores.


Si se realizan n mediciones de la magnitud m y se obtiene los valores m1, m2 ,m3 ,…mn , los resultados numéricos de n mediciones de una determinada magnitud física, efectuadas, cada una de ellas en iguales condiciones y suponiendo eliminados los errores sistemáticos. Se admite que cada uno de los valores mi está comprendido en el intervalo de clase:


El valor     es el valor medio en dicho intervalo y que este intervalo es igual a     , que depende de la apreciación del instrumento de medición utilizado. Se supone n que es suficientemente grande y que cada una de las ni mediciones que caen en el intervalo i es también grande, se puede representar las correspondientes frecuencias     , por la probabilidad de que la medición considerada arroje un valor que este dentro del intervalo de clase. La distribución de Bernoulli simétrica ( p=q= 1/2 ) es suficientemente adecuada la mayoría de los caso.

Se resume, que en el proceso de medición, cuando se tienen en cuenta sólo los errores accidentales o azarosos:

 Existe igual probabilidad de cometer un error elemental por exceso o por defecto    .

 La probabilidad es constante durante todo el proceso.

 La generación de un error        , con respecto al valor medio de todas las mediciones    , es igual a la probabilidad de obtener n éxitos sucesivos en el esquema de Bernoulli.

4.2.1- Teoría de Errores de Gauss

Gauss admite, dado un conjunto de n mediciones de la magnitud m , los valores m1, m2 , m3 ,…mn , , a efectos de definir la ley de distribución de errores azarosos o accidentales los siguientes postulados:

1.- El valor más probable de la medida buscada, es la media aritmética de los valores medidos









4.2.4- La Función Error

La teoría de errores que se aplica en el laboratorio es debida a Carl Gauss (1796). Para ello él postula:



4.2.5- Error Medio Cuadrático, Error Medio Absoluto y Error más Probable


Se deriva:



4.2.6- Distintas Apreciaciones Estadísticas de los Errores

Los errores pueden ser absolutos o relativos. Dentro los primeros podemos indicar:

a. Error Medio Cuadrático

El no es la única manera de acotar al error. Se ha visto que la curva que representa de manera bastante satisfactoria a los errores accidentales o azarosos de expresa por:




b. Error Medio

Existen otras definiciones tales como el promedio de los valores absolutos de los errores que se llama error o desviación medio absoluto.





Entradas relacionadas: