Fundamentos del Cálculo de Probabilidades y Teoría de Errores
Clasificado en Matemáticas
Escrito el en español con un tamaño de 989,59 KB
Capítulo 4: Nociones Fundamentales del Cálculo de Probabilidades
4.1.1 - Concepto de Probabilidad
De acuerdo con la definición de Laplace, la probabilidad es la relación entre el número de casos favorables y el número total de casos, siempre que cada uno sea igualmente posible.
La definición se mejora si se observa que, en la repetición de un experimento, manteniendo las condiciones constantes, se genera una dispersión discreta de valores. Por ejemplo, si se mide una determinada magnitud, la frecuencia f de una medida es la relación entre las veces que se obtuvo el evento 1 y el número total n de medidas efectuadas:
Las mediciones sucesivas de una magnitud generan un conjunto de aproximaciones. Los resultados de las distintas mediciones no son generalmente iguales. De estos resultados se obtienen las frecuencias de distribución correspondientes.
Las principales leyes de distribución son: la de Bernoulli o Binomial, la de Poisson, la normal o de Gauss, etc.
4.1.2 - Ley de Distribución Binomial o de Bernoulli
En estadística, la distribución binomial de Bernoulli es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos independientes entre sí, con una probabilidad constante p de ocurrencia de éxito durante todo el proceso.
Se denominará p a la probabilidad elemental de obtener un éxito y, q = 1 – p a la de no obtenerlo.
La probabilidad de que ocurran x eventos favorables en las n observaciones, sin importar el orden de aparición, es:
4.1.3 - Ley de Distribución de Poisson
En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta. Si en la distribución de Bernoulli el número de observaciones n tiende a infinito y la probabilidad p de los casos favorables tiende a cero, pero de manera tal que el producto np tiende a un valor finito λ, se obtiene la ley de distribución de Poisson o de los sucesos o eventos raros. Esta ley solo tiene sentido para valores enteros de x, y es sumamente útil en la Ciencia Física para el estudio de las desintegraciones radiactivas.
Ley de distribución de Poisson:
4.1.4 - Ley de Distribución Normal o de Gauss
La distribución normal es una distribución de probabilidad continua. Si en la distribución de Bernoulli el número de observaciones n tiende a infinito y la probabilidad p de los casos favorables se mantiene constante, se obtiene la ley de distribución de Gauss, de gran importancia en la teoría de errores.
4.1.5 - Principales Características de la Curva de Gauss
La función de distribución de Gauss (4.1.11) se representa gráficamente en la figura 4.1.1.
Como h es un parámetro que depende de la distribución particular (4.1.11), se puede normalizar si se toma como variable (hx) y se cumple que:
Entonces:
Constituye una curva universal. Esta curva normalizada o universal corresponde al valor medio cero y varianza unidad.
4.2 - Teoría de Errores
La teoría de errores tiene como objeto encontrar una función que, a partir de los resultados de una serie de mediciones, permita obtener la probabilidad de obtener un determinado error. Esta función se denomina función de distribución de probabilidad de los errores.
Para aplicar la Matemática Estadística a la teoría de errores de observación, es necesario determinar la ley de distribución de probabilidad. El concepto básico del esquema de Bernoulli se puede aplicar a la teoría de errores.
Si se realizan n mediciones de la magnitud m y se obtienen los valores m1, m2, m3, …, mn, los resultados numéricos de n mediciones de una determinada magnitud física, efectuadas, cada una de ellas en iguales condiciones y suponiendo eliminados los errores sistemáticos. Se admite que cada uno de los valores mi está comprendido en el intervalo de clase:
El valor es el valor medio en dicho intervalo y que este intervalo es igual a , que depende de la apreciación del instrumento de medición utilizado. Se supone que n es suficientemente grande y que cada una de las ni mediciones que caen en el intervalo i es también grande, se puede representar las correspondientes frecuencias , por la probabilidad de que la medición considerada arroje un valor que esté dentro del intervalo de clase. La distribución de Bernoulli simétrica (p=q= 1/2) es suficientemente adecuada en la mayoría de los casos.
Se resume que, en el proceso de medición, cuando se tienen en cuenta solo los errores accidentales o azarosos:
- Existe igual probabilidad de cometer un error elemental por exceso o por defecto.
- La probabilidad es constante durante todo el proceso.
- La generación de un error , con respecto al valor medio de todas las mediciones , es igual a la probabilidad de obtener n éxitos sucesivos en el esquema de Bernoulli.
4.2.1 - Teoría de Errores de Gauss
Gauss admite, dado un conjunto de n mediciones de la magnitud m, los valores m1, m2, m3, …, mn, a efectos de definir la ley de distribución de errores azarosos o accidentales los siguientes postulados:
- El valor más probable de la medida buscada es la media aritmética de los valores medidos.
4.2.4 - La Función Error
La teoría de errores que se aplica en el laboratorio es debida a Carl Gauss (1796). Para ello, él postula:
4.2.5 - Error Medio Cuadrático, Error Medio Absoluto y Error Más Probable
Se deriva:
4.2.6 - Distintas Apreciaciones Estadísticas de los Errores
Los errores pueden ser absolutos o relativos. Dentro de los primeros podemos indicar:
- a. Error Medio Cuadrático: No es la única manera de acotar al error. Se ha visto que la curva que representa de manera bastante satisfactoria a los errores accidentales o azarosos se expresa por: