Tengo varias medidas de la misma cantidad (en este caso, la velocidad del sonido en un material). Cada una de estas medidas tiene su propia incertidumbre.
Como son medidas de la misma cantidad, todos los valores de son aproximadamente iguales. Puedo, por supuesto, calcular la media:
¿Cuál sería la incertidumbre en ¿ser? En el límite de que todos los son pequeños entonces debe ser la desviación estándar de la . Si el son grandes entonces debería ser algo como , ¿Correcto?
Entonces, ¿cuál es la fórmula para combinar estas incertidumbres? No creo que sea el que se da en esta respuesta (aunque puedo estar equivocado) porque no parece que se comporte como esperaría en los límites anteriores (específicamente, si el son cero, entonces esa fórmula da , no la desviación estándar de la ).
Cuando combina medidas con diferentes incertidumbres, tomar la media no es lo correcto. (Bueno, es suficiente si las incertidumbres son casi las mismas).
Lo correcto es el análisis de chi-cuadrado, que otorga mayor peso a las mediciones más precisas. Así es como lo haces:
Usted elige numéricamente el "valor verdadero" que minimiza . Esa es tu mejor conjetura.
A continuación, utilice la distribución de chi-cuadrado para calcular el valor p (suponiendo que la mejor suposición sea correcta). (Los grados de libertad son uno menos que el número de observaciones). Esto le dirá si sus incertidumbres eran razonables o si las subestimó. Por ejemplo, si una medida es , y otra medida es , entonces probablemente subestimó sus incertidumbres.
SI subestimó sus incertidumbres, lo que no es inusual en la práctica, entonces lo correcto es averiguar dónde se equivocó en su estimación de la incertidumbre y corregir el error. Pero también hay una alternativa más perezosa, que a menudo es lo suficientemente buena si hay poco en juego: puede aumentar todas las incertidumbres por el mismo factor hasta que obtenga un valor razonable. valor p, digamos 0.5.
Bien, ahora tiene incertidumbres de medición plausibles, ya sea porque las tuvo desde el principio o porque las amplió. A continuación, intente variar el "valor verdadero" hasta que el valor p caiga por debajo, por ejemplo, del 5 %. Este procedimiento le brinda barras de error de límite inferior y límite superior en su medición final de mejor estimación.
No he hecho esto en muchos años, lo siento por cualquier mal recuerdo. Creo que se discute en Bevington & Robinson.
Parece que estás mezclando varios conceptos aquí.
En particular, está interesado en el error de una media, se refiere al error de una suma (que necesita en el camino hacia el error de una media) y habla sobre la desviación estándar.
(Todo funciona aquí en la versión ingenua asumiendo una correlación cero).
Error de una suma de cantidades inciertas: y
Error de la media de cantidades inciertas: Dividir la suma por el número de medidas. El número de mediciones es definitivo , no está seguro de cuántas cifras ha procesado, por lo que esto es solo una división.
Si usted es un individuo Si varían considerablemente, es mejor utilizar la media ponderada del error .
Desviación estándar : esta es una cifra que expresa la dispersión de usted s, y se calcula sin referencia a su s. Generalmente representado con y llamamos la "varianza".
Si ha estimado su Si es correcto, entonces debería haber una relación entre la desviación estándar y el error en la media, pero eso es para otro día.
Te quejas en tu pregunta de que el error de la media no llega a la desviación estándar en el límite que , pero eso se debe a que representan conceptos diferentes. Es posible tener un experimento en el que las mediciones individuales se extraigan de una distribución amplia pero se conozcan muy bien (desviación estándar alta, pero incertidumbres individuales bajas) o en el que vuelva a medir la misma cantidad subyacente con instrumentos deficientes (desviación estándar cero, pero largo s). En muchos sentidos, los casos se pueden tratar con las mismas matemáticas, pero son diferentes.
dmckee --- gatito ex-moderador
usuario40838