Una pregunta sobre el análisis de errores, ¿ayuda por favor?

Así que en clase estamos haciendo un experimento sobre el período de un péndulo en el que se mide el período de oscilación con un cronómetro.

Ahora, la forma en que el manual de laboratorio muestra cómo hacer el análisis de errores es calculando la media y obteniendo la desviación estándar. Tengo esto mucho. Sin embargo, en otro lugar leí que el error en las mediciones es la unidad más pequeña posible en el aparato de medición, por ejemplo, en una regla cuya unidad más pequeña es 1 mm, el error/incertidumbre en cualquier medición sería 1 mm (o 0,5 mm, dice en otra parte, Supongo que es la unidad más pequeña en la que te sientes seguro estimando).

Entonces, si tuviera que tomar 10 medidas de un trozo de cuerda, cada medida tendría una incertidumbre de 1 mm. Ahora, cuando calculé el promedio de estos, la incertidumbre sería de 1 mm o tendría que usar las fórmulas para la propagación de errores para calcular la incertidumbre del promedio. ¿O ignoramos este 1 mm y simplemente calculamos la media y la desviación estándar?

¿Es cierto que la desviación estándar incluiría todas las fuentes de incertidumbre, es decir, la incertidumbre de medición de 1 mm y otras? Si es así, ¿cuál es el punto de tomar notas del error de medición en primer lugar cuando se incluye en el análisis estadístico?

¿Alguien puede ayudarme? Sé que estoy cometiendo un error fundamental, pero estoy luchando para descubrirlo.

"Ahora, la forma en que el manual de laboratorio muestra cómo hacer el análisis de errores es calculando la media y obteniendo la desviación estándar. Obtengo esto".: Este es probablemente el ejemplo más básico de estimación estadística, pero no lo tome como una ley universal: no para cada medición repetida tiene que tomar la media y no para cada medición repetida la incertidumbre puede ser evaluada por la desviación estándar.
"Sin embargo, en otra parte leí que el error en las medidas es la unidad más pequeña posible en el aparato de medida": Esto, en cambio, es completamente erróneo: donde sea que lo leas, olvídalo y tira la fuente a la chimenea.
www2.fiu.edu/~dbrookes/ExperimentalUncertaintiesCalculus.pdf La sección 1.1 explica lo que quiero decir en caso de que no lo haya explicado claramente
Tenga en cuenta que su documento vinculado, aunque incorrecto en muchos puntos, no dice lo que ha informado en la pregunta.
"Cada instrumento de medición tiene una incertidumbre inherente que está determinada por la precisión del instrumento. Este valor se toma como la mitad del incremento más pequeño de la escala del instrumento". y el mío: "Sin embargo, en otro lugar leí que el error en las mediciones es la unidad más pequeña posible en el aparato de medición, así que, por ejemplo, en una regla métrica cuya unidad más pequeña es 1 mm, el error/incertidumbre en cualquier medición sería 1 mm (o 0,5 mm, dice en otra parte, supongo que es la unidad más pequeña en la que se siente seguro al estimar) ."

Respuestas (1)

Hay una diferencia entre incertidumbre y error. La incertidumbre es el error máximo posible o máximo probable. Error, es el error real en la medición.

En el ejemplo de la vara métrica, la incertidumbre es una cuestión de confianza en la medida. Algunos afirmarán que solo puede medir hasta 1 mm porque ese es el incremento más pequeño en el dispositivo. En realidad, la práctica normal es bajar un nivel, es decir, normalmente se considera que puede estimar con precisión un nivel más de lo que muestra la regla del metro, por lo que puede medir hasta la décima de milímetro más cercana. A menudo, reconocer que este último dígito era una estimación, diría que la incertidumbre era +/- 0,3 mm en lugar de +/- 0,1 mm. Con cualquier dispositivo digital, no tiene esta capacidad de extrapolar un nivel más, por lo que debe tomar la lectura directamente del dispositivo y luego conocer la incertidumbre inherente del dispositivo. Solo porque un cronómetro digital, por ejemplo, da una lectura de 0,001 segundos, el dispositivo en realidad puede contar 0. 003 a la vez dando una incertidumbre en la lectura superior al dígito menos significativo. Sin embargo, esos números son la incertidumbre en el dispositivo, el error real de las lecturas.

Sin embargo, para calcular realmente cuál es el error, se realiza un análisis estadístico de los datos, como la media y la desviación estándar. Como ejemplo, supongamos que 100 personas miden el mismo objeto con la misma regla métrica. La incertidumbre de la regla métrica es la misma para cada uno, supongamos que acepta los +/- 0,3 mm que propuse. Pero no todos obtendrán la misma medida. Algunos medirán mal. Algunos estimarán el último dígito de manera diferente, etc. Sin embargo, la mayoría debería estar dentro de ese +/- 0,3 mm. Luego obtendría su media y desviación estándar para obtener lo que consideró la medición real y el error calculado en esa medición. Muchas veces, también refinaría eso descartando cualquier medida que estuviera más de 0,3 mm de diferencia de las demás como errores de medición, o tal vez esas más de 2 desviaciones estándar, etc.