Análisis de errores que implican errores aleatorios

La pregunta va así:

En un experimento, se encuentra que el período de tiempo de un objeto oscilante en cinco mediciones sucesivas es 0.52 s, 0,56 s, 0.57 s, 0.54 s, 0.59 s. La cuenta mínima del reloj utilizada para la medición del período de tiempo es 0.01 s. ¿Cuál es el porcentaje de error en la medición del período de tiempo? T .

Mi intento: el error máximo en la medición de T debido a la precisión limitada del instrumento de medición es el menor recuento, es decir 0.01 s. También la media de los valores medidos es

0.52 + 0,56 + 0.57 + 0.54 + 0.59 5 = 0.556
que cuando se redondea a 2 cifras significativas es 0,56 . Además, la desviación estándar se puede calcular después de redondear como 0.02 , que puede ser una buena estimación del error aleatorio. Por lo tanto, el valor de T Se puede escribir como 0,56 ± ( 0.01 + 0.02 ) = 0,56 ± 0.03 s. Por lo tanto, el porcentaje de error debe ser
0.03 0,56 × 100 5.357
Por lo tanto, el porcentaje de error debe ser 5.357 %

Pero la respuesta dada en el libro es 3.57 % ¿Cómo es esto posible? ¿Dónde cometí un error?

Respuestas (2)

La cuenta mínima del reloj utilizada para la medición del período de tiempo es 0.01 s

Esta información solo te dice que redondees al segundo decimal, como lo hiciste correctamente.

La media muestral es m = 0,56 y la desviación estándar de la muestra es σ = 0.02 . La respuesta a la que se refiere el texto es

σ m = 0.0357 = 3.57 %

Pero diría que esto no es del todo correcto. El error estándar no es σ , pero

σ norte

Dónde norte es el número de medidas. En nuestro caso,

σ norte = 0.009

Así que el error porcentual real debería ser

0.009 0,56 = 0.0161 = 1.61 %

Actualización: una discusión más cuidadosa

Como se solicitó, intentaré explicar más por qué no necesitamos incluir explícitamente la resolución del instrumento ( 0.01 / 2 ) en nuestro cálculo.

En mi discusión anterior, expliqué por qué la solución informada en su texto era 35.7 % , pero en realidad ese razonamiento no es realmente correcto.

La media muestral de su conjunto de datos no es realmente m = 0,56 , pero m = 0.0556 , como escribiste correctamente. Pero como usaron (incorrectamente) la desviación estándar, 0.02 , como error estándar, tenemos que redondear la media y escribir nuestro resultado como

0,56 ± 0.02

Porque claramente sería una tontería escribir

0.556 ± 0.02

porque si no estamos seguros del segundo decimal nos molestamos en escribir el tercero?

Pero si se usa el error estándar correcto, obtenemos

0.556 ± 0.009

Puede notar una cosa extraña: el número de dígitos significativos ha aumentado , incluso si nuestro instrumento tuviera una resolución de solo 0.01 / 2 = 0.005 . Esta es una propiedad de la media y es por eso que usamos la media en primer lugar: a través de la operación media, podemos aumentar el número de dígitos significativos y eludir las limitaciones de nuestro instrumento .

Tomemos por ejemplo el caso en el que tenemos dos medidas: 2 y 7 , con resolución de 0.5 claramente. la media es 9 / 2 = 4.5 , por lo que hemos ganado un lugar significativo.

Entonces puede ver que con un número infinito de medidas, nuestro resultado se vuelve exacto, independientemente de la resolución del instrumento , debido a la norte término en el denominador del error estándar.

¡Lo dudo! Supongamos que en lugar de múltiples lecturas, solo tomo una. Entonces, ¿debería decir que no hay ningún error? Seguramente, la precisión del instrumento no solo indica qué dígitos redondear, sino también el error. Y, por supuesto, la idea de redondear a dos cifras significativas es evidente a partir de los propios valores medidos dados.
El caso en el que solo tiene una lectura es diferente. En ese caso, lo único posible que puede decir es que el error es la mitad del valor del último dígito (en nuestro caso, sería 0.005 ), porque por ejemplo 0,56 podría ser 0.55511 o 0.55999 si se mide con un instrumento mejor.
Sí, pero también en el caso de lecturas múltiples, cada lectura conlleva un error como usted describió. Entonces, ¿deberíamos ignorarlo?
Eso no es realmente un error: no se debe a fluctuaciones en el proceso de medición, es un límite de su instrumento. Sería mejor llamarlo la resolución de su instrumento. De todos modos, el efecto de la resolución ya está incorporado en el error estándar, por lo que no es necesario contabilizarlo por separado. Esto es evidente por el hecho de que el error estándar va a 0 cuando norte tiende al infinito, mientras que la resolución es siempre la misma.
¡No lo entiendo! ¿Cómo se incorpora el efecto de la resolución al error estándar? Y si norte tiende a infinito, entonces concluiría que la media de norte lecturas es exactamente el valor verdadero 'independientemente' de la resolución del instrumento?
Ampliaré la respuesta e intentaré explicar esto más claramente.

Creo que estás confundiendo errores sistemáticos y aleatorios.
Sus resultados experimentales no pueden darle ninguna idea sobre el error sistemático.
Por ejemplo, puede ser que su dispositivo de cronometraje esté calibrado incorrectamente y cuando el tiempo correcto sea 1,00 segundos, su dispositivo de cronometraje dé una lectura de 1,10 segundos; cuando la hora correcta es 2,00 segundos, el cronómetro da una lectura de 2,20 segundos.
Repetir lecturas o la subdivisión más pequeña de su escala no le dará una indicación de cuál es el error sistemático.
Solo podría encontrar ese error al verificar la calibración de su dispositivo de cronometraje con un estándar confiable.

Entonces, en este ejemplo, ha encontrado una estimación del error aleatorio al evaluar la desviación estándar y eso es lo mejor que puede hacer.

¡Sí! Mi terminología estaba equivocada. Editado. Pero incluso ahora, ¿cómo INCORPORO el error debido a la precisión limitada del instrumento? Seguramente, si utilizara un instrumento más preciso, mi estimación del error aleatorio debería ser menor. Pero, ¿cómo puedo manipular esto matemáticamente?
Solo usa la desviación estándar. Si usó un instrumento con una división de escala más fina, ¿esperaría que la desviación estándar fuera menor?
Definitivamente no es que la desviación estándar sea más baja, pero dudo que la afirmación de que una división de escala más fina no desempeñe ningún papel en el error que se cometió en nuestro experimento. Por cierto, ¿mi respuesta es correcta?