La pregunta va así:
En un experimento, se encuentra que el período de tiempo de un objeto oscilante en cinco mediciones sucesivas es s, s, s, s, s. La cuenta mínima del reloj utilizada para la medición del período de tiempo es s. ¿Cuál es el porcentaje de error en la medición del período de tiempo? .
Mi intento: el error máximo en la medición de T debido a la precisión limitada del instrumento de medición es el menor recuento, es decir s. También la media de los valores medidos es
La cuenta mínima del reloj utilizada para la medición del período de tiempo es s
Esta información solo te dice que redondees al segundo decimal, como lo hiciste correctamente.
La media muestral es y la desviación estándar de la muestra es . La respuesta a la que se refiere el texto es
Pero diría que esto no es del todo correcto. El error estándar no es , pero
Dónde es el número de medidas. En nuestro caso,
Así que el error porcentual real debería ser
Actualización: una discusión más cuidadosa
Como se solicitó, intentaré explicar más por qué no necesitamos incluir explícitamente la resolución del instrumento ( ) en nuestro cálculo.
En mi discusión anterior, expliqué por qué la solución informada en su texto era , pero en realidad ese razonamiento no es realmente correcto.
La media muestral de su conjunto de datos no es realmente , pero , como escribiste correctamente. Pero como usaron (incorrectamente) la desviación estándar, , como error estándar, tenemos que redondear la media y escribir nuestro resultado como
Porque claramente sería una tontería escribir
porque si no estamos seguros del segundo decimal nos molestamos en escribir el tercero?
Pero si se usa el error estándar correcto, obtenemos
Puede notar una cosa extraña: el número de dígitos significativos ha aumentado , incluso si nuestro instrumento tuviera una resolución de solo . Esta es una propiedad de la media y es por eso que usamos la media en primer lugar: a través de la operación media, podemos aumentar el número de dígitos significativos y eludir las limitaciones de nuestro instrumento .
Tomemos por ejemplo el caso en el que tenemos dos medidas: y , con resolución de claramente. la media es , por lo que hemos ganado un lugar significativo.
Entonces puede ver que con un número infinito de medidas, nuestro resultado se vuelve exacto, independientemente de la resolución del instrumento , debido a la término en el denominador del error estándar.
Creo que estás confundiendo errores sistemáticos y aleatorios.
Sus resultados experimentales no pueden darle ninguna idea sobre el error sistemático.
Por ejemplo, puede ser que su dispositivo de cronometraje esté calibrado incorrectamente y cuando el tiempo correcto sea 1,00 segundos, su dispositivo de cronometraje dé una lectura de 1,10 segundos; cuando la hora correcta es 2,00 segundos, el cronómetro da una lectura de 2,20 segundos.
Repetir lecturas o la subdivisión más pequeña de su escala no le dará una indicación de cuál es el error sistemático.
Solo podría encontrar ese error al verificar la calibración de su dispositivo de cronometraje con un estándar confiable.
Entonces, en este ejemplo, ha encontrado una estimación del error aleatorio al evaluar la desviación estándar y eso es lo mejor que puede hacer.
vamsi3
Valerio
vamsi3
Valerio
vamsi3
Valerio