Imagina que estamos midiendo el período de un péndulo usando un cronómetro
El cronómetro tiene una incertidumbre instrumental inerente (ej. 0.1s) tengamos este dato en cuenta
Debido al error aleatorio (supongamos que no hay error sistemático en este ejemplo) terminamos con una serie de valores para el período del péndulo:
Después de realizar un "análisis estadístico" en esta muestra de medidas, encontramos la media de la muestra, , y el error estándar (desviación estándar de la media)
Algunos autores (como Hughes & Hase en el libro "Measurements and their Uncertainties") reportarían (con los dígitos decimales apropiados) el valor de la medida como:
Pero, ¿no deberíamos incluir también la incertidumbre instrumental del cronómetro al reportar este valor?
Pensé que se debía a que esta incertidumbre (0,1 s) ya está de algún modo en Pero esto es sólo una conjetura
Y si debemos incluir esta incertidumbre, ¿cómo hacerlo?
Como esto:
?
Gracias de antemano y perdón por cualquier error gramatical.
*Actualización de progreso: actualmente estoy leyendo 'Una introducción a la incertidumbre en la medición' de Les Kirkup y Bob Frenkel en un intento de responder mi propia pregunta debido a la falta de respuestas.
**Gracias por todas las respuestas
Consideremos el resultado de combinar dos distribuciones gaussianas del período de medición (se supone el valor exacto ) con desviación y :
Para investigar el efecto combinado de estos dos gaussianos, consideramos una representación de medición de la ecuación (1), y luego la gaussiana de la ecuación (2) da la medida final con promedio en . La probabilidad total correlacionada:
La integral confluente genera una distribución gaussiana con una desviación
Desde el punto de vista del ingeniero, ¡proceda con precaución!
Al informar la incertidumbre, desea informar todas las contribuciones juntas en un solo valor; pero a veces es necesario distinguir entre las limitaciones del instrumento y la incertidumbre medida a partir de mediciones repetidas. Si fuera un medidor ideal, simplemente podría decir donde el cronómetro mide en incrementos de 0,1 s. Esto sería lo suficientemente bueno para la mayoría de las aplicaciones, incluso si hay mucho más que decir al respecto probabilísticamente. Es una cuestión de resolución, por lo que si desea un mejor rendimiento, simplemente use un mejor cronómetro; de lo contrario, combine la incertidumbre en cuadratura e informe esa cifra.
Ahora, técnicamente, debe considerar que cada medición tiene una incertidumbre asociada debido al instrumento, por lo que podría haber cierta propagación de términos de error a considerar. Tendré que comprobar mis propias referencias cuando vuelva a mi biblioteca.
Lo más importante es asegurarse de que cualquier persona que lea su trabajo entienda cómo y por qué calculó la incertidumbre de la forma en que lo hizo. Este es el propósito de cosas como GUM (Guía para la expresión de la incertidumbre en la medición). Recomiendo encarecidamente usar GUM cuando, por ejemplo, publique. Por ejemplo, los errores instrumentales caerían dentro de los errores de tipo B con GUM.
Por cierto, también me interesaría escuchar las opiniones de otras personas sobre esto; ¡Yo mismo no soy un experto en experimentos!
Yo haría lo siguiente
En general, si tiene errores de fuentes diferentes y no relacionadas, le interesa tomar la mayor parte de ellas. Si está seguro de que esas fuentes están relacionadas y se afectan entre sí, entonces debe combinar ambas desviaciones tal como lo mencionó.
blindadochihuahua
ytlu
usuario285375
ytlu