¿Deberíamos incluir la incertidumbre instrumental al calcular la incertidumbre de una medida?

Imagina que estamos midiendo el período T de un péndulo usando un cronómetro

El cronómetro tiene una incertidumbre instrumental inerente (ej. 0.1s) tengamos este dato en cuenta

Debido al error aleatorio (supongamos que no hay error sistemático en este ejemplo) terminamos con una serie de valores para el período del péndulo:

T 1 , T 2 , . . . , T norte

Después de realizar un "análisis estadístico" en esta muestra de medidas, encontramos la media de la muestra, T ¯ , y el error estándar (desviación estándar de la media) α = σ norte

Algunos autores (como Hughes & Hase en el libro "Measurements and their Uncertainties") reportarían (con los dígitos decimales apropiados) el valor de la medida como:

T = ( T ¯ ± α )

Pero, ¿no deberíamos incluir también la incertidumbre instrumental del cronómetro al reportar este valor?

Pensé que se debía a que esta incertidumbre (0,1 s) ya está de algún modo en α Pero esto es sólo una conjetura

Y si debemos incluir esta incertidumbre, ¿cómo hacerlo?

Como esto:

α 2 + ( 0.1 s ) 2 ?

Gracias de antemano y perdón por cualquier error gramatical.

*Actualización de progreso: actualmente estoy leyendo 'Una introducción a la incertidumbre en la medición' de Les Kirkup y Bob Frenkel en un intento de responder mi propia pregunta debido a la falta de respuestas.

**Gracias por todas las respuestas

Respuestas (3)

Consideremos el resultado de combinar dos distribuciones gaussianas del período de medición T (se supone el valor exacto T o ) con desviación σ 1 y σ 2 :

(1) PAG 1 ( T ) = norte 1 Exp ( ( T T o ) 2 2 σ 1 2 ) ; (2) PAG 2 ( T ) = norte 2 Exp ( ( T T o ) 2 2 σ 2 2 ) .
Donde el norte 1 y norte 2 son la constante de normalización, norte 1 = 1 2 π σ 1 y norte 2 = 1 2 π σ 2 .

Para investigar el efecto combinado de estos dos gaussianos, consideramos una representación de medición T = t de la ecuación (1), y luego la gaussiana de la ecuación (2) da la medida final T con promedio en t . La probabilidad total correlacionada:

PAG ( T ) = PAG 1 ( t T o ) PAG 2 ( T t ) d t , = norte 1 norte 2 d t Exp ( ( t T o ) 2 2 σ 1 2 ) Exp ( ( T t ) 2 2 σ 2 2 ) ; = norte 1 norte 2 mi ( T o 2 2 σ 1 2 + T 2 2 σ 2 2 ) d t Exp ( ( σ 1 2 + σ 2 2 ) t 2 2 σ 2 2 t T o 2 σ 1 2 t T 2 σ 1 2 σ 2 2 ) ; = norte 1 norte 2 mi ( T o 2 2 σ 1 2 + T 2 2 σ 2 2 ) d t Exp { [ σ 1 2 + σ 2 2 2 σ 1 2 σ 2 2 ] ( t 2 2 t σ 2 2 T o + σ 1 2 T σ 1 2 + σ 2 2 ) } ; = norte 1 norte 2 mi T o 2 σ 2 2 + T 2 σ 1 2 2 σ 1 2 σ 2 2 + ( σ 2 2 T o + σ 1 2 T ) 2 2 σ 1 2 σ 2 2 ( σ 1 2 + σ 2 2 ) d t Exp { [ σ 1 2 + σ 2 2 2 σ 1 2 σ 2 2 ] ( t σ 2 2 T o + σ 1 2 T σ 1 2 + σ 2 2 ) 2 } ; = 1 2 π σ 1 1 2 π σ 2 Exp { T o 2 σ 2 2 + T 2 σ 1 2 2 σ 1 2 σ 2 2 + ( σ 2 2 T o + σ 1 2 T ) 2 2 σ 1 2 σ 2 2 ( σ 1 2 + σ 2 2 ) } π 2 σ 1 2 σ 2 2 σ 1 2 + σ 2 2 = 1 2 π ( σ 1 2 + σ 2 2 ) Exp { σ 1 2 σ 2 2 ( T T o ) 2 2 σ 1 2 σ 2 2 ( σ 1 2 + σ 2 2 ) } = 1 2 π ( σ 1 2 + σ 2 2 ) Exp { ( T T o ) 2 2 ( σ 1 2 + σ 2 2 ) }

La integral confluente genera una distribución gaussiana con una desviación

σ 2 = σ 1 2 + σ 2 2 .

Entonces, ¿eso significa que debemos agregar estas dos fuentes de error en cuadratura? Además, ¿significa que el error instrumental está modelado por un gaussiano?
(1) sí. (2) Normalmente se emplea una gaussiana para el modelo de error aleatorio. El error del instrumento se considera como un error aleatorio, si no hay efectos personales.
@ytlu ¿Por qué el error del instrumento sería gaussiano? Ciertamente no lo es. En general, las compensaciones sistemáticas nunca son simétricas, a menudo tienen una causa subyacente (algo está doblado, por ejemplo). Por lo tanto, esta derivación no es rigurosa como lo hace esta publicación. No obstante, el resultado es lo que NIST recomienda para encontrar el error total
@TheoreticalMinimum La distribución gaussiana se emplea para describir un error imparcial. Se puede derivar de un modelo de paseo aleatorio. Para algún error específico del sistema, requerirá un tratamiento especial. Está más allá del propósito de esta plataforma.

Desde el punto de vista del ingeniero, ¡proceda con precaución!

Al informar la incertidumbre, desea informar todas las contribuciones juntas en un solo valor; pero a veces es necesario distinguir entre las limitaciones del instrumento y la incertidumbre medida a partir de mediciones repetidas. Si fuera un medidor ideal, simplemente podría decir 1.3 ± 0.05  s donde el cronómetro mide en incrementos de 0,1 s. Esto sería lo suficientemente bueno para la mayoría de las aplicaciones, incluso si hay mucho más que decir al respecto probabilísticamente. Es una cuestión de resolución, por lo que si desea un mejor rendimiento, simplemente use un mejor cronómetro; de lo contrario, combine la incertidumbre en cuadratura e informe esa cifra.

Ahora, técnicamente, debe considerar que cada medición tiene una incertidumbre asociada debido al instrumento, por lo que podría haber cierta propagación de términos de error a considerar. Tendré que comprobar mis propias referencias cuando vuelva a mi biblioteca.

Lo más importante es asegurarse de que cualquier persona que lea su trabajo entienda cómo y por qué calculó la incertidumbre de la forma en que lo hizo. Este es el propósito de cosas como GUM (Guía para la expresión de la incertidumbre en la medición). Recomiendo encarecidamente usar GUM cuando, por ejemplo, publique. Por ejemplo, los errores instrumentales caerían dentro de los errores de tipo B con GUM.

Por cierto, también me interesaría escuchar las opiniones de otras personas sobre esto; ¡Yo mismo no soy un experto en experimentos!

Yo haría lo siguiente

  1. Una vez que recopile todas las medidas para T , T ¯ y σ , comprobaría cuál es el valor de 3 σ es decir, ya que de esta manera tendría una probabilidad del 99,73% de que todos los posibles valores de error estén contenidos en ese rango. Si usa solo un sigma, estaría contabilizando solo el 68.27%. Tenga en cuenta que en el CERN y otros grandes laboratorios de investigación existe este famoso criterio de que se necesitan 5 sigmas para considerar un evento como un descubrimiento.
  2. Si ese valor de su error humano es mayor que la incertidumbre de su cronómetro, definitivamente usaría 3 σ
  3. Si ese valor no es mayor, lo cual es poco probable, entonces usaría la incertidumbre de su dispositivo como error.

En general, si tiene errores de fuentes diferentes y no relacionadas, le interesa tomar la mayor parte de ellas. Si está seguro de que esas fuentes están relacionadas y se afectan entre sí, entonces debe combinar ambas desviaciones tal como lo mencionó.

Δ = ( 3 σ ) 2 + Δ s o tu r C mi s 2

Pensé que uno solo puede agregar los errores de esta manera cuando no están correlacionados