¿Anotaciones para errores estadísticos/sistemáticos/numéricos?

Veo constantemente la notación

5.143 ( 13 )
para especificar que un valor medido/calculado era 5,143 con un error estimado de 0,013. Sin embargo, he llegado a preguntarme qué tan comúnmente aceptadas son la notación y las variantes. Después de todo, si se acepta comúnmente, ¿por qué he encontrado alguna literatura que establezca explícitamente lo que significa (aunque podría haber sido simplemente distinguiendo errores sistemáticos y estadísticos)?

Además, no estoy seguro de que todavía funcione para algo como

513 ( 30 ) 513 ± 30
o
51.3 ( 30 ) 51.3 ± 3.0

¿Es esta notación una convención comúnmente aceptada, que se puede esperar razonablemente que la gente que lea un artículo escrito ahora en 50 años todavía la entienda? ¿Se entiende en casos como los anteriores?

Respuestas (1)

En el campo que solía trabajar en la notación usando ± es bastante común. Sin embargo, el número después de ± no suele ser el error estándar sino que indica el intervalo de confianza. Esto suele ser 2 veces el error estándar, pero también puede ser un factor 3. En su último ejemplo, sería 51,3 ± 6,0 utilizando un 'factor de cobertura' de 2.

En lugar de la notación que usa donde expresa el error estándar en los últimos dígitos, también podría usar 51.3 (3.0) (último ejemplo) o 5.124 (0.013) (primer ejemplo). Entonces, agregas el dígito explícitamente.

Recomendaría explicar exactamente lo que significa la primera vez que se usa la notación. También porque es posible que desee explicar qué se incluye exactamente en el error estándar y cómo se calcula.

El documento Directrices para evaluar y expresar la incertidumbre de los resultados de medición del NIST y, en especial, la Guía para la expresión de la incertidumbre en la medición se consideran documentos estándar. Discuten ambas notaciones.