La mayoría de las veces, cuando en un problema numérico se exige que calculemos la precisión del resultado final, escribimos el resultado final en términos del error. Entonces, quiero saber si, en una medición, hay un 10% de error, ¿podemos transmitir la misma información diciendo que la medición tiene un 90% de precisión?
Prefiere la “incertidumbre” al “error”. Cuando dices "error", implicas que alguien ahí fuera ha determinado la respuesta correcta. No es así como funciona fuera de una clase de laboratorio introductoria.
Cuando dices "He medido con un 5% de incertidumbre”, estás diciendo algo muy específico: tu resultado significa que otra medida de alta calidad de probablemente también daría un resultado en el intervalo .
Si comienza a decir cosas como "95% de precisión", confundirá a las personas que están escuchando un intervalo de confianza , que es otra forma de analizar las incertidumbres. A los físicos les suelen gustar los intervalos de confianza "one-sigma", lo que en su caso significaría, aproximadamente,
una repetición de mi experimento tendría un 68% de posibilidades de obtener (nuevamente) un valor en el intervalo
En otros campos, especialmente en las ciencias sociales, a la gente le gusta reportar intervalos de confianza de "dos sigma", lo que significaría algo así como
una repetición de mi experimento tendría un 95% de posibilidades de obtener (nuevamente) un valor en el intervalo
Tenga en cuenta que esta descripción del intervalo de confianza figura específicamente en el artículo de la enciclopedia vinculada como un malentendido (mea culpa). Para las mediciones distribuidas por Gauss que tienen la misma incertidumbre, la probabilidad de que "su" medición se encuentre dentro de "mi" intervalo de confianza de un sigma es ligeramente mejor que cincuenta y cincuenta. La definición del intervalo de confianza se basa en el "valor verdadero" del parámetro medido. Sin embargo, la existencia de ese "verdadero valor" es tanto una cuestión filosófica como práctica. El mundo es diferente de nuestros modelos de él.
Como dice un comentarista: a veces haces una medición y terminas con un 200% de incertidumbre, en cuyo caso tu experimento no ha determinado (todavía) si tu cantidad es positiva o negativa.
Entonces, a tu pregunta del título: no, no hagas eso. Si su medida tiene un 5 % de incertidumbre, comuníquelo diciendo “mi medida tiene un 5 % de incertidumbre”.
Debe definir qué significa "error"; típicamente es una estimación de la desviación estándar basada en una serie de mediciones. Si toma una serie de medidas, puede estimar la desviación estándar de la población. También puede estimar la media y la desviación estándar de la media. Cuando informe su resultado, debe informar dónde es la estimación de la media de sus medidas y es su estimación de la desviación estándar de la media, no la desviación estándar de la población que también puede estimar. Vea mi respuesta a la Incertidumbre en las mediciones madurativas de este intercambio para obtener más detalles. Si me dijera "mi resultado es x con un 10 % de error", sin más información asumiría que, según sus medidas, x es la media y 0,1x es la desviación estándar de la media.
También puede establecer un intervalo de confianza basado en las mediciones, y algunos lo llaman precisión. Consulte las discusiones sobre el intervalo de confianza en línea o en un texto de estadística como Probability and Statistics for the Engineering, Computing, and Physical Sciences de Dougherty.
DKNguyen
Hoagie nuclear
robar
Hoagie nuclear
robar
Stephan Kolasa