Si una medición tiene un error del 5 %, ¿podemos decir que tiene una precisión del 95 %?

La mayoría de las veces, cuando en un problema numérico se exige que calculemos la precisión del resultado final, escribimos el resultado final en términos del error. Entonces, quiero saber si, en una medición, hay un 10% de error, ¿podemos transmitir la misma información diciendo que la medición tiene un 90% de precisión?

Entonces, ¿qué dices cuando tu error es del 200%? Cuando dice +/-5% de error, eso se refiere directamente al valor que está dando. Cuando dice 95% de precisión, ese 95% en realidad no se refiere al valor que está dando. Es el 95% de un número no dado. Tampoco dice en qué dirección está a menos que le dé dos números 95% y 105%. Pero entonces 105% de precisión no tiene sentido, y tampoco +/-95% de precisión.
No creo que esté usando error o precisión correctamente aquí, ya que ambos comparan una medida con el valor verdadero y correcto. Es posible que tenga incertidumbre y cierto rango de precisión en torno a su resultado final, pero es muy posible que su valor informado sea exactamente correcto sin ningún error y que sea 100% preciso.
@NuclearHoagie El escenario más común, desafortunadamente, es una serie de mediciones precisas (también conocidas como repetibles) que resultan ser inexactas debido a algún "error sistemático". Por ejemplo, imagine un sastre que ha usado la misma cinta métrica de tela todos los días durante muchos años, de modo que la tela se ha estirado y la cinta es más larga de lo que solía ser. No hay problema si se utiliza la misma cinta métrica para todas las medidas. Pero si el sastre contrata a un aprendiz que usa equipo nuevo, una cintura de 30 pulgadas del aprendiz podría ser más ajustada que una cintura de 30 pulgadas del maestro.
@rob De acuerdo, buen ejemplo de precisión frente a exactitud. Pero señalaré que el sastre solo puede estimar la precisión y la incertidumbre en sus medidas, nunca se dará cuenta de que es inexacto sin el aprendiz. El sastre solo nunca puede medir su precisión o error. Calcular un resultado numérico y encontrar el error significa que, para empezar, ya sabía la respuesta, lo que hace que el cálculo sea un ejercicio académico en primer lugar. El error sistemático no se puede calcular solo a partir de las mediciones, requiere un oráculo, en cuyo caso no es necesario medir en absoluto.
@NuclearHoagie Eso depende del ingenio del sastre. Por ejemplo, podría doblar la cinta métrica sobre sí misma y notar que las marcas que se usan con frecuencia en el extremo inferior están más separadas que las marcas que se usan con poca frecuencia en el otro extremo, y luego escribir un capítulo en su disertación sobre la linealidad del detector. . (Acabo de probar esto con la cinta métrica de tela en mi kit de costura y descubrí que la mía se cortó incorrectamente: la primera pulgada es corta).
Quizás te interese ¿ Diferencia entre precisión de pronóstico y error de pronóstico? y ¿ Cuáles son las deficiencias del error porcentual absoluto medio (MAPE)? Ambos se refieren a errores porcentuales en el contexto de la previsión, pero, por supuesto, existen paralelos con el contexto de la medición imprecisa.

Respuestas (2)

  1. Prefiere la “incertidumbre” al “error”. Cuando dices "error", implicas que alguien ahí fuera ha determinado la respuesta correcta. No es así como funciona fuera de una clase de laboratorio introductoria.

  2. Cuando dices "He medido X con un 5% de incertidumbre”, estás diciendo algo muy específico: tu resultado X = 100 significa que otra medida de alta calidad de X probablemente también daría un resultado en el intervalo 95 < X < 105 .

  3. Si comienza a decir cosas como "95% de precisión", confundirá a las personas que están escuchando un intervalo de confianza , que es otra forma de analizar las incertidumbres. A los físicos les suelen gustar los intervalos de confianza "one-sigma", lo que en su caso significaría, aproximadamente,

    una repetición de mi experimento tendría un 68% de posibilidades de obtener (nuevamente) un valor en el intervalo 95 < X < 105

    En otros campos, especialmente en las ciencias sociales, a la gente le gusta reportar intervalos de confianza de "dos sigma", lo que significaría algo así como

    una repetición de mi experimento tendría un 95% de posibilidades de obtener (nuevamente) un valor en el intervalo 90 < X < 110

    Tenga en cuenta que esta descripción del intervalo de confianza figura específicamente en el artículo de la enciclopedia vinculada como un malentendido (mea culpa). Para las mediciones distribuidas por Gauss que tienen la misma incertidumbre, la probabilidad de que "su" medición se encuentre dentro de "mi" intervalo de confianza de un sigma es ligeramente mejor que cincuenta y cincuenta. La definición del intervalo de confianza se basa en el "valor verdadero" del parámetro medido. Sin embargo, la existencia de ese "verdadero valor" es tanto una cuestión filosófica como práctica. El mundo es diferente de nuestros modelos de él.

  4. Como dice un comentarista: a veces haces una medición y terminas con un 200% de incertidumbre, en cuyo caso tu experimento no ha determinado (todavía) si tu cantidad es positiva o negativa.

Entonces, a tu pregunta del título: no, no hagas eso. Si su medida tiene un 5 % de incertidumbre, comuníquelo diciendo “mi medida tiene un 5 % de incertidumbre”.

Solo me gustaría agregar a esta excelente respuesta que la precisión tiene un significado específico en metrología (la ciencia de la medición). La precisión dice algo sobre la desviación del valor "verdadero", mientras que la precisión es una medida de control y reproducibilidad experimental.
¡Buena respuesta! Solo quería decir, estrictamente hablando, que un intervalo de confianza de 1 sigma no significa que haya un 68 % de posibilidades de que las mediciones futuras estén dentro del rango95 < x < 105 si midesX = 100 en el primer juicio. Significa que si ejecuta el experimento muchas veces, en promedio el 68% de los intervalos de confianza contendrán el valor "verdadero". No hay garantía de que cualquier intervalo de confianza (como el primero) esté cerca del valor correcto.
Anuncio 1: En algunos idiomas, las palabras "error", "error", y en este contexto también "incertidumbre", se expresan con la misma palabra. Es por eso que también nos encontramos con usuarios de Stack Overflow que a veces usan la palabra "error" para un mensaje de error del programa o compilador.
Tengo instrumentos que a veces pueden avisarte cuando no están funcionando. Terminé analizando la pregunta de OP ya que el 10% de las mediciones son mediciones defectuosas.
Voy a tener que secundar el comentario de @Andrew: esta es una interpretación muy incorrecta de un CI, incluso teniendo en cuenta la advertencia de 'aproximadamente'
para ver cuán absurda podría ser tal interpretación, imagine que está interesado en la estatura promedio de los EE. UU. y toma una muestra aleatoria de 100 personas y forma un IC del 99%. En el caso (extremadamente improbable pero técnicamente posible) de que toda su muestra contenga jugadores de la NBA, la posibilidad de que otra muestra esté contenida en ese CI sería funcionalmente del 0%.
Estadista aquí. Me acabo de unir específicamente para votar el comentario de @Andrew, que es perfecto. Además, debo admitir que tengo serias dudas sobre su punto 2., que no se relaciona con ningún concepto estadístico de incertidumbre con el que esté familiarizado. Por otra parte, esta puede ser una declaración completamente correcta en el contexto de la física.
@StephanKolassa Point 2 tampoco es correcto en el análisis de datos físicos; en realidad, es una señal de advertencia en datos experimentales si todas las barras de error cubren el valor esperado y si son demasiado consistentes entre sí. Básicamente significa que sus barras de error son demasiado grandes.
Al nivel de la pregunta que se hace, mi objetivo con esta respuesta fue informar que el lenguaje que propone el autor de la pregunta ya está ocupado por otro concepto. Estaba siendo intencionalmente poco riguroso, pero crucé la línea y me equivoqué, y agradezco los comentarios que lo señalan. En lugar de cargar la respuesta con suficientes advertencias para que cada declaración sea correcta, agregué (v3) una advertencia para leer más. Todavía estoy de acuerdo con la redacción del Punto 2, a pesar de que "probablemente" hay un 52% (como se editó); la probabilidad de que las barras de error "tu" y "mi" se superpongan es de alrededor del 84 %.

Debe definir qué significa "error"; típicamente es una estimación de la desviación estándar basada en una serie de mediciones. Si toma una serie de medidas, puede estimar la desviación estándar de la población. También puede estimar la media y la desviación estándar de la media. Cuando informe su resultado, debe informar m ± σ m dónde m es la estimación de la media de sus medidas y σ m es su estimación de la desviación estándar de la media, no la desviación estándar de la población que también puede estimar. Vea mi respuesta a la Incertidumbre en las mediciones madurativas de este intercambio para obtener más detalles. Si me dijera "mi resultado es x con un 10 % de error", sin más información asumiría que, según sus medidas, x es la media y 0,1x es la desviación estándar de la media.

También puede establecer un intervalo de confianza basado en las mediciones, y algunos lo llaman precisión. Consulte las discusiones sobre el intervalo de confianza en línea o en un texto de estadística como Probability and Statistics for the Engineering, Computing, and Physical Sciences de Dougherty.