Si el resultado de una medición es, por ejemplo, , cuanto es 0.7? ¿A qué nivel de confianza sabemos que el resultado real está dentro de este intervalo?
Como indica su enlace, es la incertidumbre en la medición. El significado exacto de esto puede depender del contexto, pero la mayoría de las veces es seguro asumir que esta es la desviación estándar en el valor que debe esperar si la medición se repite una gran cantidad de veces.
Las dos convenciones más comunes que conozco son
El intervalo del 95 % se usa a menudo cuando se está dando un rango de valores "normal", por ejemplo, cuando se informan niveles normales de azúcar en la sangre, etc. Esto es más útil, porque dice "si su medición está fuera de este rango, probablemente tenga un problema", con el habitual 5% de posibilidades de equivocarse.
Sin contexto, no hay forma de saber qué pretendían los autores, aunque en el ejemplo dado me horrorizaría si este fuera el error estándar (más del 20 % a ambos lados de la media)...
Mi consejo: en caso de duda, pregunte. Y cuando sea su turno de informar un resultado, trate de evitar posibles confusiones diciendo lo que está haciendo, por ejemplo
3,2 ± 0,7 knorgels (media de la muestra ± estándar)
Nota: siempre incluya unidades en su resultado cotizado...
eslavos
david z