¿Qué significa 14.2±0.114.2±0.114.2 \pm 0.1?

Necesito determinar experimentalmente algún valor. Z = 3 X + Y dónde X y Y son medidas. me dieron el valor de X , digamos X = 14.2 ± 0.1 .

Hasta ahora pensaba que si leía algo como X = 14.2 ± 0.1 , se asumió que las medidas se distribuyeron normalmente con una media de 14.2 y una desviación estándar de 0.1 .

¿Es esto correcto?

mis medidas de Y resultó en una media de digamos 9.5 y una desviación estándar de 0.2 .

Procedí de la siguiente manera: supuse X y Y se distribuyen normalmente y son independientes con las medias y desviaciones estándar dadas. Entonces Z es la suma de dos valores distribuidos normalmente, por lo que también debe distribuirse normalmente con la media 3 14.2 + 9.5 = 52.1 y una desviación estándar de 3 2 0.1 2 + 0.2 2 = 0.36 Entonces podría escribir Z = 52.1 ± 0.36 .

Nuevamente, ¿es esta la forma correcta de hacer esto, o mi comprensión de esta notación es incorrecta?

Respuestas (2)

A menos que se indique lo contrario, el ± se refiere al error estándar que de hecho es la desviación estándar de la medición.

Sin embargo, si puede suponer que se distribuye normalmente depende del contexto (por ejemplo, cómo se han realizado las mediciones). Por ejemplo, si las mediciones involucraron una prueba de Bernoulli, entonces sería un error asumir que el error se distribuye normalmente.

Sin embargo, en general, si no se establece explícitamente y no está claro cuál debería ser la distribución, entonces es razonable tomarla como una distribución normal, en cuyo caso su análisis es correcto.

¡Muchas gracias! Entonces, si asumimos que algunos valores siguen alguna distribución, ¿podemos calcular con ellos de la misma manera que lo haríamos con variables aleatorias con esas distribuciones?
@flawr Precisamente. Cualquier medida experimental puede interpretarse como la generación de un número aleatorio a partir de una distribución de probabilidad particular (ver frecuentismo ).

La distribución normal realmente no importa. Después de haber medido muchas X, Y para calcular las Z del mundo real: a menudo no conocemos la distribución principal, solo propagamos errores en cuadratura como lo ha hecho. Los errores más grandes, o quizás los más comunes, ocurren cuando no tenemos en cuenta las correlaciones entre X e Y, ya que el sistema del mundo real (o las simulaciones de ellos) a menudo se correlacionan.