En la clase de laboratorio de física estamos aprendiendo sobre la incertidumbre y la propagación del error. La semana pasada aprendimos cómo encontrar la incertidumbre de un valor calculado usando la ecuación
Esta semana aprendimos cómo encontrar la versión estadística de la incertidumbre usando la ecuación
Mi maestro nos dice que esta es la versión estadística de la incertidumbre que nos da el 68 por ciento de la incertidumbre total. Estoy teniendo dificultades con esta definición. Parece que si esto fuera cierto, simplemente podríamos multiplicar la ecuación dada anteriormente por 0,68.
De lo que aprendí en mi clase de estadística es que cuando sumas las desviaciones estándar, tienes que sumar sus cuadrados (varianzas). Puedo ver cómo esta ecuación tendría sentido si estuviéramos tratando de encontrar la desviación estándar de un valor calculado, pero mi maestro nos dice que reemplazamos la incertidumbre para x en y la incertidumbre para y en .
Son los dos símbolos y representando lo mismo? Estoy confundido sobre cómo la segunda ecuación es válida. ¿Se usa la segunda ecuación para encontrar la desviación estándar o la incertidumbre? ¿Los físicos simplemente usan la palabra desviación estándar para referirse a la incertidumbre? ¿Por qué no reemplazamos las desviaciones estándar de las distribuciones de x e y para y , que se puede encontrar usando . Si verdaderamente es la desviación estándar de la distribución de calculada , luego sustituyendo las incertidumbres por y no tiene sentido ¿No significaría esto que podrías manipular la desviación estándar solo por los valores que eliges para tus incertidumbres.
Además, en mi clase de laboratorio, se nos enseña a elegir nuestras incertidumbres en función de lo que creemos que son las limitaciones de nuestros instrumentos. Sin embargo, he visto a algunas otras personas usar la desviación estándar de sus medidas y llamar a esto incertidumbre. ¿Es este el método más común? Creo que esto aclararía algunos de los problemas que tengo.
"¿Los físicos simplemente usan la palabra desviación estándar para referirse a la incertidumbre?" A menudo asumimos que los resultados de nuestras mediciones tienen una distribución normal (podemos argumentar que, si no sabemos el motivo de la desviación del valor "real", lo más probable es que se deba a muchos factores y si tiene muchos arbitrariamente). factores distribuidos que influyen en una variable, entonces esa variable sigue la distribución normal - teorema del límite central). Entonces podemos usar alguna medida del ancho de la distribución normal como nuestra incertidumbre, por ejemplo, la desviación estándar. Pero, por supuesto, usted es básicamente libre de elegir lo que usa, un sigma podría estar bien ahora, pero a menudo se usan múltiplos de sigma. También puede saber que lo que sea que esté midiendo, de hecho, no tiene una distribución normal, entonces tendría que elegir alguna otra medida de incertidumbre. Entonces, cuando se trata de incertidumbres, no existe una solución única para todos. Sin embargo, la propagación del error gaussiano basada en desviaciones estándar es la opción si no hay razones en contra y, en ese caso, la incertidumbre y algún múltiplo de sigma serían lo mismo.
Ahora a la pregunta de qué valores poner para los sigmas. Permítanme mencionar, que no es la desviación estándar sino un estimador de la desviación estándar "real" de la distribución, que en sí misma tiene una incertidumbre (si fuera el valor real de la desviación estándar, esa fórmula debería dar el mismo resultado para cada muestra). Entonces, "¿por qué no conectamos las desviaciones estándar de las distribuciones"? Porque es posible que tenga una mejor estimación de la desviación estándar que el estimador anterior.
"¿No significaría esto que podría manipular la desviación estándar σ solo por los valores que elija para sus incertidumbres?" Sí tu puedes. Por lo general, tendría que describir en detalle por qué eligió alguna medida de incertidumbre y otros podrían criticar su elección y cuestionar sus resultados por eso.
La diferencia clave entre estas ecuaciones es la naturaleza del error: mientras que la primera se usa para errores sistemáticos , la segunda se usa para errores aleatorios .
La primera ecuación es la derivada total de una función. en el punto
Por el contrario, su segunda ecuación nos dice cómo las variables aleatorias y influir en la variable de respuesta . Al elevar al cuadrado ambos lados obtenemos
¿Cómo estimamos la varianza? en la ec. (2)? Consideremos un ejemplo simple, donde solo tenemos una única variable de entrada aleatoria (sin segunda entrada ). Así, tenemos varias opciones