¿Cuál es la diferencia entre Incertidumbre y Desviación Estándar?

En la clase de laboratorio de física estamos aprendiendo sobre la incertidumbre y la propagación del error. La semana pasada aprendimos cómo encontrar la incertidumbre de un valor calculado usando la ecuación

d F = ( F X ) d X + ( F y ) d y
si F es una función de x e y. Mi maestro nos mostró cómo esta ecuación proviene de la serie sastre.

Esta semana aprendimos cómo encontrar la versión estadística de la incertidumbre usando la ecuación

σ F = ( F X σ X ) 2 + ( F y σ y ) 2

Mi maestro nos dice que esta es la versión estadística de la incertidumbre que nos da el 68 por ciento de la incertidumbre total. Estoy teniendo dificultades con esta definición. Parece que si esto fuera cierto, simplemente podríamos multiplicar la ecuación dada anteriormente por 0,68.

De lo que aprendí en mi clase de estadística es que cuando sumas las desviaciones estándar, tienes que sumar sus cuadrados (varianzas). Puedo ver cómo esta ecuación tendría sentido si estuviéramos tratando de encontrar la desviación estándar de un valor calculado, pero mi maestro nos dice que reemplazamos la incertidumbre para x en σ X y la incertidumbre para y en σ y .

Son los dos símbolos d X y σ X representando lo mismo? Estoy confundido sobre cómo la segunda ecuación es válida. ¿Se usa la segunda ecuación para encontrar la desviación estándar o la incertidumbre? ¿Los físicos simplemente usan la palabra desviación estándar para referirse a la incertidumbre? ¿Por qué no reemplazamos las desviaciones estándar de las distribuciones de x e y para σ X y σ y , que se puede encontrar usando 1 norte 1 Σ i ( X i X ¯ ) . Si σ F verdaderamente es la desviación estándar de la distribución de calculada F , luego sustituyendo las incertidumbres por σ X y σ y no tiene sentido ¿No significaría esto que podrías manipular la desviación estándar σ F solo por los valores que eliges para tus incertidumbres.

Además, en mi clase de laboratorio, se nos enseña a elegir nuestras incertidumbres en función de lo que creemos que son las limitaciones de nuestros instrumentos. Sin embargo, he visto a algunas otras personas usar la desviación estándar de sus medidas y llamar a esto incertidumbre. ¿Es este el método más común? Creo que esto aclararía algunos de los problemas que tengo.

Respuestas (2)

"¿Los físicos simplemente usan la palabra desviación estándar para referirse a la incertidumbre?" A menudo asumimos que los resultados de nuestras mediciones tienen una distribución normal (podemos argumentar que, si no sabemos el motivo de la desviación del valor "real", lo más probable es que se deba a muchos factores y si tiene muchos arbitrariamente). factores distribuidos que influyen en una variable, entonces esa variable sigue la distribución normal - teorema del límite central). Entonces podemos usar alguna medida del ancho de la distribución normal como nuestra incertidumbre, por ejemplo, la desviación estándar. Pero, por supuesto, usted es básicamente libre de elegir lo que usa, un sigma podría estar bien ahora, pero a menudo se usan múltiplos de sigma. También puede saber que lo que sea que esté midiendo, de hecho, no tiene una distribución normal, entonces tendría que elegir alguna otra medida de incertidumbre. Entonces, cuando se trata de incertidumbres, no existe una solución única para todos. Sin embargo, la propagación del error gaussiano basada en desviaciones estándar es la opción si no hay razones en contra y, en ese caso, la incertidumbre y algún múltiplo de sigma serían lo mismo.

Ahora a la pregunta de qué valores poner para los sigmas. Permítanme mencionar, que 1 norte 1 i ( X i X ¯ ) 2 no es la desviación estándar sino un estimador de la desviación estándar "real" de la distribución, que en sí misma tiene una incertidumbre (si fuera el valor real de la desviación estándar, esa fórmula debería dar el mismo resultado para cada muestra). Entonces, "¿por qué no conectamos las desviaciones estándar de las distribuciones"? Porque es posible que tenga una mejor estimación de la desviación estándar que el estimador anterior.

"¿No significaría esto que podría manipular la desviación estándar σ solo por los valores que elija para sus incertidumbres?" Sí tu puedes. Por lo general, tendría que describir en detalle por qué eligió alguna medida de incertidumbre y otros podrían criticar su elección y cuestionar sus resultados por eso.

La diferencia clave entre estas ecuaciones es la naturaleza del error: mientras que la primera se usa para errores sistemáticos , la segunda se usa para errores aleatorios .

La primera ecuación es la derivada total de una función. F = F ( X , y ) en el punto ( X 0 , y 0 )

(1) d F = d F ( X 0 , y 0 ) = F ( X 0 , y 0 ) X d X + F ( X 0 , y 0 ) y d y
Esto es cierto para cualquier función y cualquier variable. Dado que los errores sistemáticos son constantes desconocidas, su varianza es cero. Sin embargo, la ec. (1) nos dice cómo una "compensación sistemática" d X genera una "compensación sistemática" d F : Los errores sistemáticos d X es ponderado por la derivada F X , porque la gravedad del error depende de qué tan rápido la función F cambios alrededor del punto ( X 0 , y 0 ) . Por eso usamos la ec. (1) para estimar el error sistemático.

Por el contrario, su segunda ecuación nos dice cómo las variables aleatorias X y y influir en la variable de respuesta F ( X , y ) . Al elevar al cuadrado ambos lados obtenemos

(2) V a r [ F ( X 0 , y 0 ) ] ( F ( X 0 , y 0 ) X ) 2 V a r [ X ] + ( F ( X 0 , y 0 ) y ) 2 V a r [ y ]
donde uso σ X 2 = V a r [ X ] . la varianza de X es distinto de cero, porque si intentamos establecer la entrada en X i = X 0 , obtenemos X i = X 0 + ϵ i , dónde ϵ i es un error aleatorio. Espero que estas declaraciones dejen en claro que d X σ X . Aunque ambos son "incertidumbres", los errores sistemáticos y aleatorios son fundamentalmente diferentes. Sidemark: La confusión con respecto a las palabras incertidumbre y desviación estándar es comprensible, porque las personas a menudo las usan como sinónimos. Sin embargo, históricamente existen otras "convenciones". Por lo tanto, le recomiendo enfáticamente que no use la palabra "incertidumbre" a menos que la haya definido previamente, o que la use solo de manera cualitativa (no cuantitativa).

¿Cómo estimamos la varianza? V a r [ F ( X , y ) ] en la ec. (2)? Consideremos un ejemplo simple, donde solo tenemos una única variable de entrada aleatoria X (sin segunda entrada y ). Así, tenemos varias opciones

  1. Establecimos X i = X i ( t a r gramo mi t ) y vuelve a medir la respuesta F ( X i ) sin cambiar el valor objetivo X i ( t a r gramo mi t ) = X 0 = C o norte s t . Sabemos que la variable de entrada fluctúa de acuerdo con X i = X 0 + ϵ i . Por tanto, midiendo la variable respuesta varias veces obtenemos una estimación de V a r [ F ( X 0 ) ] = 1 norte 1 i = 1 norte ( F i F ¯ ) 2 . Aunque no tenemos manera de determinar V a r [ X i ] , obtuvimos una estimación de V a r [ F ( X 0 ) ] sin utilizar la propagación de errores. Nótese que el error sistemático no está incluido en V a r [ F ( X ) ] .
  2. Establecimos X i = X i ( t a r gramo mi t ) y cambiar los valores objetivo X i ( t a r gramo mi t ) . Los llamados residuos r ( X i ) = F ( X i ) F ( X ¯ ) son el error aleatorio ϵ F . De este modo, V a r [ F ( X i ) ] = V a r [ r ( X i ) ] proporciona una estimación de la varianza de la variable de respuesta.
  3. Podemos consultar el manual de nuestro equipo de medida y utilizar su precisión como estimación de V a r [ F ( X i ) ] . Hay formas sofisticadas de obtener una estimación más precisa, suponiendo una distribución de probabilidad, de la cual se muestrea el error aleatorio; sin embargo, esto va más allá de su pregunta.
  4. Podemos adivinar un error aleatorio σ X y use la fórmula de propagación de errores, eq. (2), para comprobar cómo se influye en el resultado. Este es ciertamente el método menos objetivo.