¿Cómo calculo la incertidumbre experimental en una función de dos cantidades medidas?

Estoy realizando un experimento en el que mido dos variables, digamos X y y , pero en realidad estoy interesado en una tercera variable que calculo a partir de esas dos,

z = F ( X , y ) .
En mi experimento, por supuesto, ambos X y y tener incertidumbres experimentales, que vienen dadas por la resolución de mi aparato de medición entre otras consideraciones. También estoy considerando realizar múltiples ejecuciones de medición para obtener buenas estadísticas sobre mi medición de X y y , y por lo tanto en z . Sin embargo, realmente no sé cómo se comparará la dispersión estadística con mi incertidumbre calculada (inducida por la resolución).

Quisiera saber cual es la incertidumbre final para z debería ser, y no estoy muy familiarizado con los procedimientos de propagación de errores para esto.

  • ¿Cuáles son las formas habituales de combinar las incertidumbres experimentales en cantidades medidas?
  • ¿Cuándo debo usar los diferentes enfoques?
  • ¿Cómo incluyo incertidumbres estadísticas cuando están presentes?
  • ¿Qué sucede si la dispersión estadística de una variable es comparable a la resolución del instrumento, de modo que no puedo descuidar ninguna contribución?
  • ¿Cuáles son buenas referencias donde puedo leer más sobre este tipo de problema?

También agradecería las respuestas para citar sus fuentes, y particularmente para usar las 'oficiales', cuando sea posible.

Para ver en profundidad la combinación de incertidumbres experimentales y estadísticas, consulte Cómo combinar el error de medición con el error estadístico .
Miré bien y parece que realmente no tenemos una buena pregunta canónica para señalar a las personas cuando preguntan cómo combinar incertidumbres experimentales. Por lo tanto, propongo que tomemos esto como un lugar para eso. Siéntase libre de mejorar la pregunta si tiene buenas ideas.
Hola Emilio, sugiero dividir esto en diferentes preguntas, ya que una respuesta comprensiva debería ser muy larga, me temo. He tratado de abordar lo que me parece la pregunta principal “¿Cuál es el procedimiento común...?”, considerando el caso donde las dos variables pueden estar correlacionadas.
Cualquier versión de los libros de "análisis de errores" de Bevington.

Respuestas (1)

En mis cursos experimentales, todas las incertidumbres se calculan con la llamada "suma en cuadratura":

d z = ( F X d X ) 2 + ( F y d y ) 2 + 2 ( F X F y ) cov ( X , y ) ,
donde las derivadas parciales se calculan en el valor esperado.

La motivación de la fórmula es más o menos la siguiente: para una función lineal de dos variables aleatorias X , Y ,

Z = a X + b Y + C
la varianza es exactamente:
Var ( Z ) = a 2 Var ( X ) + b 2 Var ( Y ) + 2 a b cov ( X , Y ) .
Para una función general Z = F ( X , Y ) , reconducimos al caso lineal tomando su expansión de Taylor alrededor ( mi ( X ) , mi ( Y ) ) . resulta que
mi ( Z ) F ( mi ( X ) , mi ( Y ) )
(el calculo no es nada dificil, dime si lo necesitas para un enunciado mas preciso). Del mismo modo:
Var ( Z ) a 2 Var ( X ) + b 2 Var ( Y ) + 2 a b cov ( X , Y ) ,
donde los "pesos" a 2 y b 2 son los cuadrados de las derivadas como escribí en mi primera fórmula.

Sugiero hacer los cálculos.

Un libro elemental, que encontré útil, es el de Taylor .

Correcto. Podría ser recuperado por una serie de Taylor (alrededor de X , Y ) de V ( F ( X , Y ) ) = F 2 ( X , Y ) F ( X , Y ) 2 , de segundo orden en X X , Y Y .
¿Cómo tomas en cuenta que por cada vez que varías el par? ( X , y ) el valor z cambiará. ¿Eso no aumentaría la dispersión?
Quiere decir que si tiene un conjunto de ( X i , y i ) ¿parejas? Aquí supuse que el experimentador había hecho previamente dos estimaciones de X mejor y y mejor , con incertidumbres σ X , σ y y tiene que estimar z de estos dos. Si las dos incertidumbres son pequeñas (por ejemplo, si ( F / X ) σ X + ( F / y ) σ y << F en ese punto ( X , y ) ) es razonable hacer una expansión de Taylor.