Encontré una regla que dice: "Cuando se multiplican dos cantidades, el error en el resultado es la suma del error relativo en los multiplicadores".
Aquí, ¿por qué no podemos usar el error absoluto? ¿Y por qué tenemos que añadir los errores relativos? ¿Por qué no multiplicarlos?
Por favor, dame una intuición para entender la multiplicación de dos cantidades inciertas .
Básicamente proviene del cálculo (o, en general, solo de las matemáticas del cambio).
Si tienes una cantidad que es un producto , entonces el cambio en este valor basado en el cambio de y es . Entonces, es sencillo que
La razón por la que no usa la incertidumbre absoluta ni multiplica las incertidumbres relativas es la misma razón por la que . Simplemente no es el resultado que obtienes cuando haces los cálculos.
Despreciamos el término. en , ya que idealmente y en la medida en que tal que es mucho menos que ambos y .
Obtienes la mejor intuición si solo tomas dos números fáciles con un posible error y los multiplicas. Elija 100±1 y 200±4, los errores relativos son 1/100 o 1% y 4/200=2%.
Ahora multiplique y obtendrá el error positivo 101*204=20604=20000+604 o un error de alrededor del 3%. Multiplicar el error absoluto te daría 1*4 en lugar de 604, multiplicar los errores relativos te daría 2/10000 o 0,02%.
Pruébalo con otros dos números cualesquiera.
una mente curiosa
qmecanico