Actualmente estoy leyendo "Conceptos en Física Térmica", y en el capítulo de variables independientes tiene el siguiente ejemplo:
si tenemos variables independientes , cada uno con una media , y una varianza , podemos sumarlos para obtener lo siguiente:
Entiendo la derivación de toda esta multa, sin embargo luego se expresa lo siguiente:
Los resultados probados en este último ejemplo tienen algunas aplicaciones interesantes. El primero se refiere a mediciones experimentales. Imagina que una cantidad es medido veces, cada vez con un error independiente, que llamamos . Si sumas los resultados de las mediciones para hacer , entonces el error rms en es solo veces el error rms de un solo . Por lo tanto, si intenta obtener una buena estimación de calculando , el error en esta cantidad es igual a .
No estoy del todo seguro de lo que quieren decir aquí con el error cuadrático medio. ¿Es esa otra forma de decir la desviación estándar? Si lo es, ¿en qué sentido puede el ejemplo anterior conducir a la afirmación que sigue?
La única forma en que personalmente puedo ver que esto tiene sentido es si están modelando el error en una sola medida como la desviación estándar de una distribución de probabilidad. Esto no me parece correcto, ¿es esto realmente lo que están haciendo?
Con respecto a su primera pregunta sobre el error rms:
Di el verdadero valor de es , y mediste (que en promedio debería ser ).
El error de medición sería: .
La media del cuadrado de los errores sería que es exactamente la varianza.
La raíz de la media de los cuadrados es la raíz cuadrada de la varianza, es decir, la desviación estándar.
En segundo lugar, después de haber tenido medidas que desea estimar , así que promedias tus medidas y obtienes . Por supuesto, esto no puede ser igual precisamente a porque todos estos números están en un continuo. Entonces, ¿qué tan lejos estás de la verdad? El teorema del límite central nos dice que después de tomar suficientes medidas, sin importar la distribución de , su estimación se comportará como una Gaussiana con una media de y desviación estándar de , lo que significa que cuanto más aumentes , más estrecha será su gaussiana y más cercana a la verdad estará su estimación. La intuición detrás de esto es como respondió @Physics Enthusiast.
digamos que lo haces mediciones y sumar los resultados de las mediciones. La razón por la cual el error rms en la suma no es veces el valor eficaz de un solo error es que se supone que los errores son independientes ("cada vez con un error independiente"), por lo que se anulan entre sí hasta cierto punto (es decir, un experimento puede dar un error positivo, el siguiente experimento podría dar un error negativo, etc.).
Connor
Ofek Gillon
Connor
Ofek Gillon