¿Por qué las mediciones repetidas dan como resultado un error reducido?

Actualmente estoy leyendo "Conceptos en Física Térmica", y en el capítulo de variables independientes tiene el siguiente ejemplo:

si tenemos norte variables independientes X i , cada uno con una media X , y una varianza σ X 2 , podemos sumarlos para obtener lo siguiente:

Y = i norte X i Y = i norte X i = norte X σ Y 2 = norte σ X 2

Entiendo la derivación de toda esta multa, sin embargo luego se expresa lo siguiente:

Los resultados probados en este último ejemplo tienen algunas aplicaciones interesantes. El primero se refiere a mediciones experimentales. Imagina que una cantidad X es medido norte veces, cada vez con un error independiente, que llamamos σ X . Si sumas los resultados de las mediciones para hacer Y = i X i , entonces el error rms en Y es solo norte veces el error rms de un solo X . Por lo tanto, si intenta obtener una buena estimación de X calculando ( i X i ) / norte , el error en esta cantidad es igual a σ X / norte .

No estoy del todo seguro de lo que quieren decir aquí con el error cuadrático medio. ¿Es esa otra forma de decir la desviación estándar? Si lo es, ¿en qué sentido puede el ejemplo anterior conducir a la afirmación que sigue?

La única forma en que personalmente puedo ver que esto tiene sentido es si están modelando el error en una sola medida como la desviación estándar de una distribución de probabilidad. Esto no me parece correcto, ¿es esto realmente lo que están haciendo?

Respuestas (2)

Con respecto a su primera pregunta sobre el error rms:

Di el verdadero valor de X es X ¯ , y mediste X i (que en promedio debería ser X ¯ ).

El error de medición sería: X i X ¯ .

La media del cuadrado de los errores sería ( X i X ¯ ) 2 que es exactamente la varianza.

La raíz de la media de los cuadrados es la raíz cuadrada de la varianza, es decir, la desviación estándar.


En segundo lugar, después de haber tenido norte medidas que desea estimar X ¯ , así que promedias tus medidas y obtienes X i . Por supuesto, esto no puede ser igual precisamente a X ¯ porque todos estos números están en un continuo. Entonces, ¿qué tan lejos estás de la verdad? El teorema del límite central nos dice que después de tomar suficientes medidas, sin importar la distribución de X i , su estimación se comportará como una Gaussiana con una media de X ¯ y desviación estándar de σ norte , lo que significa que cuanto más aumentes norte , más estrecha será su gaussiana y más cercana a la verdad estará su estimación. La intuición detrás de esto es como respondió @Physics Enthusiast.

Veo lo que dices, ¡y gracias por la teoría del límite central! Pero en este caso el comunicado dice que cada medida tiene algún error σ X , pero el error en el caso de una sola medida no es una desviación estándar de una distribución, es un valor único. En segundo lugar, he visto el rms calculado así:
1 norte i norte σ X i 2
Pero parece en la declaración que todos los σ X i son iguales, por lo tanto tendrías:
σ X 2 = σ X
No la σ X norte como se esperaba.
@Connor A los físicos les gusta usar la palabra error de 2 maneras diferentes (pero relacionadas): a veces significan el verdadero error X i X ¯ y a veces significan la desviación estándar de la distribución de X i , significado, σ X . Sobre la segunda cuestión, está la rms de los errores en X i , cual es σ X como usted calculó, y hay una desviación estándar del promedio de las medidas, que tiene una distribución con una desviación estándar más baja que cada una de las medidas - ese es el punto de este párrafo, cuantas más medidas tome, su promedio será más preciso.
¡Bueno! Gracias, eso tiene mucho sentido. Entonces, ¿es justo decir que la declaración es un poco descuidada al definir los términos en ese caso? ¿O el error rms y la desviación estándar son intercambiables?
Ambas afirmaciones son correctas :)

digamos que lo haces norte mediciones y sumar los resultados de las mediciones. La razón por la cual el error rms en la suma no es norte veces el valor eficaz de un solo error es que se supone que los errores son independientes ("cada vez con un error independiente"), por lo que se anulan entre sí hasta cierto punto (es decir, un experimento puede dar un error positivo, el siguiente experimento podría dar un error negativo, etc.).

Entonces, ¿diría intuitivamente que repetir el experimento le da una distribución de errores, a partir de la cual puede obtener una desviación estándar que se considera un error reducido?
No creo que lo expresaría de esa manera, pero creo que su idea general es correcta. La clave es asegurarse de comprender que hay dos formas en que se puede usar la palabra error (@Ofek Gillon explica esto muy bien en la respuesta principal, así como en el comentario que comienza con "A los físicos les gusta usar la palabra error... .")