Tenemos que medir un período de una oscilación. Debemos tomar el tiempo que tardan 50 oscilaciones varias veces.
Sé que tendré un por mi tiempo de reacción. Si ahora mido, digamos 40, 41 y 39 segundos en tres carreras, también tendré una desviación estándar de 1.
¿Cuál es el error total entonces? ¿Los sumo, así?
¿O es solo el 1 y descarto el error (¿sistemático?) de mi tiempo de reacción?
Me pregunto si mido una gran cantidad de veces, la desviación estándar debería volverse pequeña en comparación con mi tiempo de reacción. ¿Es el límite inferior 0 o es mi tiempo de reacción con 0.1?
Sí, la única fórmula sensata para el error total es la suma en cuadratura,
Quiero enfatizar que la fórmula de Pitágoras no depende de ninguna normalidad de las distribuciones. Es solo álgebra lineal simple utilizada para calcular el valor esperado de una expresión bilineal en la que los términos mixtos aportan cero debido a la independencia anterior. Si alguien le dice que tiene que asumir el teorema del límite central o la gaussianidad de la distribución, simplemente está equivocado.
Por supuesto, si uno quiere convertir la información sobre el margen de error a -valores, es decir, niveles de confianza, se necesita conocer la forma de la distribución, es decir, para asumir que es gaussiana. Si tanto el error sistemático como el estadístico se distribuyen a través de la distribución gaussiana, también lo es el error total. Pero si no hablamos de -valores, no necesitamos asumir nada en absoluto sobre la Gaussianidad.
Sin embargo, es muy útil separar el error sistemático del estadístico porque si repites alguna medida con el mismo equipo, el error estadístico se suma en cuadratura pero el error sistemático se suma linealmente.
Esta declaración significa que los errores estadísticos de "ejecuciones" independientes del mismo experimento no están correlacionados entre sí.
Imagine que el LHC mide la tasa de descomposición de una partícula como dónde es una constante fija sin error y es el porcentaje de sus eventos (colisiones) que tienen una determinada propiedad. Hagamos dos carreras con y eventos, respectivamente. Se espera que den el mismo número y el numero total es .
Sin embargo, la primera carrera tiene con componente tanto estadístico como sistemático y lo mismo para . ¿Cuál es el número total de colisiones? medimos colisiones pero este resultado tiene un margen de error (más precisamente, hablaré del margen de error de con el coeficiente correcto). Por el error que tenemos
Pero si solo usa un aparato o configuración una vez y luego lo destruye, no hay razón para recordar la separación y el margen de error total correcto se obtiene al agregarlos en cuadratura. Eso es lo que hicieron muchos equipos experimentales de alta energía y la razón no es que sean descuidados con las estadísticas. El cálculo pitagórico es perfectamente válido y puede ser utilizado por aquellos que saben lo que hacen. Solo los "principiantes en estadística" en la escuela se desaconsejan combinar estas cosas en cuadratura porque podrían agregar los errores incorrectamente si consideran muchas medidas con el mismo dispositivo.
Pero sumando linealmente los márgenes de error sistemático y estadístico siempre seríaestar equivocado porque siempre son independientes entre sí. Produciría un valor numérico mayor del margen de error que la fórmula de Pitágoras y algunas personas consideran que un error mayor está "bien" porque hace que los experimentadores parezcan más cautelosos o "más conservadores". Pero sigue siendo un resultado incorrecto, de todos modos. Si alguien encuentra una evidencia/prueba de 5 sigma para un efecto usando la fórmula de Pitágoras para el margen de error y usted niega su evidencia/prueba de 5 sigma porque calcularía su margen de error que está sobreestimado (probablemente por la simple suma de los márgenes de error de sistema y estadístico), por lo tanto, obtener solo 3 sigma, entonces sería un negador de una prueba experimental válida de un efecto que es malo, ya sea que también pueda afirmar que es "conservador" o "cauteloso". ;-)
Solo hay una fórmula correcta en la ciencia y para un solo error estadístico y sistemático, está dada por su fórmula de Pitágoras.
Creo que está ejerciendo una imagen incorrecta de las estadísticas aquí, mezclando las entradas y salidas. Está registrando el resultado de una medición, y la dispersión de estos valores de medición (diremos que están distribuidos normalmente) es teóricamente una consecuencia de toda la variación de todas las fuentes diferentes.
Es decir, cada vez que lo haga, la longitud de la cuerda puede ser un poco diferente, la temperatura del aire puede ser un poco diferente. Por supuesto, todos estos son bastante pequeños y solo los enumero por el bien del argumento. El punto es que la desviación estándar última del valor medido debe ser el resultado de todas las fuentes individuales (indizaremos por ), bajo el supuesto de que todas las fuentes de variación también se distribuyen normalmente.
Cuando explicamos las fuentes individuales de variación en un experimento, ejercitamos algún modelo que formaliza nuestra expectativa sobre la consistencia del experimento. Su modelo particular es que la longitud de la cadena (por ejemplo) cambia muy poco prueba tras prueba en comparación con el error introducido por el tiempo de su cronómetro. A menos que introduzcamos otros errores, esto es afirmar , y si la desviación estándar de su tiempo de reacción contribuye a la desviación estándar de la medida, entonces teóricamente la medida también debería tener esa desviación estándar.
Si esto entra en conflicto con las estadísticas del tiempo que realmente registró, entonces las posibles formas de contabilizar esto incluyen:
Yo preferiría este último, aunque podría ser una combinación de ambos.
Los errores se dan para asignar una probabilidad de desviación del valor real, son la incertidumbre en la medida. Existe cierta confusión acerca de los errores sistemáticos, es decir, errores que no provienen de fluctuaciones estadísticas sino del método de medición utilizado, "su error de medición".
Los errores sistemáticos son los dominantes cuando los estadísticos se vuelven muy pequeños, como será el caso si realiza muchas mediciones y su tiempo de reacción se deja como la principal incertidumbre.
En mi opinión, la mejor manera es citar ambos errores y no combinarlos en cuadratura. Si el valor final es el resultado de un ajuste, como fue el caso de la masa y el ancho del bosón Z , por ejemplo, entonces se cuida la sistemática durante el ajuste y se cita un solo error.
En la actualidad , la gente tiende a sumar todos los errores en cuadratura, citando un teorema del límite central que esencialmente argumenta que los errores sistemáticos también provienen de distribuciones normales aleatorias. Cabe señalar que este no es siempre el caso, en particular para los errores de escala, como quedó ampliamente demostrado por el anuncio prematuro de neutrinos superlumínicos. Si hubieran incluido a sus errores una sistemática de +/-70 nanosegundos (por una mala conexión), no habrían pensado que se había medido algo excepcional.
garyp
Motl de Luboš