Cómo combinar el error de medición con el error estadístico

Tenemos que medir un período de una oscilación. Debemos tomar el tiempo que tardan 50 oscilaciones varias veces.

Sé que tendré un Δ t = 0.1 s por mi tiempo de reacción. Si ahora mido, digamos 40, 41 y 39 segundos en tres carreras, también tendré una desviación estándar de 1.

¿Cuál es el error total entonces? ¿Los sumo, así?

1 2 + 0.1 2

¿O es solo el 1 y descarto el error (¿sistemático?) de mi tiempo de reacción?

Me pregunto si mido una gran cantidad de veces, la desviación estándar debería volverse pequeña en comparación con mi tiempo de reacción. ¿Es el límite inferior 0 o es mi tiempo de reacción con 0.1?

Respuestas (3)

Sí, la única fórmula sensata para el error total es la suma en cuadratura,

Δ X t o t a yo = Δ X s y s t 2 + Δ X s t a t 2
La suposición clave detrás de la validez de la fórmula es que las dos fuentes de error son independientes, es decir, no están correlacionadas.
Δ X s y s t Δ X s t a t = 0
Por eso, tenemos
Δ X t o t a yo 2 = ( Δ X s y s t + Δ X s t a t ) 2 = σ s t a t 2 + σ s y s t 2
El término 2 a b de ( a + b ) 2 = a 2 + 2 a b + b 2 desaparece debido a la independencia citada en la ecuación mostrada anteriormente. La última ecuación mostrada es una prueba completa de su fórmula.

Quiero enfatizar que la fórmula de Pitágoras no depende de ninguna normalidad de las distribuciones. Es solo álgebra lineal simple utilizada para calcular el valor esperado de una expresión bilineal en la que los términos mixtos aportan cero debido a la independencia anterior. Si alguien le dice que tiene que asumir el teorema del límite central o la gaussianidad de la distribución, simplemente está equivocado.

Por supuesto, si uno quiere convertir la información sobre el margen de error a pags -valores, es decir, niveles de confianza, se necesita conocer la forma de la distribución, es decir, para asumir que es gaussiana. Si tanto el error sistemático como el estadístico se distribuyen a través de la distribución gaussiana, también lo es el error total. Pero si no hablamos de pags -valores, no necesitamos asumir nada en absoluto sobre la Gaussianidad.

Sin embargo, es muy útil separar el error sistemático del estadístico porque si repites alguna medida con el mismo equipo, el error estadístico se suma en cuadratura pero el error sistemático se suma linealmente.

Esta declaración significa que los errores estadísticos de "ejecuciones" independientes del mismo experimento no están correlacionados entre sí.

Δ X s t a t 1 Δ X s t a t 2 = 0
y todavía no están correlacionados con todo el error sistemático, también. Sin embargo, los errores sistemáticos están vinculados al dispositivo que sigue siendo el mismo, por lo que los errores sistemáticos de 2 "ejecuciones" repetidas están perfectamente correlacionados:
Δ X s y s t 1 Δ X s y s t 2 = σ ( Δ X s y s t 1 ) σ ( Δ X s y s t 2 ) 0
En un 2 D plano, la función de distribución se concentraría cerca de la línea inclinada "diagonal" Δ X s y s t 1 = k Δ X s y s t 2 . Tenga cuidado, bajo algunas condiciones, el resultado anterior necesitaría un signo menos. Esta linealidad marca la diferencia. En particular, los errores estadísticos para "cantidades intensivas" pueden reducirse repitiendo el experimento mientras que los errores sistemáticos no.

Imagine que el LHC mide la tasa de descomposición de una partícula como Γ = C PAGS dónde C es una constante fija sin error y PAGS es el porcentaje de sus eventos (colisiones) que tienen una determinada propiedad. Hagamos dos carreras con norte 1 y norte 2 eventos, respectivamente. Se espera que den el mismo número norte y el numero total es norte = 2 norte .

Sin embargo, la primera carrera tiene Δ norte 1 con componente tanto estadístico como sistemático y lo mismo para Δ norte 2 . ¿Cuál es el número total de colisiones? medimos norte 1 + norte 2 colisiones pero este resultado tiene un margen de error (más precisamente, hablaré del margen de error de Γ con el coeficiente correcto). Por el error que tenemos

Δ norte = Δ norte 1 + Δ norte 2 = Δ norte 1 s t a t + Δ norte 1 s y s t + Δ norte 2 s t a t + Δ norte 2 s y s t
¿Cuál es el valor esperado de su cuadrado?
( Δ norte ) 2 = ( Δ norte 1 s y s t + Δ norte 2 s y s t ) 2 + ( Δ norte 1 s t a t ) 2 + ( Δ norte 2 s t a t ) 2
Tenga en cuenta que los errores estadísticos de las dos ejecuciones primero se elevaron al cuadrado y luego se sumaron; para los errores sistemáticos, primero se sumaron y luego se elevaron al cuadrado. Como resultado, la contribución sistemática al error de la tasa de disminución no cambiará cuando realice otra segunda ejecución. El error estadístico se reducirá por el factor de 1 / 2 . Debido a que las diferentes partes del error total se comportan de manera diferente, es bueno conocer los errores por separado.

Pero si solo usa un aparato o configuración una vez y luego lo destruye, no hay razón para recordar la separación y el margen de error total correcto se obtiene al agregarlos en cuadratura. Eso es lo que hicieron muchos equipos experimentales de alta energía y la razón no es que sean descuidados con las estadísticas. El cálculo pitagórico es perfectamente válido y puede ser utilizado por aquellos que saben lo que hacen. Solo los "principiantes en estadística" en la escuela se desaconsejan combinar estas cosas en cuadratura porque podrían agregar los errores incorrectamente si consideran muchas medidas con el mismo dispositivo.

Pero sumando linealmente los márgenes de error sistemático y estadístico siempre seríaestar equivocado porque siempre son independientes entre sí. Produciría un valor numérico mayor del margen de error que la fórmula de Pitágoras y algunas personas consideran que un error mayor está "bien" porque hace que los experimentadores parezcan más cautelosos o "más conservadores". Pero sigue siendo un resultado incorrecto, de todos modos. Si alguien encuentra una evidencia/prueba de 5 sigma para un efecto usando la fórmula de Pitágoras para el margen de error y usted niega su evidencia/prueba de 5 sigma porque calcularía su margen de error que está sobreestimado (probablemente por la simple suma de los márgenes de error de sistema y estadístico), por lo tanto, obtener solo 3 sigma, entonces sería un negador de una prueba experimental válida de un efecto que es malo, ya sea que también pueda afirmar que es "conservador" o "cauteloso". ;-)

Solo hay una fórmula correcta en la ciencia y para un solo error estadístico y sistemático, está dada por su fórmula de Pitágoras.

Este análisis también asume errores aleatorios (distribuidos por Gauss). Es un buen análisis para muchas situaciones y lo único práctico que se puede hacer en el nivel introductorio. Pero llamar a esto la "única fórmula correcta en la ciencia" exagera las cosas.
No, garyp, las fórmulas para la suma de varianzas o desviaciones estándar, etc. son válidas para todas las distribuciones, no solo para la normal.

Creo que está ejerciendo una imagen incorrecta de las estadísticas aquí, mezclando las entradas y salidas. Está registrando el resultado de una medición, y la dispersión de estos valores de medición (diremos que están distribuidos normalmente) es teóricamente una consecuencia de toda la variación de todas las fuentes diferentes.

Es decir, cada vez que lo haga, la longitud de la cuerda puede ser un poco diferente, la temperatura del aire puede ser un poco diferente. Por supuesto, todos estos son bastante pequeños y solo los enumero por el bien del argumento. El punto es que la desviación estándar última del valor medido σ debe ser el resultado de todas las fuentes individuales (indizaremos por i ), bajo el supuesto de que todas las fuentes de variación también se distribuyen normalmente.

σ 2 = i norte σ i 2

Cuando explicamos las fuentes individuales de variación en un experimento, ejercitamos algún modelo que formaliza nuestra expectativa sobre la consistencia del experimento. Su modelo particular es que la longitud de la cadena (por ejemplo) cambia muy poco prueba tras prueba en comparación con el error introducido por el tiempo de su cronómetro. A menos que introduzcamos otros errores, esto es afirmar norte = 1 , y si la desviación estándar de su tiempo de reacción contribuye 0.1 s a la desviación estándar de la medida, entonces teóricamente la medida también debería tener esa desviación estándar.

Si esto entra en conflicto con las estadísticas del tiempo que realmente registró, entonces las posibles formas de contabilizar esto incluyen:

  • Tu tiempo de reacción no es tan bueno como pensabas.
  • Hay otras fuentes de error experimental.

Yo preferiría este último, aunque podría ser una combinación de ambos.

Los errores se dan para asignar una probabilidad de desviación del valor real, son la incertidumbre en la medida. Existe cierta confusión acerca de los errores sistemáticos, es decir, errores que no provienen de fluctuaciones estadísticas sino del método de medición utilizado, "su error de medición".

Los errores sistemáticos son los dominantes cuando los estadísticos se vuelven muy pequeños, como será el caso si realiza muchas mediciones y su tiempo de reacción se deja como la principal incertidumbre.

En mi opinión, la mejor manera es citar ambos errores y no combinarlos en cuadratura. Si el valor final es el resultado de un ajuste, como fue el caso de la masa y el ancho del bosón Z , por ejemplo, entonces se cuida la sistemática durante el ajuste y se cita un solo error.

En la actualidad , la gente tiende a sumar todos los errores en cuadratura, citando un teorema del límite central que esencialmente argumenta que los errores sistemáticos también provienen de distribuciones normales aleatorias. Cabe señalar que este no es siempre el caso, en particular para los errores de escala, como quedó ampliamente demostrado por el anuncio prematuro de neutrinos superlumínicos. Si hubieran incluido a sus errores una sistemática de +/-70 nanosegundos (por una mala conexión), no habrían pensado que se había medido algo excepcional.

Disculpas, Anna, tuve que votarte negativo porque el último párrafo es simplemente incorrecto. Uno no necesita ninguna Gaussianidad de las distribuciones y/o la teoría del límite central para usar la fórmula de Pitágoras; el único supuesto que se necesita para demostrarlo es la independencia del error estadístico y sistemático. Sus fórmulas incorrectas podrían haber evitado que OPERA anunciara un descubrimiento de 6 sigma, pero la incorrección del descubrimiento no tuvo nada que ver con sus reglas alternativas de estadística propuestas, que son exactamente tan incorrectas como el cable de fibra suelto de OPERA, que fue la verdadera razón de su demasiado alto. velocidad
@LubošMotl Esperaba que lo hicieras, porque hemos discutido sobre esto antes. No estoy proponiendo una fórmula, estoy proponiendo hacer un seguimiento de los errores sistemáticos por separado de los estadísticos, no agregarlos. Cuando uno sabe que existe una incertidumbre sistemática de un valor dado que es mayor que la estadística, esa información no debe ocultarse en cuadratura, en mi opinión.
Estimada Anna, todavía es necesario evaluar los niveles de confianza, etc. y para hacerlo, es necesario conocer el error total correcto. Así que no estás solucionando nada diciendo que la gente no debería hablar del error total. Necesitan para. Su ejemplo de OPERA es un gran ejemplo de eso. Además, la última oración de su último comentario también pierde el punto. La situación en la que es muy importante utilizar la suma en cuadratura y no por ejemplo la suma total o, por el contrario, el mayor número entre los dos es cuando los errores sistemáticos y estadísticos son del mismo orden. Entonces los errores de 1 / 2 surgir
Cuando estás en la situación opuesta en la que el error sistemático es mucho mayor que el estadístico o viceversa, entonces es obvio cuál es aproximadamente el error total. Todas las fórmulas concuerdan; es el error mayor entre los dos que también es igual a la hipertenusa o la suma dentro de la aproximación de que el error menor es mucho menor, de todos modos. Ahí es cuando seguramente no hay dilema sobre la magnitud correcta del error total. El reclamo de OPERA fue un ejemplo de cuando los 2 errores eran comparables, casi iguales. 7 , 7 ns dio 10 . Ellos estaban equivocados; no por malas matemáticas.