Comprender la terminología del análisis de errores

Estoy trabajando en un laboratorio y la terminología del análisis de errores me confunde. Digamos que tengo una teoría que afirma que la constante de estructura fina es exactamente 1/137. Mi referencia actual me dice que las mejores medidas experimentales arrojan 0,0072973525693.

Entonces, ¿cuál es la precisión mínima que necesito para este experimento? Supongo que dado que las dos cantidades comienzan a diferir en el orden de 0.000001, entonces esta debe ser la precisión por la que debo esforzarme.

Muchos informes que estoy leyendo indican un ' 3 σ ' límite (en contexto, estoy viendo "incertidumbre de límite superior permisible de distinguir por al menos 3 σ "). Estoy confundido sobre lo que esto significa y cómo se aplicaría en el ejemplo que proporcioné. Si recuerdo mis estadísticas correctamente, creo que debería considerar alguna distribución normal norte ( m , σ 2 ) y ver cómo varía la probabilidad de que un valor esté dentro norte σ 's.

Esto es probablemente más apropiado para el foro Cross Validated .

Respuestas (2)

Normalmente, realizaría múltiples mediciones de la cantidad de interés. Supongamos que lo haces norte mediciones con los resultados

X 1 , X 2 , . . . X norte ,
luego, suponiendo que la distribución es normal, puede estimar su media y desviación estándar como
metro = 1 norte k = 1 norte X k , s 2 = 1 norte 1 k = 1 norte ( X k metro ) 2 .
escribo metro , s en lugar de m , σ para distinguir las cantidades estimadas de las reales (desconocidas).

Algunos comentarios:

  • Existen pruebas estadísticas para comprobar la normalidad. Suele ser una buena suposición, pero no siempre
  • Es posible que desee actualizar/leer sobre los intervalos de confianza , la prueba de chi-cuadrado , la prueba de hipótesis , etc., ya que probablemente los encontrará rápidamente.

Hay un capítulo muy conocido del grupo de física de partículas que revisa los conceptos estadísticos esenciales en J. Beringer et al. (PDG), PR D86, 010001 (2012) ( http://pdg.lbl.gov ) .

Una propiedad inherente de una medida es que se dispersa. Por lo tanto, si tomamos una muestra que contiene norte = 100 puntos de datos, cada uno midiendo lo mismo (=su constante de estructura fina), obtenemos probablemente 100 valores diferentes. Por lo tanto, la pregunta natural es, ¿cuál es la medida correcta o hay una mejor manera de obtener el valor "verdadero"? En términos generales, el valor promedio es un "buen" estimador del valor real.

Saltándonos los detalles, se nos permite (la mayoría de las veces) decir que el valor promedio se distribuye normalmente. Si la desviación estándar de una sola medida es σ ϵ y tomamos norte mediciones independientes, entonces la "incertidumbre" (=desviación estándar) del valor medio es σ ϵ / norte . Por lo tanto, al tomar más y más medidas, podemos reducir la incertidumbre, suponiendo que no incluimos un error sistemático en nuestros datos.

Finalmente, su pregunta es sobre la confianza de su resultado medido. Suponga que su valor promedio medido es α ¯ y te gusta saber la confianza que debes tener, que la literatura valora α 0 Es incorrecto. Bueno, puede hacer la siguiente pregunta: suponga que el valor de la literatura es correcto, pero mi incertidumbre experimental (desviación estándar) es σ ϵ . ¿Cuál es la probabilidad de que mida un valor que sea al menos k desviaciones estándar más pequeñas que el valor de la literatura? La respuesta está dada por la llamada probabilidad acumulada, CumProbdonde tracé el X eje en unidades de σ = σ ϵ / norte .