Incertidumbres de la fotometría de apertura

Supongamos que tengo una matriz de datos 2D con una cantidad de conteos en cada píxel (es decir, esta es la matriz de imágenes). Supongamos que tengo otra matriz de datos de la misma forma mapeada 1-1 que proporciona la desviación estándar gaussiana de 1 sigma en el número de conteos en cada píxel de la imagen (es decir, esta es la matriz de error).

Si hago fotometría de apertura circular, solo calculo -2.5 * log10 (recuentos sumados dentro de la apertura) + magnitudZeropoint.

Por otro lado, para la incertidumbre de magnitud en mi magnitud de apertura, leí que se supone que debo hacer una suma en cuadratura de los errores dentro de mi apertura, luego calculo la incertidumbre de flujo fraccional como la relación de mi incertidumbre sumada en cuadratura dividida por mis conteos medidos de la imagen, y luego error de magnitud = 2.5 * log10 (1 + incertidumbre de flujo fraccional).

¿Cómo es que las incertidumbres tienen que ser sumadas en cuadratura ( Σ σ X , y 2 ), en lugar de simplemente sumar como hago con los valores de píxeles de la imagen? La suma de cuadratura da como resultado una barra de error más pequeña, pero ¿es eso realista? Además, enfatizo que mis conjuntos de datos están en unidades de conteo (es decir, ADU), no en electrones.

Respuestas (1)

Porque las incertidumbres en el número de conteos detectados en cada píxel se consideran independientes. Eso significa que algunos de ellos son más altos que el "valor real" (la tasa de conteo que mediría si observara durante un tiempo infinitamente largo), mientras que otros son más bajos. Hasta cierto punto, estas incertidumbres independientes se cancelarán y el resultado neto es que para los errores normalmente distribuidos, el protocolo correcto es el que ha descrito.

Quizás una buena manera de ver esto es suponiendo que toma 100 medidas independientes de la misma cosa, cada una con su propia incertidumbre, aproximadamente igual. Si pregunto cuál es la incertidumbre en el promedio, no sumarías todos los errores y dividirías por 100 porque eso daría una incertidumbre idéntica a la de una medición individual. En su lugar, haría la suma en cuadratura de las incertidumbres y la dividiría por 100, lo que reduce la incertidumbre en el promedio por un factor de 100 .

Entiendo y estoy de acuerdo con su respuesta para cálculos estadísticos (por ejemplo, relación S/N). Pero, ¿qué pasa en el caso de compensaciones/sesgos sistemáticos? Supongamos que mido 100 conteos en mi apertura, y luego encuentro el nivel RMS residual de fondo cerca de mi apertura y lo multiplico por el número de píxeles en mi apertura para obtener un número total esperado de conteos debido solo a las fluctuaciones de fondo. Si ese cálculo me da ~90 recuentos, ¿significa eso que, en el peor de los casos, el 90/100~90 % de los recuentos de apertura científica podrían deberse a fluctuaciones de fondo? ¿Cómo convierto eso en una barra de error sistemática?
@quantumflash Lo tratas usando fórmulas de propagación de errores de manera similar. El número de conteos de fondo en la apertura (asumiendo que el fondo ha sido pronosticado como b ± d b ) es b ± ( ( d b ) 2 + b ) 0.5 .
¡Muchas gracias! ¿Por qué estás agregando b en el sqrt? Además, su cálculo es para recuentos de fondo en una apertura, mientras que ¿qué pasa si estoy trabajando con una imagen de fondo sustraída pero he obtenido un mapa RMS para residuos de sustracción de fondo? Básicamente, el nivel de fondo medio general es cercano a 0, pero puede haber fluctuaciones debido a los residuos de sustracción. ¿Puedo crear una matriz de valores gaussianos aleatorios con la media ~0 indicada anteriormente y sigma=median RMS? La matriz tendría el mismo tamaño que el número de píxeles en mi apertura. ¿Entonces puedo hacer la suma en cuadratura y hacer -2.5*log10(sum) + magzp?