Me preguntaba cómo los investigadores pudieron minimizar o neutralizar el sesgo de confirmación con respecto a los datos recopilados.
Según tengo entendido, el algoritmo eliminó gran parte de los datos, lo que tendría sentido, ya que probablemente sería un ruido inútil. Véase, por ejemplo, el vídeo Conferencia de prensa del telescopio Event Horizon. Primera imagen de un agujero negro. a aproximadamente 38:40
.
Cinco petabytes son muchos datos... La imagen que vio, por supuesto, no tiene un tamaño de 5 petabytes, tiene unos cientos de kilobytes, por lo que nuestro análisis de datos tiene que colapsar estos cinco petabytes de datos en una imagen que es más de mil millones de veces más pequeña. .
Pero aparte de eso, ¿podrían identificarse erróneamente ciertas características como artefactos y descartarse a favor de preseleccionar lo que los investigadores esperaban ver?
La única razón por la que pregunto es que la imagen se ve casi idéntica a las predicciones simuladas de hace dos años, lo que puede generar un ligero motivo de alarma.
Gracias.
Para hacer un seguimiento (basado en la sección de respuestas a continuación):
En el proceso de la primera etapa, "características comunes", ¿son como sellos existentes de características astronómicas (e imágenes comparativas) que ya se han observado en nuestro universo (tanto en el espectro visible como en el invisible y se usan para comparar)? Y una segunda pregunta: si nunca antes hemos observado las marcas de un agujero negro, ¿cómo vamos a utilizar los sellos existentes de conocimiento de las características astronómicas que hemos visto para evaluar y validar un hasta ahora desconocido (que parecería directamente impacto qué artefactos se conservan y qué artefactos se tiran y desechan)?
Este proceso se describe con gran detalle en este documento . El resumen dice:
Para evaluar la confiabilidad de estos resultados, implementamos un procedimiento de imagen de dos etapas. En la primera etapa, cuatro equipos, cada uno ciego al trabajo de los demás, produjeron imágenes de M87 usando un método establecido (CLEAN) y una técnica más nueva (máxima verosimilitud regularizada). Esta etapa nos permitió evitar el sesgo humano compartido y evaluar las características comunes entre las reconstrucciones independientes.
Luego generaron una gran cantidad de imágenes "plausibles", reconstruyeron las señales de radio que habrían dado y las pasaron por la canalización de análisis de imágenes para ver si mostraban sesgos.
En la segunda etapa, reconstruimos datos sintéticos de una gran encuesta de parámetros de imágenes y luego comparamos los resultados con las imágenes reales correspondientes. Esta etapa nos permitió seleccionar parámetros de manera objetiva para usar al reconstruir imágenes de M87. En todas las pruebas en ambas etapas, el diámetro del anillo y la asimetría permanecieron estables, insensibles a la elección de la técnica de imagen.
Por cierto, no es realmente apropiado pensar en los datos rechazados como datos de imagen en el sentido en que los obtendría de una cámara. Son (casi) grabaciones de las formas de onda electromagnéticas exactas recibidas por los telescopios. La imagen surge de correlaciones sutiles entre estos conjuntos de datos. Entonces, la mayor parte de lo que se desecha (aparte del ruido) es información sobre la fase exacta de la señal de radio nanosegundo por nanosegundo, lo cual no es realmente interesante.
DAS
DAS