En este video, Katie Bouman menciona que se debe usar un telescopio del tamaño de la Tierra para obtener imágenes como el agujero negro M87:
Las distancias estelares se estiman utilizando mediciones de paralaje en diferentes lados de la órbita terrestre. ¿Por qué no podemos enviar telescopios a extremos diametralmente opuestos de la órbita terrestre y tomar imágenes y luego fusionarlas usando los mismos algoritmos? Parece que solo se requirieron unos pocos telescopios y probablemente podríamos enviar algunos a través del sistema solar o distancias más grandes. Esto nos ayudaría a resolver más detalles.
¡Esta es una gran pregunta!
Para medir la paralaje de un objeto suponiendo que no hay movimiento propio , podemos arreglárnoslas con tan solo dos imágenes de una estrella en primer plano (en movimiento) contra un fondo de varias estrellas "fijas". Solo necesitamos suficiente resolución para distinguir el disco de difracción de una estrella ( Airy ) de las otras estrellas con suficiente precisión para resolver el movimiento debido al paralaje.
Puede medir la ubicación central de una "mancha" con mucha más precisión que el FWHM de la mancha, siempre que tenga muchos fotones y pueda manejar bien los errores sistemáticos y los problemas relacionados con el tamaño de los píxeles. Siempre que se trate de estrellas separadas e individuales, no necesita resolver el disco de cada estrella en 1 mas para obtener una distancia relativa entre ellas con una precisión de 1 mas.
La nave espacial Gaia es un ejemplo de un telescopio espacial con una apertura modesta (rectangular) de alrededor de 0,5 x 1,4 metros, pero produce enormes volúmenes de mediciones de paralaje extremadamente precisas.
Durante el período de medio año, Gaia se mueve a "extremos diametralmente opuestos de la órbita terrestre" y registra imágenes continuamente. La idea es obtener de cinco a siete imágenes de la mayor parte del cielo para separar el paralaje del movimiento propio de las fuentes de ruido sistemáticas y aleatorias.
Sin embargo, estas son imágenes y no contienen información de fase. Como expliqué en esta respuesta a ¿Es posible la óptica adaptativa digital? las técnicas que usamos para producir y grabar imágenes ópticas generalmente pierden toda la información de fase, lo que queda es solo intensidad, no amplitud compleja.
La interferometría requiere la interferencia de amplitudes y la fase de cada señal es clave. Como se señaló en esa respuesta, podemos hacer esto para microondas y frecuencias más bajas usando ADC de alta velocidad (GHz) y, a menudo, cierta cantidad de conversión descendente, pero generalmente no hacemos esto para la luz visible.
Para la imagen del agujero negro del EHT, usaron relojes atómicos en el sitio de cada telescopio y los sincronizaron usando cosas como señales de tiempo de GPS y objetos de calibración cercanos en el cielo.
No es que esto no se haya demostrado para luz visible o cercana al IR, pero no es algo que pueda colocarse fácilmente en un satélite. Una forma de hacerlo es compartir un rayo láser entre dos naves espaciales y mezclarlo con un rango estrecho de frecuencias ópticas de cada uno de los telescopios y registrar la señal heterodina resultante con un GHz o, con suerte, un ancho de banda mucho mayor. También tendría que reconstruir la distancia entre los dos satélites al orden de una longitud de onda de luz para obtener cualquier tipo de datos significativos.
Esto no es imposible, pero es realmente difícil y sería todo un desafío tecnológico y presupuestario.
UH oh
UH oh