¿Es la fotografía de un satélite lo suficientemente buena como para distinguir a una persona en el suelo?

Cuando vi por primera vez la vista satelital de Google Maps hace muchos años, recuerdo que me impresionó mucho (y algo me sorprendió) la calidad de la imagen, considerando que las fotografías provenían del espacio.

Más tarde supe que solo parte de la textura proviene de imágenes satelitales, y el contenido de mayor resolución generalmente proviene del sobrevuelo de aviones en áreas metropolitanas.

Ahora tengo curiosidad acerca de qué tan bueno es el estado actual de las imágenes satelitales. Por ejemplo, si una persona de interés estuviera mirando hacia el cielo en un día despejado, ¿sería la fotografía lo suficientemente buena para el reconocimiento facial? ¿Cuántos centímetros en el suelo por píxel en la imagen con el zoom máximo? ¿Esta tecnología sigue mejorando o existe algún tipo de límite físico que ahora impide aumentar la resolución?

Simplemente no mires hacia arriba.
Obligatorio: "Podría decírtelo pero luego tendría que matarte"
Considere la posibilidad de aplicar la síntesis de apertura a este problema: un satélite que emplea un conjunto de espejos de tamaño manejable en brazos largos para crear un "espejo virtual" mucho más grande. ¿Podría eso dar la resolución milimétrica como se discutió, o habría un problema de acumulación de luz debido al corto tiempo de exposición necesario para capturar una cara en movimiento con detalles útiles?
@AnthonyX: Los espejos ópticos son bastante pesados, por lo que un brazo que pueda mantenerlos ubicados con suficiente precisión es bastante difícil. Tiene razón en que el f/stop efectivo es muy lento para los espejos virtuales de este tipo, por lo que las exposiciones tendrían que ser bastante largas. Entonces la gente se mueve...
No responde exactamente a su pregunta, pero está relacionado (y es una gran lectura): XKCD ¿Qué pasaría si?: Si el telescopio Hubble apuntara a la Tierra, ¿qué tan detalladas serían las imágenes?
@CarlWitthoft ... desde la órbita.

Respuestas (5)

Hay límites. Por un lado, hay efectos atmosféricos que dispersan la luz en el espectro de longitud de onda visible. Es posible que pueda penetrar las nubes y la neblina más fácilmente en el extremo inferior del espectro y hacia las longitudes de onda infrarrojas, y aún así podrían usarse para el reconocimiento facial. Otro límite es la apertura del equipo óptico utilizado para tomar fotografías, en el caso de los telescopios, que viene dado por el límite de Dawes y se deriva del criterio de Rayleigh para calcular la resolución angular de los dispositivos de imagen. Entonces, la resolución final depende del clima, la longitud de onda de la imagen, la dispersión atmosférica, la distancia y el diámetro del espejo primario (apertura). La calidad de construcción obviamente también tiene un papel importante.

Pero primero veamos cuál es la resolución mínima absoluta que necesitaríamos para reconocer las características faciales e identificar con éxito a las personas. De acuerdo con este artículo , para hacer eso, necesitaríamos resolver un rostro humano a una resolución de al menos 40x40 píxeles. Entonces, si decimos que un rostro humano adulto promedio mide 20 cm de ancho, deberíamos resolverlo dentro de los 5 mm. También en órbitas LEO extremadamente bajas que podrían ser utilizadas por algunos satélites topográficos, digamos 200 km sobre la superficie de la Tierra durante el perigeo de órbitas Molniya altamente elípticas , esto nos da una resolución angular requerida de 3.0 10 8  radical , o 0.00618794419  arco   (en radianes y segundos de arco , respectivamente).

Usando el límite de Dawes, podemos calcular la apertura mínima teórica del telescopio (en centímetros):

D = 11.6 R = 11.6 0.00618794419 = 1 , 874.6  cm

O un telescopio de aproximadamente 18,7 m (738 pulgadas, 61,5 pies, 20,5 yardas) de diámetro. No es imposible, pero un telescopio tan enorme sin duda sería visible incluso a simple vista (recuerde, ese es el diámetro mínimo, sería mucho más alto que eso) si captara un reflejo , y esa no suele ser una opción con los satélites espías militares. tenga en cuenta, mientras que ciertamente no hay tales telescopios comerciales y/o científicos en órbita.

Teniendo en cuenta que tomé en consideración los ejemplos de casos más extremos e ideales por el bien del argumento, y los números son un orden de magnitud más pequeños que lo que David Hammen obtuvo en su respuesta debido a eso, la respuesta sigue siendo:

No, no existe tal telescopio óptico en la órbita de la Tierra con la resolución requerida para identificar a las personas por sus rasgos faciales. Si lo fuera, lo sabríamos.

Una cosa que no debe olvidarse es que los satélites no pueden simplemente cambiar de órbita y estar en cualquier lugar y en cualquier momento que necesiten estar, para rastrear e identificar a las personas, incluso si pudieran hacerlo solo por sus rasgos faciales. Si alguien va a poner un equipo óptico tan capaz en los cielos, lo más probable es que sea en dirigibles / aerostatos discretamente pintados que podrían flotar silenciosamente a altitudes mucho más pequeñas, obtener imágenes de objetivos desde un ángulo poco profundo y seguir su movimiento más fácilmente. Y todo eso con equipos mucho más baratos, más pequeños y más difíciles de notar. O use helicópteros, drones , CCTV,... o buenas botas viejas en el suelo .

+1 por mencionar el clima! ¡Incluso si tuviéramos una óptica gigantesca en órbita, la turbulencia atmosférica y la dispersión seguirían siendo el factor limitante!
Sin embargo, estás dejando de lado la síntesis de apertura.

¿La fotografía sería lo suficientemente buena para el reconocimiento facial?

No todavía. Ni siquiera está cerca. El reconocimiento facial requiere de 50 a 100 píxeles entre los ojos, o del orden de 1 milímetro de resolución. Para ver ese tipo de detalle desde una distancia de 250 kilómetros usando luz azul-verde (500 nm) se necesitaría una lente o espejo de 125 metros de diámetro. Nota: estoy siendo muy generoso con esa distancia de 250 km y con el uso de la luz azul-verde. Para la física involucrada, consulte http://en.wikipedia.org/wiki/Airy_disk .

Los satélites KH-12 supuestamente tienen una resolución de 6 pulgadas más o menos. Dado el teorema de muestreo, eso significa una resolución de un pie en la práctica. Ni siquiera puedes ver que es una cara la que estás mirando con ese tipo de resolución, y mucho menos de quién es la cara.

¿Existe algún tipo de límite físico que ahora impida aumentos en la resolución?

Sí. Que la luz sea un fenómeno ondulatorio pone límites a la resolución de los equipos de imagen. La alta resolución requiere grandes lentes o espejos. Vea el artículo al que me vinculé antes.

Excelente respuesta Sin embargo, creo que el OP se preocupa por las imágenes aéreas en general, lo que hace posible leer las matrículas y realizar un análisis de la marcha.
@DanDascalescu: el OP se ocupa de las imágenes satelitales, no de las imágenes aéreas en general. En cuanto a la lectura de matrículas de un satélite: Eso es un mito. Según se informa, los satélites KH-11B tienen una resolución óptica de 5 a 6 pulgadas en el punto del subsatélite. Esa es una resolución insuficiente para leer una matrícula montada horizontalmente en el techo de un automóvil, y mucho menos una matrícula real montada verticalmente. Un satélite tendría que estar mirando en ángulo en lugar de en el nadir para ver una matrícula. Eso aumenta al objeto y aumenta los problemas atmosféricos.
Además de lo que dice el xkcd relacionado (y no sabemos cuánto mejoraron los satélites espía reales), solo quiero mencionar que cuando busco en Google algo como "reconocimiento facial de píxeles bajos", los resultados sugieren que en buenas condiciones es posible obtener algo valiosa información a partir de imágenes de tan solo 25x25 píxeles de todo el rostro. Agregar algunos algoritmos de seguimiento/aprendizaje automático además de esto hace que muchos reconocimientos/seguimientos sean mucho menos teóricos. Por supuesto, solo si corres, mirando hacia arriba todo el tiempo...
Me pregunto si la superresolución se está utilizando o podría usarse para sortear algunas de las limitaciones físicas.
@PlasmaHH 25x25 solo es bueno para reconocerlo como una cara , digamos en cámaras de apuntar y disparar, e incluso esas fallan. 40x40 que usé en mi respuesta es apenas suficiente para distinguir entre las características faciales de personas conocidas , por lo que podría decirse que es lo suficientemente bueno para determinar que 1) sí, es una cara y 2) en un grupo de personas conocidas, es probable que x sea de un persona y , donde x es lo suficientemente bueno . Cualquier reconocimiento facial real, como la biometría adecuada, requeriría una resolución mucho mayor que esa. Habiendo trabajado con el procesamiento de imágenes, de 50 a 100 píxeles entre los ojos me parece un mínimo.
@M.Dudley Las técnicas de superresolución se utilizan constantemente con imágenes satelitales y astronomía, esencialmente con cualquier distancia focal larga y/o imágenes de exposición hoy en día, incluso en vivo durante algunas transmisiones de eventos deportivos, en quad HD. Diablos, incluso la cámara de su teléfono inteligente probablemente tenga alguna mejora de resolución, reducción de ruido, exposición automática y otros algoritmos IQ integrados en su chip controlador. Para las respuestas aquí, eso no cambia nada, ya se tiene en cuenta al asumir condiciones improbables pero óptimas.

Por supuesto, esto es teoría, ya que estoy seguro de que si existen satélites que puedan identificar su cara, leer una matrícula o ver la hora en su reloj o un número de teléfono en su iPhone, nosotros (el público) estaríamos el último en enterarse.

Creo que vale la pena señalar que puede lograr lo mismo con lentes de menor diámetro simplemente por la rapidez con la que se mueve el satélite o por la cantidad o ambos.

Explicación:

2 telescopios de 13 metros que toman una foto del mismo objeto al mismo tiempo equivale a lo mismo que un telescopio de 1 x 18 metros. Los telescopios de 4 x 9 metros pueden hacer lo mismo que los telescopios de 1 x 18 metros. Estoy seguro de que hay rendimientos decrecientes, pero entiendes el punto...

Sin embargo

1 satélite con una lente de 1/2 metro que se mueve a 25,400 pies por segundo puede tomar 160 fotos únicas (ubicaciones diferentes) en 1/100 de segundo. Dado que la atmósfera, el calor y otros contribuyentes a la distorsión atmosférica no cambian (lo suficiente) en 1/100 de segundo, en realidad no es diferente a tomar 1 foto con un telescopio de diámetro mucho mayor.

Uno puede argumentar que la tecnología "no existe para hacerlo", pero la verdad es que sí. La tecnología de consumo disponible (como la cámara que usan en cámara lenta) es una cámara de alta resolución de 10,000 fps. Me arriesgaré y diré que la tecnología disponible para los Departamentos de Defensa / NSA / etc. es mejor.

Otra cosa a tener en cuenta es que la misma tecnología que se usa para la corrección atmosférica (el láser que dibuja una estrella falsa) se puede usar para tomar fotos satelitales. El satélite simplemente necesita un punto de referencia, o algo cuya forma sea conocida para poder ajustar y eliminar los efectos atmosféricos.

Estoy seguro de que sería caro.

Sin embargo, los satélites NRO pueden costar hasta $ 9 mil millones.

La limitación de unos 10 cm aquí solo se aplica a un único espejo. No sé si es posible, pero si puedes volar dos satélites espía en formación y combinar las imágenes usando interferometría óptica y dado que las imágenes de la Tierra son muy brillantes, ¿tal vez, solo tal vez, podrían mejorar eso?

Entonces, tengo que decir, no sé, en lugar de eso, es totalmente imposible. Esta no es mi propia idea, aunque es obvio una vez que lo piensas, lo obtuve de la conversación sobre Snopes aquí .

Teniendo en cuenta que las imágenes satelitales de 2008 pueden resolver las características de la superficie hasta un tamaño de 0,41 metros, creo que puede estar bastante seguro de que a estas alturas (2014) si está sentado en su patio trasero leyendo un periódico, el gobierno puede saber qué periódico está leyendo.

¡Bienvenido a SpaceEx.SE! Sería bueno tener un hipervínculo a la fuente de su nota (resolución de 2008 de hasta 0,41 m). Habiendo dicho eso, no es solo la resolución, también está un poco, a menos que un satélite esté en GEO, se deslice a varios km / s.
0,41 metros, eso es GeoEye-1. Enlace: en.wikipedia.org/wiki/GeoEye-1 . Los satélites de reconocimiento funcionan mejor que eso, con una resolución de aproximadamente un centímetro. Es un error pensar que toda la tecnología avanza al ritmo que mejoran los ordenadores. La tecnología espacial, por ejemplo, no lo hace.
Ese viejo comentario mío es incorrecto. Se cree que los satélites de reconocimiento tienen una resolución de diez centímetros. Las limitaciones están basadas en la física y la física (a diferencia de las computadoras) no ha cambiado.