¿Por qué las sombras de las palas en las fotos de la cámara de navegación Ingenuity se ven más brillantes que las sombras de las piernas?

Considere esta foto de la cámara de navegación Ingenuity en el primer (?) vuelo:Sombras con diferente opacidad.

Puedes ver que las sombras de las hojas parecen más brillantes que las sombras de las piernas. Es especialmente notable cuando se superponen.

Parece que las cuchillas son un poco transparentes. Pero ese no es el caso: incluso si la cámara funciona cerca del IR, las hojas de carbono no deberían ser transparentes.

Entonces, ¿cuál es la razón?

¿Ingenuity crea imágenes HDR al combinar "exposición corta" (las hojas parecen inmóviles) y "exposición prolongada" (las hojas hacen una revolución completa)?

¿Y por qué la sombra de la hoja superior izquierda (en la foto) muestra un degradado? (Es más brillante más cerca del cuerpo del helicóptero)

Las hojas están más arriba del suelo que el cuerpo y las piernas. La luz ha tenido más oportunidad de difundirse en las sombras de las hojas que en las sombras del cuerpo y las piernas debido a la mayor distancia. Al menos, esa es mi suposición. No estoy seguro de si el aire marciano podría ser responsable de tanta dispersión.
@BMF: No, la atmósfera marciana es demasiado delgada para producir tal efecto de dispersión (y si fuera debido a la dispersión, los contornos de las cuchillas serían mucho más borrosos). Las cuchillas deben ser translúcidas.
@TonyK translúcido? Huh, esa es una posibilidad. businessinsider.com/… Puedo encontrar algunas imágenes donde las sombras de las cuchillas se ven tan oscuras como el cuerpo. Tal vez sea de alguna manera el movimiento de las cuchillas.
@BMF: ¡Interesante! No tengo una explicación para eso. Pero tenga en cuenta que el cuerpo del helicóptero tiene una sección transversal cuadrada, mientras que el panel solar es rectangular. Y la imagen del OP muestra un rectángulo opaco, que solo puede ser la sombra del panel solar. Pero el panel solar es más alto que las palas del rotor, por lo que realmente no puede deberse a la dispersión.
@BMF: Vea los últimos tres o cuatro fotogramas de este video . Me llama la atención que 2400 rpm es muy rápido, por lo que sorprende que no muestren desenfoque de movimiento. ¿Quizás la cámara de navegación satelital está tomando una toma de exposición corta de apertura amplia y combinándola con una toma de exposición más larga? No sé por qué querría hacer eso, pero explicaría el efecto de sombra parcial.
@TonyK, ¿2400 rpm? Honestamente, pensé que sería más rápido con lo delgado que es el aire de Marte. Eso es alrededor de 40 Hz, o un Eb1 que suena así . También se trata de la velocidad a la que giraría un neumático de carrera a 200 mph. Estoy esperando una respuesta a esta pregunta porque estoy desconcertado. No estoy seguro, pero creo que puedo rastrear la forma de la sombra de las aspas debajo de la sombra del panel solar, en ciertas áreas. Eso podría (¿no?) suceder si estuviera doblemente expuesto.
(Está bien, teniendo en cuenta que las cuchillas tienen más de un metro de ancho, eso es bastante rápido)
Entiendo a qué te refieres con las sombras de las hojas, pero creo que es solo nuestro apetito insaciable por ver patrones donde no los hay.
Creo que @BMF tiene la respuesta correcta; si miras con cuidado, la luminosidad de la sombra está en orden de distancia desde el suelo; piernas más oscuras, luego cuerpo, panel solar y claros. La diferencia es suficiente para suponer que la nave estaba bastante cerca del suelo cuando se tomó la fotografía.
@antlersoft No creo que tenga razón. El panel solar está en realidad por encima de las aspas. Piernas, cuerpo, aspas, luego panel solar.
Las cuchillas están en ángulo, ¿verdad? ¿Quizás lo que estamos viendo es luz que se refleja en la parte inferior de las aspas hacia el área sombreada? Sin embargo, la luz no podía alinearse perfectamente con la sombra, hmm.
Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .

Respuestas (1)

Creo que tengo la respuesta.

Veamos esta explicación:

es involuntario y un artefacto de cómo funciona el sensor. Básicamente, sigue funcionando como un sensor de imagen de mucho menor rendimiento después de cerrar el obturador, pero antes de que se escaneen los datos de píxeles almacenados. Esencialmente, los fotoelectrones aún pueden ingresar al nodo de almacenamiento. https://mobile.twitter.com/sdamico/status/1384221915422724096

Entonces, la luz se filtra al píxel durante la lectura. En una tasa extremadamente baja en comparación con el tiempo de exposición, pero el tiempo de exposición es de aproximadamente 100 us, que es 100 veces más pequeño que 10 ms de lectura.

(Puede estimar el tiempo de exposición por el ángulo de manchado en la sombra de la cuchilla. El tiempo de lectura se puede estimar por FPS máximo: 100 fps da 10 ms por cuadro)

¿Podemos reproducir ese efecto?

Afortunadamente, encontré un video donde exactamente la misma cámara filmaba una pequeña hélice bajo la luz brillante:

hélice

Puede pausar el video y usar los botones < > para navegar cuadro por cuadro y observar exactamente la misma translucidez.

También esta publicación https://www.raspberrypi.org/forums/viewtopic.php?t=267563 del mismo autor, muestra una imagen fija de las cuchillas con un círculo translúcido prominente:

obturador global de hélice blanca

Tenga en cuenta que el efecto es mucho más prominente aquí. Yo creo que es porque:

a) La hélice blanca y el fondo oscuro dan un mayor contraste

b) El tiempo de exposición fue 4 veces más corto (0x04 en el video, 0x01 en la publicación del foro), lo que hace que la relación lectura/exposición sea 4 veces mayor.

UPD 21 de julio de 2021: Descargo de responsabilidad por infrarrojos

Parece que me equivoqué al suponer que la cámara de navegación Ingenuity funciona en IR. OV7251 puede funcionar en IR y es divertido que el pequeño pdf diga sobre el "filtro de paso de banda integral de 850 nm" (del cual pensé que solo tiene IR-version). Pero resulta que hay diferentes versiones para IR y solo para luz visible. Y ahora no puedo encontrar ninguna prueba de que Ingenuity esté usando la versión IR. Pero la parte IR todavía parece plausible para otros casos, así que no la eliminaré.

También creo que el efecto es más prominente con la luz infrarroja, porque el silicio (del que está hecho el sensor) es un poco translúcido en IR.

silicio y LED IR( https://www.flickr.com/photos/imager/3380554807 )

Por lo tanto, haga que sea más fácil dispersarse y llegar a los nodos de almacenamiento:

nodo de almacenamiento en sensor CMOS

Puede explicar por qué la cantidad de efecto para Ingenuity y para video se ve igual, a pesar de que la lectura/exposición es mucho mayor para video (he estimado la exposición en el orden de 10us): en video se usó algo de LED para iluminación, y LED tiene órdenes de magnitud menos IR que el sol.

¡Hermoso! Esta es una respuesta realmente interesante. El dibujo de la sección transversal muestra que han incluido metalización sobre el área de almacenamiento para que no detecte los fotones directamente, pero por alguna razón no está lo suficientemente aislado para evitar que una baja tasa de fotoelectrones de otras partes del píxel se desvíe hacia él durante esos tiempos "largos" entre la exposición cerrada y la lectura. ¡Fresco!
He sostenido obleas de silicio pulidas por ambos lados frente a cámaras térmicas de infrarrojos y son tan transparentes como el cristal en esas longitudes de onda, así como en cualquier intervalo de banda sustancialmente más largo que el infrarrojo cercano. El silicio monocristalino de grado electrónico y alta resistividad es increíblemente transparente en el IR, pero con un índice de refracción de 2,5 a 3,5, todavía hay un reflejo fresnel perverso en cada interfaz.
@uhoh, ahora creo que me equivoqué con la sensibilidad IR de la cámara de Ingenuity (ver respuesta actualizada). Pero todavía me encanta esa idea de dispersión. Voy a conseguir una cámara con obturador global y probar.