¿En qué punto las cámaras reducen el tamaño de las fotos cuando usan un cuarto de resolución del sensor?

Mi sensor Nikon D5600 puede entregar 24MP pero lo configuré para usar solo 6MP. ¿En qué paso del proceso la cámara "reduce" las imágenes?

¿Quizás ya al nivel del sensor? ¿Al calcular un 'promedio' de la señal de cuatro píxeles vecinos? ¿O usando solo cada cuarto píxel?

¿Antes o después de la reducción de ruido? ¿Antes o después del afilado?

¿O simplemente reducen la escala de la imagen, justo antes de escribirla en la tarjeta SD?

¿Qué le hace a la calidad de la imagen? ¿Veré menos ruido? ¿Serán posibles ajustes ISO más altos debido a menos ruido?

PD: El filtro de Bayer fue mencionado en los comentarios. Cuando pienso en ello, eso lo hace aún más complicado. O interesante:

Esto significa que, hasta cierto punto, tienen que escalar la señal de imagen/color para alcanzar esos 24 MP.

Entonces tengo aún más curiosidad si, al disparar con 6MP, primero escalan (interpolando) los datos a 24MP y luego los vuelven a reducir o si usan otro algoritmo para 6MP (dudo) sin interpolar. ¿Y si tal algoritmo alternativo de 6MP produjera resultados más nítidos?

Bienvenidos, buena pregunta y una que me interesa...
Otra opción, que a veces se usa para video, es usar solo la parte central del sensor (que, por supuesto, proporciona un factor de recorte más alto).
Creo que solo se escala en la generación jpeg, ya que no ofrece RAW de baja resolución. Y espero que lo haga antes de afilar, pero no tengo una respuesta definitiva.
No se puede hacer a nivel del sensor debido al filtro de Bayer. Cada uno de los píxeles que le gustaría promediar juntos son de un color diferente. Si intentara hacerlo de todos modos, obtendría una desalineación entre los componentes rojo, verde y azul.
Es posible que cada fabricante de cámaras que ofrece esta función lo haga de manera diferente.
@MarkRansom existe el binning de píxeles y sraw.

Respuestas (1)

Por lo general, las cámaras capturan datos utilizando el sensor completo que proporciona datos RAW de resolución completa que se convierten en una imagen y luego se reducen. De hecho, si selecciona disparar JPEG + RAW, aún obtiene un archivo RAW de resolución completa y un JPEG reducido.

Su propuesta de usar cada cuarto píxel o el promedio de los píxeles vecinos es poco probable ya que no funciona bien con los filtros de Bayer. En el mejor de los casos, obtendría una imagen con mucho aliasing y muaré fuerte. Esta es una técnica que ha sido criticada cuando se usa para video donde se necesita un ancho de banda más bajo.

Los fabricantes de cámaras han intentado cosas diferentes. El caso de un cuarto de resolución es fácil ya que el filtro Bayer repite una cuadrícula de 2x2 de subpíxeles rojo, verde, verde y azul. Para obtener exactamente un cuarto de resolución, se puede obtener una imagen a todo color simplemente usando el rojo y el azul directamente, además de promediar los dos verdes. Todavía necesita obtener la misma cantidad de salida del sensor.

En particular, Fuji implementó un sensor que les permitió obtener la imagen de un cuarto de resolución directamente del sensor mediante el uso de un patrón de colores girados 45 ° que llamaron EXR Color Array. Esto hace que cada dos subpíxeles del mismo color sean adyacentes y se puedan leer al mismo tiempo, lo que reduce el ruido y el ancho de banda. La página oficial de Fuji parece haber desaparecido, pero aquí hay un artículo al respecto.

La reducción de ruido se puede aplicar antes o después, pero dado que la reducción de la resolución también reduce la cantidad de ruido aparente, probablemente se hará más tarde. La nitidez debe hacerse como último paso debido al hecho de que la reducción de escala suaviza las imágenes.

Algunas cámaras también ofrecen RAW de un cuarto de resolución. Sospecho que lo hacen con una reducción de escala especial a los datos RAW, ya que otras formas requerirían circuitos adicionales en el sensor que tendrían un impacto en el ruido, el calor y la complejidad.