¿Disparar a una resolución RAW más baja usando una cámara con sensor de recorte imita las cualidades de las cámaras de fotograma completo?

No estoy hablando de cambios en la distancia focal.

He leído muchas publicaciones que dicen que en la cámara de fotograma completo la densidad de píxeles es menor en comparación con la cámara con sensor de recorte y, por lo tanto, captura más luz y, por lo tanto, tiene un mejor rendimiento ISO y un mayor rango dinámico. Entonces, si cambio la cámara con sensor de recorte para disparar a una resolución más baja, ¿eso equivaldrá a una mejor densidad de píxeles e imitará el rendimiento de un fotograma completo (o formato medio) o siempre disparará a la resolución máxima y reducirá el tamaño?

--EDIT: 1--
Tengo una Canon 60D y tengo 3 opciones para tamaños de imagen RAW (RAW, M-RAW y S-RAW). Si RAW es solo un volcado de los sensores de la cámara, ¿cómo pueden tener 3 tamaños diferentes? ¿La cámara también reduce la escala de las imágenes RAW?

Vivek: lea esta pregunta: photo.stackexchange.com/q/3419/1024 . Según @whuber (y el artículo al que se vincula), los RAW más pequeños son de hecho una especie de agregación de los sentidos individuales, como lo que Stan describe en su respuesta, solo que se hace en software en lugar de en hardware.
(La página de enlaces a ysap cubre la parte mraw/sraw de la pregunta).
Voy a leer el documento de ysap y comentarlo.

Respuestas (3)

Dado que tiene una Canon, los modos RAW más bajos, mRAW y sRAW, UTILIZAN TODOS los píxeles del sensor disponibles para producir un resultado más rico sin la necesidad de la interpolación de Bayer. El formato de salida real, aunque todavía se encuentra dentro de un archivo de imagen RAW de Canon .cr2, está codificado en un formato Y'CbCr, similar a muchos formatos desplegables de video. Almacena información de luminancia para cada píxel COMPLETO (2x2 quad de 1 rojo, 1 azul y 2 verdes) y cada canal de crominancia se deriva de datos de medio píxel (1x2 pares de 1 rojo+1 verde o 1 azul+1 verde) .

No estoy exactamente seguro de cuáles son las diferencias específicas de codificación y lectura de hardware de bajo nivel entre mRAW y sRAW, sin embargo, en términos generales, cuanto más pequeño es el formato de salida, más información de entrada de píxeles del sensor puede usar para cada píxel de salida. La pequeña cantidad de interpolación presente en m/sRAW es discutible, ya que ambos formatos interpolan mucho menos que el RAW nativo. También se debe tener en cuenta que ni mRAW ni sRAW son formatos "RAW" reales en el sentido normal... los datos del sensor SE procesan y se convierten en otra cosa antes de guardarlos en un archivo .cr2.

Para obtener más detalles sobre los formatos derivados de YUV y sRAW de Canon, vea mi respuesta aquí: ¿Por qué el espacio de color xvYCC no está teniendo aceptación para la fotografía fija?

De "Comprender lo que se almacena en un archivo Canon RAW .CR2":

El formato sRaw (para "pequeño RAW") se introdujo con la 1D Mark III en 2007. Es una versión más pequeña de la imagen RAW.

Para la 1D Mark III, luego la 1Ds Mark III y la 40D (todas con Digic III), el tamaño sRaw es exactamente 1/4 (una cuarta parte) del tamaño RAW. Por lo tanto, podemos suponer que cada grupo de 4 "píxeles del sensor" se resume en 1 "píxel" para el sRaw.

Con la 50D y la 5D Mark II (con el chip Digic IV), el RAW de 1/4 de tamaño sigue ahí (sRaw2), y también aparece un RAW de tamaño medio: sRaw1. Con el 7D, la mitad del tamaño sin procesar se llama mraw (la misma codificación que sraw1), 1/4 sin procesar se llama sraw (como el sraw2).

el jpeg sin pérdida sRaw siempre se codifica con un componente de 3 colores (nb_comp) y 15 bits.

El código jpeg de Dcraw se modificó por primera vez (8.79) para manejar sRaw debido al valor h=2 del primer componente (fondo gris en la tabla). Los RAW normales tienen siempre h=1. Comenzando con el 50D, tenemos v=2 en lugar de v=1 (naranja en la tabla). Dcraw 8.89 es la primera versión que maneja esto y el sraw1 de 50d y 5D Mark II.

"h" es el factor de muestreo horizontal y "v" el factor de muestreo vertical. Especifica cuántas unidades de datos horizontales/verticales se codifican en cada MCU (unidad codificada mínima). Ver T-81, página 36.

3.2.1 Formato sRaw y sRaw2

h=2 significa que los datos descomprimidos contendrán 2 valores para el primer componente, 1 para la columna n y 1 para la columna n+1. Con los otros 2 componentes, sraw y sraw2 descomprimidos (que tienen h=2 y v=1), siempre tienen 4 valores elementales

[ y1 y2 xz ] [ y1 y2 xz ] [ y1 y2 xz ] ...
(y1 e y2 para el primer componente)

Cada "píxel" en las imágenes sRAW y mRAW contiene cuatro componentes... un componente Y' dividido (y1 e y2), así como una x (crominancia azul) y una z (crominancia roja). Los cuatro componentes (desde una perspectiva de 1/2 imagen, sRAW1/mRAW) tienen una altura de columna de 2 (h) y un ancho de 1 (v). Esto indica que el valor de luminancia (Y') se compone de un cuadrante COMPLETO de 2x2 píxeles... o dos columnas de 2x1 píxeles almacenadas en y1 e y2.

Las referencias a continuación no parecen indicar esto específicamente, por lo que estoy especulando un poco aquí, sin embargo, con el sRAW2 (1/4 sin procesar), creo que la información de luminancia se derivaría de un bloque de 4x4 píxeles donde h = 4 y v = 2. La codificación de la crominancia sería más compleja en una imagen de 1/4 de tamaño, ya que la matriz de filtros de color bayer en el sensor no está ordenada en columnas rojas y azules ordenadas. No estoy seguro de si se procesan columnas alternas de altura 2x1 para cada componente Cr y Cb, o si se realiza alguna otra forma de interpolación. Una cosa es cierta... la interpolación de los datos de origen siempre es mayor que los datos de salida, y no se produce superposición (como en la interpolación normal de bayer) por lo que puedo decir.

Finalmente, sRAW1/mRAW y sRAW/sRAW2 se comprimen mediante un algoritmo de compresión sin pérdidas. Esta es una distinción fundamental entre estos formatos y JPEG, que también utiliza una codificación de tipo ycc. JPEG realiza una compresión con pérdida, lo que hace imposible restaurar los píxeles a su representación original exacta. De hecho, los formatos s/mRAW de Canon se pueden restaurar a los datos de imagen originales de 15 bits con total precisión.

Referencias:

En teoría, podría hacerlo si la cámara utilizara la estrategia correcta para reducir el tamaño de la imagen.

Como notó, con las cámaras con sensor de recorte actuales, la imagen sin procesar sigue siendo la misma sin importar el tamaño de JPEG que haya configurado. La imagen JPEG simplemente se escala. Esto puede reducir un poco la apariencia del ruido, pero la reducción se debe al algoritmo de escalado de la imagen (no puede incluir tantos píxeles moteados en la imagen más pequeña como en la versión de tamaño completo). Sin embargo, es más probable que pueda hacerlo al menos tan bien, si no mejor, si realiza la reducción de ruido y escala usted mismo después del hecho.

Existe una estrategia que producirá una verdadera reducción del ruido. Algunos respaldos de formato medio de alta resolución (como la serie Phase One SensorPlus) utilizan una estrategia llamada agrupamiento de píxeles , donde los grupos de sensores adyacentes se tratan como un sensor mucho más grande y su carga acumulada se lee del sensor. Eso es diferente de leer cargos individuales y promediar (que es a lo que está restringido en el procesamiento posterior a la lectura): ocurre a nivel de hardware y cambia lo que significa "sin procesar". El ruido de lectura tiene más posibilidades de cancelarse, y la carga acumulada hace que la conversión de analógico a digital sea menos ambigua (el rango de cuantos convertidos es más amplio con menos amplificación).

En la práctica, esto suele significar reducir la resolución por un factor de cuatro (la mitad del ancho y la mitad de la altura). Con un respaldo de formato medio de 60 u 80 MP, eso aún te deja con una imagen de 15 o 20 MP; con una cámara con sensor de recorte de 16MP, tendrías una imagen sin procesar de 4MP. Ahora puede que sepa y yo sepa que una imagen limpia de 4 MP es mejor que una imagen ruidosa de 16 MP, pero no todo el mundo aceptará la idea de que cuesta más producir una imagen más pequeña. Eso significa que es poco probable que veas el uso de agrupamiento de píxeles en algo que no sea una cámara de nivel profesional en el corto plazo. Puede aparecer en cámaras de fotograma completo si su resolución sigue aumentando, pero no lo buscaría en un sensor de recorte. (Bueno, tal vez Pentax podría intentarlo algún día, ya que no hacen fotograma completo).

Lo siento, creo que debería aclarar sobre los tamaños de imagen RAW. Tengo una Canon 60D y tengo 3 opciones para tamaños de imagen RAW (RAW, M-RAW y S-RAW). Si RAW es solo un volcado de los sensores de la cámara, ¿cómo pueden tener 3 tamaños diferentes? ¿La cámara también reduce la escala de las imágenes RAW?
@Stan: Canon ya hace exactamente lo que describiste con sus formatos mRAW y sRAW. No son formatos RAW literales, son derivados de YUV (Y'CrCb para ser exactos) y, de hecho, son formas de binning de píxeles. Ver mi respuesta para más detalles.
Con respecto al futuro: la limitación real es el área del sensor. Si el tamaño del sensor sigue siendo el mismo y la resolución aumenta (reduciendo los píxeles), no habrá una ganancia neta del agrupamiento de píxeles. Es simplemente una cuestión de usar más sensores para leer la misma área física del sensor. Lo que podemos esperar es una sensibilidad mejorada de los sensores individuales, de modo que se registre más luz y menos ruido dentro de cualquier pequeña porción del sensor.
@jrista: eso no es agrupamiento, es un promedio posterior a la lectura. El agrupamiento debe dar como resultado una reducción integral en la resolución lineal, y los datos de fotositos individuales no están disponibles para el procesamiento, ya que las lecturas acumulativas (no lecturas separadas, luego promediadas) se realizan en múltiples sentidos. (En un sistema cuádruple de Bayer, eso significa 1/4, 1/16, 1/64, etc., de la resolución total expresada como área o píxeles). El promedio posterior a la lectura no es diferente, técnicamente, del escalado; simplemente está trabajando en un espacio de datos diferente.

Si el alto nivel de ruido es su principal problema, una solución es disparar varios fotogramas y tener un software con buenos algoritmos que combine una buena imagen de varias peores. Por ejemplo , ALE, Anti-Lamenessing Engine hace esto. Obviamente, para sujetos en movimiento esto no funciona, pero puede disparar cámara en mano, digamos, a ISO 1600 y luego combinar las tomas para llegar a niveles de ruido cercanos a ISO 400 u 800.