¿Cuántos bits de datos captura normalmente un sensor de cámara digital?

En un comentario sobre esta pregunta, alguien sugirió que los sensores de la cámara generalmente solo emiten entre 12 y 14 bits de datos. Me sorprendió porque eso significaría que 24 bits de color solo son útiles para realizar manipulaciones fotográficas (donde los bits agregados reducen el ruido que se obtiene al interpolar valores medios repetidamente al realizar múltiples manipulaciones).

¿Alguien sabe lo suficiente sobre el sensor de la cámara para poder responder con autoridad al reclamo de 12-14 bits? Si es así, ¿cuáles son las codificaciones típicas?

Mis disculpas a Itai y Guffa, ya que pensé que las tres respuestas eran muy interesantes, y gracias por los comentarios que siguieron a la respuesta de Guffa, mattdm y Matt Grum. Ojalá hubiera podido seleccionarlos todos.

Respuestas (4)

Los fotositos de un sensor digital son en realidad dispositivos analógicos . Realmente no tienen un poco de profundidad en absoluto. Sin embargo, para formar una imagen digital, un convertidor de analógico a digital (convertidor A/D) muestrea la señal analógica a una profundidad de bits determinada. Esto normalmente se anuncia en las especificaciones de una cámara; por ejemplo, la Nikon D300 tiene un convertidor A/D de 14 bits .

Pero tenga en cuenta que esto es por canal , mientras que el color de 24 bits generalmente significa 8 bits por canal. Algunos formatos de archivo, y espacios de trabajo, usan 16 bits por canal (para un total de 48 bits), y algunos usan incluso más que eso.

Esto se debe en parte a que la precisión adicional puede reducir los errores de redondeo acumulados (como señala en su pregunta), pero también se debe a que la visión humana no es lineal y, por lo tanto, los espacios de color que usamos tienden a no serlo. Cambiar de una curva lineal a una "comprimida gamma" es una operación con pérdida (vea una de las varias preguntas sobre archivos ), por lo que tener más bits simplemente significa menos pérdida, lo cual es mejor si cambia de opinión sobre la exposición/curvas y no Ya no tendrás acceso al archivo RAW.

Creo que esta respuesta podría mejorarse: primero, el sensor no emite bits, así es, pero la salida del sensor y el convertidor A / D deben coincidir. Por ejemplo, no tiene mucho sentido convertir la salida de un sensor ruidoso a 16 bits, ya que la mayoría de los bits serían solo ruido. En segundo lugar, la salida del convertidor A/ es muy no lineal con respecto a la ligereza. En tercer lugar, no se trata de errores de redondeo , sino de errores de cuantización . Posiblemente debería explicar algo mejor la "pérdida" citada.

La mayoría de los chips sensores solo registran un componente de color por píxel, por lo que un píxel puede contener, por ejemplo, 14 bits de datos para la intensidad del verde.

Los píxeles se disponen en una cuadrícula donde el 50 % de los píxeles registran datos verdes, el 25 % rojos y el 25 % azules:

RGRGRGRGRGRGRGR
GBGBGBGBGBGBGBG
RGRGRGRGRGRGRGR
GBGBGBGBGBGBGBG
RGRGRGRGRGRGRGR

Cuando estos datos se convierten a RGB, se interpolan dos componentes de color por píxel a partir de la información de los píxeles circundantes. Un píxel que contiene información verde, por ejemplo, tiene dos píxeles vecinos que contienen datos rojos y dos que contienen datos azules, que se utilizan para crear el valor RGB.

Entonces, 14 bits por píxel de datos RAW producen 42 bits por píxel de datos RGB. Por supuesto, los datos interpolados son menos precisos, pero de todos modos normalmente los procesa hasta RGB de 24 bits.

¿42 bits o 56 (2×G)?
Cada píxel RGB se crea a partir de un promedio ponderado de potencialmente muchos píxeles, por lo que no puede simplemente multiplicar por 3 (o 4) para determinar cuántos bits de datos de color obtiene. Si desea hablar sobre bits de información de color, experimentalmente obtiene alrededor de 22 bits con una DSLR típica
@Matt Grum: Sí. El número simple le dice cuántos bits de datos tiene, pero termina con mucha menos información real .

Tenga cuidado de no confundir la profundidad de bits por píxel y la profundidad de bits por componente.

La salida de los sensores digitales casi siempre está entre 10 y 14 bits por componente en una escala lineal. Eso daría entre 30 bits de color (mil millones) y 42 bits (4 billones) por píxel.

El sitio DXOMark mide esto utilizando una escala normalizada (explicada en su libro blanco) y publica la profundidad de bits por píxel que representa el ruido que tiende a destruir los bits de orden inferior. Según sus hallazgos de fotograma completo, las DSLR pueden alcanzar los 24,7 bits por píxel, mientras que las cámaras de formato medio alcanzan los 26 bits. Para cámaras con sensor recortado, 23,8 bits es el máximo actual.

"en su libro blanco" se beneficiaría enormemente de una URL.

Las cámaras DSLR actuales superan la salida de 14 bits. Algunas cámaras de formato medio reclaman una salida de 16 bits, pero varias personas ( como el sitio dpBestflow de ASMP ) han argumentado que el aumento en la profundidad de bits entre 14 bits y 16 bits en realidad produce una mejor imagen.

De lo que la mayoría de las respuestas no hablaron es de "Exposición": ¿Se beneficia de más bits en los datos sin procesar si su mago está subexpuesto? Citando también de "POYNTON, Charles, 2012. Digital Video and HD. Second Edition. Waltham MA 02451, USA: Morgan Kaufmann. ISBN 978-0-12-391926-7" (p. 325): "Para mantener La precisión de BT.709 en un sistema de luz lineal requeriría 12 bits por componente. (...) Para video de mayor calidad, (...) nos gustaría una ganancia máxima más alta. (...) Para estos sistemas, lineal -la representación ligera requiere 4 bits en exceso de 10 en la escala no lineal, es decir, 14 bits por componente".