En un comentario sobre esta pregunta, alguien sugirió que los sensores de la cámara generalmente solo emiten entre 12 y 14 bits de datos. Me sorprendió porque eso significaría que 24 bits de color solo son útiles para realizar manipulaciones fotográficas (donde los bits agregados reducen el ruido que se obtiene al interpolar valores medios repetidamente al realizar múltiples manipulaciones).
¿Alguien sabe lo suficiente sobre el sensor de la cámara para poder responder con autoridad al reclamo de 12-14 bits? Si es así, ¿cuáles son las codificaciones típicas?
Los fotositos de un sensor digital son en realidad dispositivos analógicos . Realmente no tienen un poco de profundidad en absoluto. Sin embargo, para formar una imagen digital, un convertidor de analógico a digital (convertidor A/D) muestrea la señal analógica a una profundidad de bits determinada. Esto normalmente se anuncia en las especificaciones de una cámara; por ejemplo, la Nikon D300 tiene un convertidor A/D de 14 bits .
Pero tenga en cuenta que esto es por canal , mientras que el color de 24 bits generalmente significa 8 bits por canal. Algunos formatos de archivo, y espacios de trabajo, usan 16 bits por canal (para un total de 48 bits), y algunos usan incluso más que eso.
Esto se debe en parte a que la precisión adicional puede reducir los errores de redondeo acumulados (como señala en su pregunta), pero también se debe a que la visión humana no es lineal y, por lo tanto, los espacios de color que usamos tienden a no serlo. Cambiar de una curva lineal a una "comprimida gamma" es una operación con pérdida (vea una de las varias preguntas sobre archivos sin procesar ), por lo que tener más bits simplemente significa menos pérdida, lo cual es mejor si cambia de opinión sobre la exposición/curvas y no Ya no tendrás acceso al archivo RAW.
La mayoría de los chips sensores solo registran un componente de color por píxel, por lo que un píxel puede contener, por ejemplo, 14 bits de datos para la intensidad del verde.
Los píxeles se disponen en una cuadrícula donde el 50 % de los píxeles registran datos verdes, el 25 % rojos y el 25 % azules:
RGRGRGRGRGRGRGR
GBGBGBGBGBGBGBG
RGRGRGRGRGRGRGR
GBGBGBGBGBGBGBG
RGRGRGRGRGRGRGR
Cuando estos datos se convierten a RGB, se interpolan dos componentes de color por píxel a partir de la información de los píxeles circundantes. Un píxel que contiene información verde, por ejemplo, tiene dos píxeles vecinos que contienen datos rojos y dos que contienen datos azules, que se utilizan para crear el valor RGB.
Entonces, 14 bits por píxel de datos RAW producen 42 bits por píxel de datos RGB. Por supuesto, los datos interpolados son menos precisos, pero de todos modos normalmente los procesa hasta RGB de 24 bits.
Tenga cuidado de no confundir la profundidad de bits por píxel y la profundidad de bits por componente.
La salida de los sensores digitales casi siempre está entre 10 y 14 bits por componente en una escala lineal. Eso daría entre 30 bits de color (mil millones) y 42 bits (4 billones) por píxel.
El sitio DXOMark mide esto utilizando una escala normalizada (explicada en su libro blanco) y publica la profundidad de bits por píxel que representa el ruido que tiende a destruir los bits de orden inferior. Según sus hallazgos de fotograma completo, las DSLR pueden alcanzar los 24,7 bits por píxel, mientras que las cámaras de formato medio alcanzan los 26 bits. Para cámaras con sensor recortado, 23,8 bits es el máximo actual.
Las cámaras DSLR actuales superan la salida de 14 bits. Algunas cámaras de formato medio reclaman una salida de 16 bits, pero varias personas ( como el sitio dpBestflow de ASMP ) han argumentado que el aumento en la profundidad de bits entre 14 bits y 16 bits en realidad produce una mejor imagen.
Juan Robertson