¿Cómo difiere la profundidad de color de una cámara a otra?

¿Cuál es la parte de la cámara responsable de la profundidad de color de las imágenes?
¿Es propiedad del sensor de imagen o del procesador de imagen de la cámara? ¿Y por qué se diferencia de las cámaras?

¿Qué efecto tiene una pequeña diferencia en la profundidad del color en la imagen resultante?

¿Está preguntando por la "profundidad de color", que solo puedo considerar como profundidad de bits... o realmente está preguntando por la "fidelidad del color", que se referiría a la calidad y riqueza del color producido por una cámara? La profundidad de bits es realmente una elección que hacen los fabricantes de cámaras, y construyen sus ADC y canalización de procesamiento de imágenes para operar en una profundidad de bits determinada.

Respuestas (3)

En términos generales, la mayoría de las cámaras DSLR en estos días son de 14 bits. Los factores de forma más pequeños pueden tener profundidades de bits más bajas, como 10 o 12. La profundidad de bits de una cámara se refiere en última instancia a la cantidad de niveles distintos de luminancia que una cámara es capaz de producir. Este es un factor de dos a la potencia , lo que significa que una cámara de 14 bits es capaz de producir 2^14 o 16384 niveles distintos (de tono... independientemente del color). Una cámara de 12 bits es capaz de producir 2^12 o 4096 niveles.

Una diferencia en la cantidad de niveles tonales tiene un pequeño impacto en la cantidad de colores producidos y, en la mayoría de los casos, es probable que sea difícil distinguir la diferencia de color entre una cámara de 12 y 14 bits. Un aumento en el número de niveles tonales puede tener un impacto significativo en la calidad general del tono, particularmente en la calidad de los degradados, en una fotografía. Una cámara de 12 bits correrá un mayor riesgo de producir fotos con posterización , un efecto que generalmente aparece en grandes áreas de degradados suaves o en su mayoría de colores sólidos, debido a las transiciones bruscas en la luminancia.

Cuando se trata de color, esto puede verse más afectado por la construcción del sensor, particularmente la fuerza y ​​la calidad de los filtros de color sobre cada píxel en un sensor Bayer, o la capacidad de un sensor en capas para discernir claramente la cantidad de electrones registrados. para lecturas de azul, verde y rojo de cada píxel. Una cámara con un CFA fuerte (conjunto de filtros de color) generalmente producirá colores más ricos y precisos que una cámara con un CFA más débil. La calidad del color o la fidelidad del color ., de una cámara a menudo depende más en estos días de las capacidades de su procesador de imagen, o de la precisión y exactitud de las curvas de tono (imagen o estilos de imagen) aplicadas durante el procesamiento de la señal del sensor. Incluso con un CFA más débil (que tiende a hacer que un sensor sea un poco más "daltónico"), la calidad del color se puede ajustar y mejorar con un algoritmo de procesamiento de imágenes preciso y de alta calidad. Esto se aplica más a JPEG que a RAW, y cuando se trata de RAW, la historia de la fidelidad del color depende un poco más de la capacidad del sensor para detectar el color preciso.

Por lo tanto, en general, los cambios pequeños e incluso mayores en la profundidad de bitsgeneralmente no afectará la percepción general del color en una foto. Los humanos, de acuerdo con la mayoría de los estudios, solo pueden distinguir realmente unos pocos millones de "colores" distintos (a una iluminación media constante... cuando se tiene en cuenta la luminancia, los humanos pueden detectar billones de niveles de gradación para un color dado... como rojo o azul... pero todavía somos sensibles a unos pocos colores distintos). Un dispositivo de 10 bits puede manejar más de mil millones de colores (tanto "crominancia" como "luminancia"). Un dispositivo de 12 bits puede manejar 68 mil millones de colores. Un dispositivo de 14 bits puede manejar 4 billones de colores. A la mayoría de las personas les resultaría difícil distinguir la diferencia entre una pantalla de computadora de 8 bits y una de 10 bits. Incluso menos personas podrían notar la diferencia entre una pantalla de 10 bits y una hipotética de 12 bits, y aquellos que pudieran probablemente notarían la calidad mejorada de las gradaciones tonales más que cualquier aumento percibido en los colores observables. El valor de una cámara que produce fotos con mayor profundidad de bits está en la calidad del tono... la calidad y finura de las pequeñas diferencias de luminancia entre píxeles. Cuando se trata de color... siempre que tenga control sobre las curvas de tono RGB de bajo nivel aplicadas a una imagen RAW cuando se procesa, técnicamente podría lograr cualquier nivel de fidelidad de color que desee con casi cualquier cámara.

En términos de rendimiento del archivo, la cantidad de bits por píxel limita la profundidad de color de su cámara. Hablamos de profundidad de color aquí en bits (8 bits, 12 bits, 14 bits, etc.), y el lugar más tangible para ver esto es en los archivos RAW producidos por su cámara. Según tengo entendido, esto está directamente relacionado con la profundidad de bits producida por cada fotosito en el sensor. Cada fotosito, pues, produce una señal débil o una señal fuerte correspondiente a la luz que incide sobre él, y esta señal se representa digitalmente en una función escalonada según un número de bits. Un bit le daría "apagado" o "encendido", dos le daría uno de {0,1,2,3}, y así sucesivamente.

Sin embargo, esta capacidad técnica es solo una parte del rendimiento. La construcción del sensor también determina qué tan sensible es a la luz que cae sobre él, de modo que podría tener un sensor de 14 bits que funciona mejor que otro. El tamaño del sensor es el mayor contribuyente individual al rendimiento aquí, pero las tecnologías como las microlentes también ayudan a que cada sitio de fotos recopile la máxima luz posible.

Finalmente, la óptica también puede contribuir al rendimiento del rango dinámico. Los mejores lentes transmiten más luz y transmiten la luz de manera más neutral, en todo el espectro de luz y en todo el campo de visión, por lo que producirán un mejor rendimiento de rango dinámico que un lente menor.

Es el cmos/ccd y la construcción electrónica lo que limita el rango dinámico, que es el piso de saturación/ruido.

La profundidad de bits solo indica cuántos escalones hay en la escalera desde el piso de ruido hasta la saturación. El balance de blancos innato del patrón bayer y el espectro de sensibilidad del sensor también entran en juego, cuando tiene que recortar un cierto nivel para mantener los reflejos blancos como blancos; esto reduce efectivamente el nivel de saturación. No importa si el valor máximo de píxel es 255 o 65535, no cambia la cantidad de luz del mundo real que se necesita integrar para superar el ruido de fondo y cuánto m

Mucho se necesita para saturar el sensor. Sin embargo, en la conversión de este máximo para hacer una hermosa imagen de 8 bits, le brinda más flexibilidad para jugar.

La lente no puede contribuir al rango dinámico. Incluso si miró a través de las gafas de sol, aún obtiene el mismo DR, solo necesita una exposición más larga para llegar allí, lo que a su vez facilita la obtención de imágenes claras en una escena dinámica.