¿Por qué no vemos gráficos del espacio de color/gama de una DSLR?

Para muchas pantallas, vemos el espacio de color o la gama que se muestra en los gráficos de cromaticidad en comparación con algunos espacios de color estándar como Rec. 709, sRGB, Adobe RGB y Prophoto RGB, que ofrece una indicación de la capacidad de reproducción del color del dispositivo de visualización. También se realizan gráficos similares para muchas impresoras populares.

Pero no para las DSLR, como, por ejemplo, la gama de colores de una Nikon D300s DSLR trazada en una tabla de cromaticidad. ¿Por qué esto es tan?

Respuestas (3)

La gama cromática es propiedad del dispositivo de salida, no de un dispositivo de grabación.

El dispositivo de entrada colorimétrica se caracteriza por su conformidad con el criterio de Maxwell-Ives, es decir, cuán metaméricamente cerca está del observador estándar CIE, el equivalente de la visión humana fotópica. Este cumplimiento se puede caracterizar aproximadamente con un valor, el ejemplo de esto es la puntuación de metamerismo de DxOMark y el metamerismo es la propiedad más importante del dispositivo de grabación de color que se debe caracterizar.

Teóricamente, un dispositivo de grabación PUEDE tener una gama cromática de entrada limitada si, por ejemplo, utiliza funciones de combinación de colores con respuestas negativas presentes (solo lo estoy inventando porque no hay posibilidad práctica de hacer esto, un dispositivo que hace esto sería un dispositivo roto). dispositivo):CMF CIE1931

Si sucede que la electrónica de ese dispositivo imaginario no es capaz de producir datos de imagen negativos, entonces las longitudes de onda de 400 a 600 estarían fuera de la gama para dicho dispositivo, mientras que algunas mezclas de longitudes de onda estarían dentro de la gama.

Sin embargo, no hay obligación de usar esas funciones con partes negativas porque hay funciones de coincidencia de color completamente positivas que también brindan un metamerismo preciso porque cuando tiene datos cromáticos completos en todos los puntos de la imagen, puede usar operaciones aritméticas en todos los canales para deducir el color verdadero. :CMF CIE XYZ

Ninguna cámara que he visto tiene respuestas negativas reales.

Lo más importante, el metamerismo, se rompe en todas las cámaras de consumo independientemente. No se pueden deducir los colores reales de los datos de imagen que graba una cámara normal. Aquí hay un ejemplo de tratar de deducir el color verdadero de los datos de Nikon D70 tomados de http://theory.uchicago.edu/ :Nikon D70 CIE mejor ajuste

Este gráfico muestra lo bien que se pueden reproducir los colores. Sabiendo que un CIE XYZ es un espacio de colores supersaturados imaginarios, puede ver que la precisión de la reproducción del color es un desastre. Y para colmo, los datos de imagen de la D70 se recortan cuando se transforman en espacio XYZ, que en cierto sentido es la limitación de la gama porque XYZ es el espacio de color más amplio que se usa después del procesamiento RAW.

Por lo tanto, no existe la gama de entrada en el sentido que está preguntando.

> La gama cromática es propiedad del dispositivo de salida, no de un dispositivo de grabación Esto es incorrecto, la gama no está vinculada específicamente a un dispositivo de salida, pueden ser los colores presentes en una escena: eilv.cie.co.at/term/211
> utiliza funciones de coincidencia de color con respuestas negativas presentes Esto es nuevamente incorrecto, las funciones de coincidencia que ha vinculado son probablemente Stiles & Burch 1955 2° RGB CMF r¯(λ),g¯(λ),b¯(λ) y fueron derivados de experimentos de coincidencia de colores en observadores humanos, los valores negativos son el resultado de que los observadores no pueden hacer coincidir el estímulo de prueba con la mezcla, por lo que uno de los componentes de la mezcla se agrega al estímulo de prueba y se considera negativo: github. com/colour-science/colour-notebooks/blob/master/…
Es importante reconocer que esas funciones de combinación de colores no son las respuestas de los conos del sistema visual humano ni las respuestas de los sensores de ningún tipo de dispositivo de captura. Creo que estás confundiendo demasiadas cosas aquí.
@KelSolaar tu referencia no dice lo que crees que dice. La gama de una imagen no es la gama del dispositivo de grabación. La gama de una cámara representa el límite de su capacidad, no el límite de reproducir una escena simple. Dado que la "paleta" a todo color representa la respuesta neurológica a entradas de múltiples longitudes de onda, una imagen digital simplemente necesita coincidir con las respuestas espectrales relativas de los conos.
@kel-solaar: en la práctica, las cámaras rara vez tienen una gama de entrada, es decir, el subconjunto de colores visibles para los humanos entre los que pueden diferir. Todas las cámaras, con algunas raras excepciones, diferencian entre cada longitud de onda entre 400 y 700. Tiene razón en esas funciones r¯(λ),g¯(λ),b¯(λ) se derivaron de experimentos; eso no invalida mi declaración, siguen siendo CMF válidos que reproducen el metamerismo humano. Nunca dije que esas respuestas sean similares a las humanas, solo dije que son equivalentes porque reproducen el metamerismo humano. Ese archivo requiere algún software adicional.
@CarlWitthoft: ¿De qué referencia estás hablando? Es un hecho que la gama de una imagen típica no representa la gama completa de colores que puede capturar un dispositivo de grabación.
@EuriPinhollow: Mi punto es que está tomando RGB CMFS derivados de experimentos psicofísicos (en realidad podrían ser Wright & Guild 1931 2° RGB CMF r¯(λ),g¯(λ),b¯(λ)) diciendo que son curvas de respuesta de la cámara, luego lanzas el CIE 1931 2° Standard Observer en el medio e intentas conectar los puntos. Las curvas de respuesta de la cámara están relacionadas con el sistema visual humano según el criterio de Maxwell-Ives y alguien con un buen conocimiento en la ciencia del color puede entender lo que quiere decir, pero definitivamente es confuso para alguien sin ese conocimiento.
"kel-solaar: "entonces lanzas el CIE 1931 2° Standard Observer en el medio e intentas conectar los puntos" - ¿conectar QUÉ puntos? Tienes razón en que mi respuesta no es fácilmente comprensible para un principiante. Probablemente intentaré para que sea mas explicativo.
@KelSolaar Wright & Guild CMF y CIE 1931 CMF tienen metamerismo igual o casi igual. CIE 1931 CMF se derivan del mismo tipo de experimento realizado por Wright & Guild.
@KelSolaar "diciendo que son curvas de respuesta de la cámara", nunca dije eso.

Es cierto que los fabricantes de DSLR no proporcionan diagramas de cromaticidad para sus cámaras, por lo general codifican sus imágenes usando espacios de color sRGB o Adobe 1998 RGB como dijo @MirekE.

Cualquier color que se encuentre fuera de esa gama de espacios de color se recorta en una conversión RAW casual, incluso si la cámara lo capturó . También es incorrecto pensar que los archivos RAW no tienen una gama porque, según la definición de CIE, la gama de colores es:

volumen, área o sólido en un espacio de color, que consta de todos aquellos colores que son:

(a) presente en una escena específica, obra de arte, fotografía, fotomecánica u otra reproducción;
(b) capaz de ser creado usando un dispositivo de salida y/o medio particular

El hecho de que los fabricantes de cámaras no proporcionen diagramas de cromaticidad para sus DSLR no significa que no lo hagan para sus cámaras de cine; en esos gráficos , todas las gamas representadas excepto las de la familia ACES y Pointer son de proveedores de cámaras de cine (ARRI , Canon, Sony, Panasonic):

Codificaciones ACES - Diagramas

Si está interesado en cómo caracterizar una cámara digital y cómo se calcula su gama de colores, Martınez-Verdu et al. En Concerniente al cálculo de la gama de colores en una cámara digital tiene mucha información relevante sobre el tema.

¿Puedes dar la fuente de esos gráficos? Me parece que esos triángulos no son una gama de entrada sino una visualización de la gama de salida resultante de asumir algunos colores primarios durante la conversión de color.
Los sensores de la cámara simplemente acumulan carga. Cada píxel es solo un rango de intensidad, por lo que un archivo RAW realmente no tiene color per se, ni tampoco tiene una gama. El color de los datos en un archivo RAW es totalmente una cuestión de interpretación por parte del software de procesamiento. Incluso si etiqueta el archivo RAW con sRGB o AdobeRGB, no es necesario utilizar esos espacios de color para el procesamiento. Son solo metadatos. Los datos de píxeles están limitados por el ruido y la capacidad total de los píxeles, y puede haber una ligera falta de linealidad en los extremos del rango... pero RAW es RAW.
La matriz de filtros de color sobre el sensor determinará la respuesta exacta de cada píxel a rangos específicos del espectro. Las curvas de cualquier sensor dependerán de la naturaleza específica de los filtros de color y la naturaleza específica de la respuesta del silicio a la luz. Por lo tanto, el sensor en sí (no el archivo de imagen RAW) tendrá una respuesta única, sin embargo, la mayoría se encuentra dentro de un rango dado, ya que el silicio sin filtrar en sí mismo tiene una respuesta bastante consistente a la luz, que va desde ~315nm hasta ~1100nm, con una respuesta baja en UV, creciendo a través del espectro visible y alcanzando su punto máximo en IR.
Entonces, el sensor en sí puede tener una gama (aunque no creo que ese sea el término correcto... el sensor tiene una respuesta natural a la luz)... pero no creo que sea correcto decir que un archivo RAW tiene gama.
Una película de archivo expuesta o un archivo RAW para lo que aquí nos concierne contiene información de color sobre una escena, y ciertamente se ajusta a la definición CIE.
Está utilizando la definición A pero está ignorando su alcance. La definición A habla de la variedad de color presente en alguna reproducción específica. Esas definiciones se construyen específicamente para excluir la definición de gama de entrada y la está ignorando. Todavía estoy esperando que cites la fuente de esos triángulos.
Honestamente, creo que está leyendo la definición para que se adapte a su visión de "gama", el primer tema de la definición es una escena, siendo la escena lo que está tratando de reproducir. Te dejaré buscar las referencias desde aquí: github.com/colour-science/colour/tree/develop/colour/models/rgb/… .
@kel-solaar: no explica por qué intenta proyectar la definición de gama de una escena en el sensor. Ese enlace no me explica nada, no dice como el espacio de color es la gama de un sensor. Los triángulos indican la gama de salida dada alguna conversión de color, no la gama de un sensor.
@EuriPinhollow: Esos sólidos están ajustados para abarcar los colores que esas cámaras pueden capturar fielmente sin sacrificar datos, por lo que definitivamente intentan caracterizar la capacidad de captura (entrada) de esas cámaras.
@kel-solaar: "Esos sólidos están ajustados para abarcar los colores que esas cámaras pueden capturar fielmente sin sacrificar datos", todavía esperando la fuente que lo afirma.
@kel-solaar: según esta definición, la gama de entrada siempre contiene todos los colores visibles (porque ninguna longitud de onda produce una salida negativa). Lo que denotan sus triángulos es "dispositivo de entrada más gama de transformación".
En términos prácticos, se puede decir que cualquier color único que no produzca una señal mayor que el ruido de fondo para un sensor determinado está fuera de la gama del sensor si la misma cantidad de ese color está presente en la luz blanca de espectro completo con un valor de exposición suficiente. para alcanzar la capacidad total del pozo de los sensores R, G y B.

Las cámaras pueden disparar en RAW, sRGB o AdobeRGB. Para sRGB y AdobeRGB se proporciona la gama. Los archivos RAW no tienen gama, debe convertir la imagen a alguna representación de color como RGB para obtener la gama y ese es un proceso que ocurre fuera de la cámara y la gama dependerá del editor, los perfiles y el gusto de la persona que lo hace. opera el editor.