¿Por qué las cámaras no capturan con el modelo de color CIE XYZ?

Si el modelo de color CIE XYZ es una mejor representación de lo que ven los humanos, entonces ¿por qué las matrices CCD en las cámaras no capturan datos de una manera que los mapea en lugar del modelo RGB?

Me parece especialmente extraño ya que el espacio RGB es un subconjunto propio de CIE XYZ, lo que significa que hay colores que los humanos pueden ver que no se pueden representar usando RGB, ¿verdad?

Si el motivo son las pantallas, la misma pregunta se aplica a las pantallas. ¿Por qué no se muestran usando el modelo CIE XYZ?

La mayoría de las cámaras utilizadas para fotografía fija en estos días no tienen matrices CCD, tienen sensores CMOS.
Usando ARGYLL puedes desarrollar tu archivo RAW en el espacio de color XYZ.

Respuestas (4)

Actualmente, los filtros XYZ se producen utilizando tecnología de película delgada. No es muy barato y no es muy adecuado para sensores de varios megapíxeles. También da como resultado curvas de respuesta espectral algo puntiagudas, especialmente problemáticas cuando la fuente de luz tiene un espectro puntiagudo, como los tubos fluorescentes y algunos flashes. Otra razón más serían los niveles de ruido más altos, ya que los filtros XYZ permiten muy poca transmisión en ciertas áreas del espectro.

Para las pantallas, el problema también es la fuente de luz. Para aplicar filtros XYZ de manera eficiente, la fuente de luz debe tener una distribución de energía espectral muy suave y cercana a la de un cuerpo negro a aproximadamente 5500K, lo cual no es una opción actualmente.

AFAIK, los "FILTROS XYZ" no existen ya que XYZ no son colores; son construcciones matemáticas derivadas de CIE RGB.

Mira una copia del diagrama de cromaticidad. Observe que a lo largo del eje X o Y no hay colores. XYZ representa colores imaginarios, no colores reales. Es imposible hacer un sensor XYZ.

El origen del espacio XYZ proviene de los experimentos estándar del observador. Al combinar los colores de prueba rojo, verde y azul para formar los colores del espectro, hubo muchos casos en los que no se pudo hacer una combinación. Para obtener una coincidencia, se agregó uno de los colores de prueba al color espectral y los otros dos colores de prueba se ajustaron para que coincidieran. Esto es lo mismo que agregar un valor negativo de ese color de prueba. Para propósitos de CIE los valores negativos no eran un problema, pero esto era antes de las computadoras cuando todos los cálculos se hacían a mano. Los valores negativos resultaron en errores humanos. La solución fue transformar los valores RGB en un espacio de color diferente que no contuviera valores negativos. Este es el espacio de color XYZ. Una construcción puramente matemática para reducir los errores humanos en los problemas matemáticos.

XYZ se usa hoy en día porque es tanto un modelo de color como un espacio de color. Un conjunto dado de números representa un color específico si cae dentro de los límites establecidos en el diagrama de cromaticidad. RGB es un modelo de color, no un espacio de color. ARGB y sRGB son espacios de color.

Página 11. Se están convirtiendo a XYZ
Para citar la hoja de datos, "Las curvas de respuesta del filtro se basan en el estándar CIE 1931. Para obtener más información sobre la función de coincidencia de colores, lea, por ejemplo: en.wikipedia.org/wiki/CIE_1931_color_space ". Por supuesto, si tiene una matriz de conversión como "salida a XYZ", y es significativamente no unitaria, me complacerá ayudarlo con su diseño electrónico.
Vote a favor porque XYZ se basa en colores imaginarios no significa que sea imposible hacer un sensor XYZ, un ojo humano es un ejemplo de eso (espacio LMS de Google).

La captura utiliza las curvas de transmisión reales de los pigmentos utilizados para fabricar los filtros.

Un archivo sin procesar es eso , con el dispositivo implícito "espacio de color de entrada". Convertir eso en valores significativos en algún espacio estándar es lo que hacen los convertidores sin procesar. Puede calibrar utilizando un comprobador de color y software de X-rite, o confiar en que los perfiles del fabricante o los perfiles de Adobe se acerquen lo suficiente.

Vea esta respuesta donde pregunté sobre eso: sin suponer que sean RGB, pero ¿qué son ?

Me sorprende la similitud entre los filtros del sensor y el ojo humano. Esa es la verdadera respuesta: responder de la misma manera bajo diferentes condiciones de iluminación que nosotros, para no tener cambios de color extraños bajo diferentes tipos de luz.

En realidad, para capturar colores precisos, las cámaras deben filtrar a curvas de peso XYZ o LMS. Cualquier otra combinación lineal de filtros LMS con pesos no negativos es aceptable, si le brindan una mejor relación señal-ruido que LMS.

Son los filtros RGB los que son imposibles de realizar, porque tienen algunos pesos negativos a lo largo de las curvas (longitud de onda). Si intenta realizar un espacio de color RGB directamente en el sensor (es decir, con los filtros Bayer), tiene la garantía de cometer errores colorimétricos. No puedes hacer filtros ópticos con ganancia negativa.

Nuestros ojos tienen los filtros LMS (largo-medio-corto, más o menos equivalente a rojo-verde-azul). CIE XYZ se derivan de eso para ser simplemente no negativos, y así la luminancia se define solo por Y. Esto es más conveniente para la ciencia del color. ACES RGB es otra conversión perfecta, conveniente para la producción de películas digitales.

Los datos en cualquier otro espacio de color RGB (como sRGB = Rec.709, Adobe, DCI P3, UHD = Rec.2020) se pueden derivar computacionalmente de XYZ o ACES mediante una matriz de 3x3 en luz lineal. Dicha matriz tendrá hasta 6 coeficientes negativos, por lo que cualquier color fuera de gama producirá algunos valores RGB negativos. Estos no pueden ser procesados ​​por la OECF (función gamma), por lo que, a menos que almacene valores de luz lineal firmados, deberán eliminarse mediante el mapeo de gama (o simplemente recortando a 0). Los colores de la gama aún pueden ser exactos, porque las matemáticas son exactas.

Cuanto mayor sea el espacio de color en relación con la gama de colores de su escena (la mayor parte del mundo no tiene una gama tan amplia), menos problemas tendrá con el recorte de gama. Para fines científicos existen cámaras XYZ, pueden reproducir exactamente lo que ven los ojos. Las cámaras multiespectrales con más de 3 colores primarios pueden incluso ver más de lo que el ojo humano podría distinguir. Literalmente revelan lo invisible.

En resumen: un sensor XYZ es una excelente idea. Sospecho que en modo RAW esto es lo que deberías obtener. La conversión a un espacio de color RGB limitado se realiza luego durante el procesamiento sin formato, y ahí es cuando puede perder parte de la gama de colores.

PD: no confunda el diseño de la cámara con el diseño de la pantalla a color. Una pantalla XYZ es imposible, una pantalla de gama muy amplia necesita muchos primarios (por ejemplo, 2 verdes). Una cámara de gama amplia es trivialmente fácil, pero emite señales de color débil, por lo que puede haber algunos problemas de ruido.