¿Por qué hay un tinte de color cuando se usa un balance de blancos incorrecto?

Entiendo qué es el balance de color y cómo debe usarse. Sin embargo, no entiendo completamente por qué vemos lo que vemos si se usa un balance de blancos incorrecto.

Si, por ejemplo, tomamos una foto a plena luz del día, pero tenemos el balance de blancos configurado en 3200K, esa foto aparecerá "más fría" o tendrá más azul.

¿Qué está tratando de hacer la cámara que da como resultado el color azul? ¿Por qué no cualquier otro color?

El hecho de que haya más azul para mí dice que está tratando de reducir los otros colores o está tratando de aumentar el nivel de azul, pero no puedo razonar por qué estaría tratando de hacer cualquiera de los dos.

Miré esta pregunta pero no la entendí o no respondió la misma pregunta que tengo: ¿Qué *exactamente* es el balance de blancos?

Respuestas (1)

El balance de blancos se aplica mientras se procesan los datos sin procesar. El propósito del balance de blancos es alcanzar R = G = B para áreas neutras (grises, sin color, acromáticas) de la imagen. Todo el problema surge del hecho de que los canales de color de los sensores (para el típico Bayer, esos son R, G1, B, G2) tienen diferentes "sensibilidades", y las respuestas también dependen del espectro de la luz. Por lo general, para la luz diurna, los canales verdes son entre medio paso y un paso más sensibles que el rojo y el azul; para la luz incandescente, las respuestas en los canales verde y rojo están cerca una de la otra, mientras que la respuesta en el canal azul se retrasa. Entonces, para igualar las respuestas, se aplican coeficientes de balance de blancos a través de la multiplicación de los datos sin procesar lineales en los canales respectivos. Para ponerle algunos números,

// Olympus E-M5 CameraGroup= 6
{"Olympus", "E-M5", "Tungsten", {1.296875f, 1.0f, 3.265625f, 1.0f}},
{"Olympus", "E-M5", "3300K CCT", {1.546875f, 1.0f, 2.578125f, 1.0f}},
{"Olympus", "E-M5", "3600K CCT", {1.640625f, 1.0f, 2.367188f, 1.0f}},
{"Olympus", "E-M5", "3900K CCT", {1.734375f, 1.0f, 2.203125f, 1.0f}},
{"Olympus", "E-M5", "FL-W", {2.000000f, 1.0f, 2.601562f, 1.0f}},
{"Olympus", "E-M5", "4300K CCT", {1.851562f, 1.0f, 2.125000f, 1.0f}},
{"Olympus", "E-M5", "4500K CCT", {1.921875f, 1.0f, 2.148438f, 1.0f}},
{"Olympus", "E-M5", "4800K CCT", {1.976562f, 1.0f, 1.945312f, 1.0f}},
{"Olympus", "E-M5", "Daylight", {2.078125f, 1.0f, 1.820312f, 1.0f}},
{"Olympus", "E-M5", "Cloudy", {2.281250f, 1.0f, 1.640625f, 1.0f}},
{"Olympus", "E-M5", "6600K CCT", {2.304688f, 1.0f, 1.734375f, 1.0f}},
{"Olympus", "E-M5", "Shade", {2.476562f, 1.0f, 1.437500f, 1.0f}},
{"Olympus", "E-M5", "Flash", {2.351562f, 1.0f, 1.617188f, 1.0f}},

Para convertir a paradas fotográficas/EV, calcule log2 de los números. Desde arriba puede ver que si la imagen se toma a la luz del día, el canal azul debe multiplicarse por 1,8. Si el balance de blancos se establece en tungsteno, se multiplicará por una cantidad mucho mayor, 3,3 veces. Es por eso que aparecerá azulado.

Muchas gracias, esto me ha estado molestando todo el día, pero esto hizo clic. Si lo entiendo correctamente, ¿esto significaría que el sensor no tiene un balance de blancos base o nativo?
@James: No, los sensores no tienen balance de blancos nativo bajo ninguna fuente de luz normal. La luz del día o el flash con un filtro magenta como CC40m dan como resultado algo cercano al balance de blancos nativo. También lo es la incandescente con un fuerte filtro azul.
La mayoría de los sensores no registran ninguna información de color. Registran valores de luminancia monocromática para cada píxel. Los píxeles se filtran para luz roja, verde o azul, pero solo hay un valor de luminancia para cada píxel. El concepto es similar al uso de filtros de color cuando se filma con película en blanco y negro. Un filtro rojo hará que la luz roja que pasa a través del filtro tenga un valor tonal más alto (gris más brillante) en la película que los objetos azules o verdes igualmente brillantes.
Para obtener el color de esa información, el algoritmo de demostración utilizado por su cámara (JPEG) o la aplicación de conversión de fotos de la computadora (sin formato) compara el brillo relativo de los píxeles adyacentes filtrados con los diferentes colores e interpola los valores R, G y B para cada píxel.
@ Michael Clark: registran información sobre el color. La representación del color como intensidades no es diferente del color TIFF. TIFF con tres canales, cada uno de los cuales es "monocromático", o Bayer raw con 4 canales, cada uno de los cuales también es "monocromático", difieren solo espacialmente.
@Michael Clark: para obtener color, se debe aplicar una transformación de color. La demostración solo restaura los valores de intensidad que faltan. Binning es una especie de demostración que da como resultado tresillos completos, y solo se necesitan transformaciones de color y tono para asignar una interpretación adecuada.
Todo depende de cómo defina la información de color . La mayoría de la gente asume que cada píxel registra un valor rojo, verde y azul. Ese no es el caso (aparte de los sensores especializados que no son de Bayer). Cada píxel registra un valor de luminancia, por lo que es monocromático. Aunque algo de luz verde y azul, por ejemplo, llegue al fondo de un pozo de píxeles filtrado rojo y viceversa. Todo lo que cada píxel detecta es la cantidad total de luz que llega al fondo del pozo, independientemente del color que sea. No faltan valores de intensidad. Solo color interpolado con sensor Bayer.
@Michael Clark: bueno, cuando miramos una impresión rasterizada CMYK, ¿la consideramos una imagen en color? Y en la misma nota, pantalla a color?
@Michael Clark: Cada canal es monocromático, ya sea TIFF común o raw común. Cuando realizamos una demostración, es posible que queramos restaurar las propiedades espaciales, llenando las intensidades que faltan para los canales de color. Eso es lo que interpolamos. No es lo mismo que interpolación de color. Muchos algoritmos de demostración son independientes del color y, en las pruebas, funcionan al menos tan bien como los que involucran transformaciones de color a Lab, YCC y similares.
@IliahBorg Los datos en un archivo sin procesar no son lo mismo que un archivo CMYK o TIFF. Todos los valores en un archivo sin formato son 0-255 (para una profundidad de 8 bits). No hay 255B, 255G, 255R. Solo hay un número. Con un TIFF o CMYK o cualquier otro tipo de imagen rasterizada, hay valores específicos para colores individuales. No es así con los datos en bruto. La diferencia de intensidad entre píxeles contiguos filtrados para diferentes colores se utiliza para derivar el color, no los valores de luminancia en sí mismos.
@Michael Clark: Estimado Michael, los datos en el archivo sin procesar son exactamente eso: intensidad de rojo, verde, azul, verde secundario. Se puede normalizar como 0..255R, etc. Si va a interpolar desde un ráster CMYK o RGB, será lo mismo, usando la diferencia de intensidad, porque la hipótesis implícita es que las intensidades cambian lentamente.
¿Alguna vez ha tomado fotos con filtros de color y película en blanco y negro? Los filtros no restringen el paso de toda la luz que no sea el color del filtro, solo reducen la intensidad de esa otra luz. Lo mismo ocurre con los filtros Bayer. Si tiene una fuente de luz roja pura lo suficientemente brillante como para saturar el canal rojo, los píxeles verdes seguirán detectando algo (pero no cerca de la saturación) de esa luz e incluso los píxeles filtrados con azul detectarán una cantidad mucho menor. La interpolación de color tendrá en cuenta la sensibilidad de los otros píxeles a la luz roja y la compensará.
@Michael Clark: Sí. Eso también es cierto con la película de transparencia de color (y, por cierto, también es una imagen de trama estocástica, con vacíos espaciales). El asunto se resuelve asignando el espacio de color adecuado. El color no se interpola, las intensidades se interpolan espacialmente (o no, en caso de binning). Al principio, los que codificaban convertidores en bruto intentaban presentar los productos al público como algo de "magia negra". Ya hemos pasado eso, de hecho en 2003 ya era obvio que los datos en bruto constituyen una imagen normal.