¿Cómo lidiar con la sobreexposición de un solo canal?

He estado filmando bastantes conciertos en clubes/conciertos y repetidamente tengo problemas con escenas iluminadas por luces de ancho de banda pequeño (por ejemplo, láseres).

Estas luces hacen que un solo canal se sobresature, produciendo artefactos extraños. En teoría, esperaría que una luz muy fuerte se filtrara en los otros canales, nivelándose en blanco. Aquí hay una simulación de lo que espero, renderizado en Filmic Blender: ingrese la descripción de la imagen aquícada rectángulo emite RGB(0,0,1)con una luminosidad que aumenta de izquierda a derecha.

En cambio, parece que la cámara simplemente recorta el azul al valor máximo. En todo caso, cambiará instantáneamente de azul a blanco. Aquí hay un ejemplo:

ingrese la descripción de la imagen aquí

y hay algunos más en Imgur .

Para evitar estos problemas, suelo coordinar con los organizadores/iluminación para asegurarme de que siempre haya iluminación de tungsteno disponible en el escenario. Este requisito limita mucho mi libertad y me gustaría evitarlo.

¿Hay algún procesamiento de imágenes, por ejemplo, mapeo RGB(0,0,1)a blanco que ayudaría? ¿Es esto solo una limitación de hardware de todas las cámaras que he usado hasta ahora (varias Canon DSLR y la línea Sony a7)? Estas imágenes se grabaron en el espacio de color Adobe RGB, ¿es una limitación?

¿Eres consciente de que un láser (incluso reflejado en el teléfono celular de algunos tipos) puede destruir permanentemente el chip de tu cámara en una milésima de segundo? Google, muchos fotógrafos han arruinado más de 5000 $ cámaras de esa manera (conozco dos de ellos)
@Aganju sí, los láseres en las imágenes de muestra en realidad fueron controlados por un amigo mío. Por supuesto, todavía existe el riesgo de reflejos, por lo que uso mi "cámara acrobática" para grabarlos.
Una cosa a tener en cuenta: algunos láseres que se usan para espectáculos de luces (¡OJAMÁS, nunca para escanear multitudes, o ciertamente no deberías estar allí como fotógrafo!) son láseres industriales pulsados/"q conmutados" reutilizados. Google "quemador de vagina". Estos exhiben brillos máximos extremos que pueden estar incluso más allá de algunas luces estroboscópicas de estudio. Podría confundir el infierno de algún hardware.
Anexo: Los rumores dicen que las personas que reciben un golpe en el ojo con uno escuchan un sonido similar en su cráneo al que se obtiene al disparar un flash potente directamente contra un papel negro que se sostiene contra él...

Respuestas (3)

Con frecuencia, esto puede ser el subproducto de lo que esencialmente podría llamarse metamerismo de cámara; una combinación particular de ciertas longitudes de onda que fijan uno de los contenedores CMOS de manera irregular. Esto es fácil de entender una vez que uno se da cuenta de la probabilidad de que un láser en particular coincida perfectamente con el filtro de color en los sitios de fotos CMOS; Sería virtualmente imposible que tal cosa sucediera. El blanco sin gracia se debe a que el software de la cámara considera correctamente que todos los pozos están saturados cuando se maximiza un solo valor. Si el software de decodificación no hiciera esto, vería sesgos de cromaticidad horribles para cualquier color que se haya fijado por completo, mientras que los otros pozos se representan "tal cual".

El problema se agrava cuando se dispara en espacios de gama más amplios debido a la (típicamente) transformación colorimétrica absoluta o relativa a un espacio de gama más pequeño.

Si se pregunta cómo negociarlo, puede usar el enfoque que ACES hace para el mismo problema con algunas cámaras y aplicar una matriz cuidadosamente construida para desaturar los colores problemáticos. Esto sigue siendo un problema incluso para ACES, y se están experimentando con más soluciones.

Otra opción podría ser una LUT 3D personalizada que fuerce una desaturación más elegante al intentar mantener el eje de cromaticidad entre el color original y el punto blanco. La mayoría de las cámaras digitales son excepcionalmente basura en esto y, en cambio, terminan teniendo una desaturación colorimétrica pobre o nula.

Con respecto al clip duro blanco, es posible que intente dibujar para renderizar la imagen degradada sin el corte duro, pero puede dar como resultado imágenes de aspecto igualmente extraño, dependiendo del contexto.

Esta es una limitación de hardware. La forma en que están diseñados para el sensor CMOS espera que los tres colores se comporten como en la naturaleza con luz natural: ningún color es extraordinariamente brillante y se recorta debido a sus altos niveles de brillo.

Para evitar el recorte en el canal azul, puede

  • use un filtro frente a su lente para reducir el brillo del color azul
  • Pídele al profesional de la iluminación que apunte a una luz más uniforme.
Esta no es una limitación de hardware con la mayoría de las cámaras modernas. Los histogramas RGB están disponibles en la parte posterior de la mayoría de las cámaras tan pronto como se toma una foto. Esta es una limitación de la habilidad y la experiencia del fotógrafo.
@MichaelClark, ¿puedes ser más específico? Estas son tomas de mi primer concierto para mostrar el caso más extremo, he podido disminuir ligeramente el impacto optimizando la exposición. Esto todavía no soluciona el problema subyacente.
Como está escrito en la pregunta, suelo hablar con el director de iluminación de antemano. Esto no funciona para espectáculos de láser. La idea del filtro suena interesante, estaré deseando probarlo. La alineación a7 parece tener problemas principalmente en el blues, por lo que no debería ser tan malo tener un poco más de los otros dos canales.
@MichaelClark - No estoy seguro si tú y oa estáis hablando de lo mismo. Me parece que oa se refiere al hecho de que el diseño del filtro bayer significa que las cámaras digitales modernas no pueden lidiar con la iluminación con colores extremadamente fuertes. Por ejemplo, las tomas bajo el agua no se pueden corregir simplemente con el balance de blancos porque la cantidad de luz azul es demasiado alta en relación con la cantidad de rojo y verde. Tendría que filtrar la luz azul para que las cosas vuelvan al rango dinámico del sensor.
El azul no se recortará a blanco a menos que haya a) suficiente R & G para que los tres canales se recorten o b) suficiente luz azul para provocar la floración en los píxeles filtrados R & G adyacentes a los píxeles filtrados azules. La segunda condición parece ser el caso aquí. La solución en cualquier caso es reducir la exposición a la luz azul, reduciendo la exposición total o agregando más filtrado (que el proporcionado por la máscara de Bayer) a la luz azul. Desafortunadamente, en el caso de fuentes de luz de banda muy estrecha, filtrar el azul filtrará prácticamente toda la luz del fondo de la imagen de muestra.

Probablemente podría lograr esto con un procesador RAW personalizado, pero fundamentalmente esto es solo un artefacto de la forma en que el procesador de imágenes elige manejar los valores recortados. Incluso si lo hizo "no blanco", seguirá siendo un artefacto extraño ya que el color no se puede definir correctamente porque está fuera del alcance del sensor. La sobresaturación de azul da como resultado una sobreexposición en sitios de fotos cubiertos por filtros azules mientras se intenta obtener suficiente información verde y roja para formar una imagen a todo color.

El procesador de imágenes elige mostrar estos valores recortados como blanco, ya que no sabe cómo mezclarlos con el azul (en relación con el rojo y el verde para los que tiene valores). El color del píxel podría haber sido apenas recortado o recortado por un lote que afectaría el color aparente que debería mostrarse, por lo que el color no se puede definir significativamente con un componente azul desconocido.

Debe limitar la cantidad de luz azul que ingresa a la lente (filtro de color) o aumentar la cantidad de luz para los otros colores en relación con el color problemático. Esto le permitirá obtener suficiente exposición de rojo y verde sin sobreexponer el azul antes de tener suficiente información de color. Esto depende, por supuesto, de tener suficiente luz en cada uno de los colores a los que el sensor de la cámara es sensible para obtener una exposición. Si realmente solo hay luz azul, el filtrado simplemente bloqueará la luz, pero si hay una pequeña cantidad subyacente de luz de espectro completo, puede reducir el azul lo suficiente como para permitir la exposición adecuada de todos los canales de color.

Esto coincide con mi experiencia. Una exposición más baja permite que la cámara se ocupe mejor del azul, pero también agrega aún más ruido y bandas a las sombras. Esta compensación es especialmente fuerte en la videografía, que ahora hago la mayor parte del tiempo. Me aseguraré de probar los filtros.
Sí, es un problema aún más común en la fotografía y videografía submarina. Por cierto, si también haces videos, consulta también Producción de videos.
Si la única fuente de luz es una luz azul de espectro estrecho, agregar un filtro naranja hará exactamente lo mismo que reducir la exposición en la cámara. Si toda la luz es del mismo color, filtrar esa luz de color reducirá la exposición total. Solo puede filtrar el azul para aumentar R & G si hay algo de R & G en la fuente de luz.
El color no está fuera del alcance del sensor. La intensidad con la que se registró ese color está fuera del alcance del sensor.
@MichaelClark en realidad el color ESTÁ fuera del rango del sensor. Se excede el rango dinámico, por lo que pierde rojo y verde para aplastar el azul para recortar. El color está fuera del rango que el sensor puede capturar si dos canales tienen dos intensidades diferentes, que es precisamente lo que hace que la iluminación muy teñida sea un problema si está tratando de capturar el color sin el tinte.
Además, de la imagen de muestra, hay algo de luz además del azul. Es simplemente dominado drásticamente. Probablemente valga la pena aclarar eso más adelante en mi respuesta, por lo que no se deja a la deducción para resolverlo.
Si la fuente de la luz azul en el fondo es un láser verdadero, no hay absolutamente nada de verde o rojo en esa luz. Es luz de longitud de onda única. Por lo tanto, el color de esa luz, cuando se expone correctamente, está dentro del alcance de la cámara. La pregunta no es sobre la luz de espectro más completo en primer plano. Pregunta sobre la luz azul que se ha recortado a blanca debido a la sobreexposición de una sola longitud de onda de luz.
Lo mismo habría sucedido si no hubiera habido luz en primer plano. Las áreas más intensas de azul se habrían recortado a blanco debido a la floración, no debido a la luz R & G que no está presente.
Ok, en el contexto de solo tratar con el láser, estoy de acuerdo, pero si él quiere que la imagen se vea básicamente como se ve aquí, entonces se sale del rango si desea resolver la imagen general. Depende de su intención, que no está completamente explicada.