¿Por qué el canal azul es el más ruidoso?

Se observa ampliamente que el canal azul en las cámaras digitales es el más ruidoso. Ciertamente lo he notado con mi cámara. ¿Por qué es esto?

¿Es un artefacto de alguna tecnología en particular (por ejemplo, matriz de Bayer o sensores CMOS), o tiene algo que ver con la física de la luz de alta frecuencia, o está relacionado con la visión humana?

Pregunta de seguimiento: ¿Por qué los sensores son menos sensibles a la luz azul?

Puede encontrar esto de interés: micro.magnet.fsu.edu/primer/digitalimaging/concepts/… (la respuesta en pocas palabras es menos sensible al azul). Demasiada tecnología para lectura ligera de fin de semana para mí. ;)
Me parece irónico y bastante divertido que la propia pregunta de Matt aparezca en segundo lugar en el enlace de búsqueda de su propia publicación. ;D
@jrista - ¡ja, ja, eso es gracioso!
Creo que significa que el sitio está funcionando. :)
La respuesta de @Tall Jeff a continuación es un gran comienzo (al igual que el comentario más corto de @coneslayer), pero no siento que aborde la pregunta general (ahora ampliada arriba); He agregado una recompensa con la esperanza de obtener respuestas más generales y autorizadas. Gracias.
Los sensores iluminados en la parte trasera verán una respuesta azul mejorada. Gran parte de la luz azul se atenúa a medida que pasa a través de la estructura de puerta no sensible de un sensor con iluminación frontal. Consulte la curva de respuesta espectral típica (para CCD de grado de investigación) en ccd.com/ccd101.html
@coneslayer: puede editar su respuesta a continuación para incluir eso....
@mattdm: en relación con su refinamiento de seguimiento, este estado actual del arte es realmente una cuestión de optimización de costo/rendimiento. No hay nada inherente a la física que requiera que el rendimiento azul sea peor, solo que sería MUCHO MUCHO más costoso dadas las construcciones de dispositivos actuales y dado que el ojo humano no es muy sensible en el eje de color azul/amarillo que ya estamos haciendo " suficientemente bueno". De hecho, estoy seguro de que la mayoría de los fabricantes de cámaras preferirían reducir el costo total antes de pagar lo mismo o más solo para mejorar el ruido azul para casi todas las aplicaciones comunes.
@Tall Jeff: puede editar su respuesta a continuación para mejorarla agregando información como esa. ¡Gracias!
@mattdm - ¡Listo y gracias por su participación activa en este sitio!
JoanneC: gracias, ese enlace es muy informativo. ¿Crees que podrías resumir algo en una respuesta? Además, ¿qué tan bien se generaliza de instrumentos científicos a equipos de mercado de fotografía y de CCD a CMOS?

Respuestas (4)

Además de la respuesta del sensor discutida por Tall Jeff, la iluminación de la mayoría de las escenas (luz solar, incandescente) es deficiente en luz azul en relación con la verde y la roja. Encienda este simulador de cuerpo negro de Java y vea que el azul es más bajo que el verde o el rojo para las temperaturas de color de interés (~5500 K luz diurna, ~3000 K incandescente).

Hay otro pequeño factor que agrava el problema. Las matrices CCD y CMOS son detectores de conteo de fotones. La mayoría de los gráficos, incluidos los del simulador de cuerpo negro anterior, muestran la densidad de energía espectral , no el recuento de fotones. Los fotones azules son más energéticos que los fotones rojos, por la razón inversa de sus longitudes de onda, por lo que para el mismo valor de energía en las gráficas, obtendría alrededor de un 25 % más de fotones rojos que de fotones azules. Y ese es el punto de partida para los efectos de sensibilidad que describe Tall Jeff.


Con respecto a los CCD y los sensores con iluminación posterior, los CCD con iluminación frontal sufren la misma sensibilidad azul disminuida, ya que gran parte de la luz azul se absorbe al atravesar la estructura de puerta no sensible del chip. Los sensores iluminados en la parte trasera verán una respuesta azul mejorada. Vea esta curva de respuesta espectral típica (para varios tipos de CCD de grado de investigación).

Sin mencionar que gran parte del azul se dispersa por la atmósfera, especialmente en las mejores horas para fotografiar (es decir, el amanecer y el atardecer).

Dado el estado actual de la técnica, el ruido en el canal azul es una combinación de efectos en cascada que trabajan juntos para hacer que el azul "se vea" peor. En primer lugar, con la configuración del patrón de Bayer, hay el doble de píxeles verdes que rojos o azules en la matriz*. Esto pone inmediatamente al azul y al rojo en una desventaja espacial en comparación con el canal verde y da como resultado mucho más ruido espectral para esos dos canales cuando los tripletes RGB se reconstruyen a partir de píxeles de sensores adyacentes. Por ejemplo, un sensor de 10 millones de píxeles tendrá 5 millones de píxeles verdes de origen, 2,5 millones de rojos y 2,5 millones de azules. Claramente, cuando forma esa información sin procesar en los tripletes RGB de 10M finales, está claro que no puede haber mejor que la mitad de la información para el canal rojo o azul y esto aparece como una forma de ruido en la imagen final.

El siguiente efecto tiene que ver con las sensibilidades espectrales del sistema sensor a través de los filtros Rojo, Verde y Azul. Como sistema, los sensores CMOS modernos son aproximadamente un 50 % más sensibles a las áreas verde y roja del espectro que a las áreas azules. Por ejemplo, para este sensor CMOS de Cypress , podemos ver en la página 3 que las sensibilidades relativas son de rojo (75 %), verde (80 %), azul (50 %) cuando indexa las curvas en las longitudes de onda correctas para cada color. Esta falta de sensibilidad, combinada con un nivel fijo de sensor y ruido de muestreo para todos los píxeles a través de los sensores, coloca al azul en una desventaja significativa en la relación señal/ruido en comparación con los otros dos colores.

Obteniendo esto, esto significa que los sensores CMOS de color son los que mejor reproducen el verde, seguidos en segundo lugar por el rojo y, finalmente, por el azul, que es el peor de los tres desde una perspectiva de ruido general.

Mirando hacia el futuro, tenga en cuenta que estas limitaciones con el canal azul son en realidad principalmente una cuestión de optimización de costo/rendimiento. Es decir, no hay nada inherente a la física que requiera que el rendimiento azul sea peor, solo que sería MUCHO MUCHO más costoso dadas las construcciones de dispositivos actuales para mejorar el canal azul por un margen notable. Además, dado que el ojo humano no es muy sensible al eje de color azul/amarillo, las soluciones ya son una solución muy bien optimizada. De hecho, estoy seguro de que la mayoría de los fabricantes de cámaras preferirían reducir primero el costo total antes de pagar lo mismo o más solo para mejorar el rendimiento del ruido del canal azul.

**Bayer eligió configurar la matriz de esta manera porque el sistema visual humano obtiene la mayor parte de su señal de luminancia (es decir, información de brillo) de la parte verde del espectro de color. Es decir, los bastones de los ojos son más sensibles a la luz verde, lo que hace que la parte verde del espectro sea visualmente más importante.*

Sí, más en segundo plano: los fabricantes pesan sus chips de esta manera porque se aproximan a la distribución de sensibilidad de color del ojo humano: nuestros ojos son aproximadamente un 50 % más sensibles al rojo que al verde, y aproximadamente un 20 % a azul. Es por eso que las conversiones de color a escala de grises se ponderan de la forma en que lo hacen, normalmente en el ámbito de (0,2989r + 0,5870g + 0,1140b).
Presumiblemente, los sensores Foveon no exhiben este comportamiento.
@Marcin: ¿por qué no?
@Tall Jeff: Me preocupa un poco que esta respuesta, aunque tenga una calificación alta, esté en contradicción directa con las otras dos. Es decir, usted dice que no hay nada inherente a la física que empeore el rendimiento azul, mientras que los demás dicen que básicamente se reduce a eso. ¿Lo cual está bien?
@Mattdm: Porque los sensores Foveon no usan mosaicos y tienen la misma cantidad de sitios para los tres canales.
@mattdm: no creo que las otras respuestas estén en conflicto. Ciertamente, @Marcin acertó en parte del por qué. RESUMEN: la respuesta de @conslayer realmente solo habla de por qué la mayoría de las escenas tienen menos luz azul natural en la fuente. Esto contribuye a que el azul sea típicamente más ruidoso simplemente porque hay menos señal para empezar, pero un sensor optimizado exclusivamente para el azul no tendría problemas para obtener una imagen azul limpia. La respuesta de @ShutterBug se refiere más a la incapacidad del ojo humano para detectar muy bien el azul y por qué los sistemas están optimizados para aprovechar eso y también están optimizados para verlos como tales.
También CCD sufre más de ruido de canal azul que CMOS. De hecho, no creo que para CMOS este sea un problema notable en absoluto.
@mattdm, @Marcin: La explicación sobre Foveon es parcialmente cierta, sin embargo, esa no es la única razón. Los sensores de Foveon colocan los fotodiodos azules en la capa superior, donde reciben directamente la luz entrante. Los sensores bayer normales tienden a tener circuitos que interfieren con los fotodiodos de cada fotositio, y esos circuitos absorben algo de luz, particularmente azul. Los diseños bayer retroiluminados sufren mucho menos este problema.
@Tall Jeff: Entonces, ¿por qué costaría más hacer un sensor optimizado para azul? ¿ No necesariamente especialmente optimizado, pero hecho de tal manera que el azul no sea más ruidoso que el rojo?
@ShutterBug: es empíricamente cierto que el canal azul es más ruidoso cuando se mira la salida de mi Pentax K-7 basado en CMOS.

Porque los ojos/cerebros humanos no son tan sensibles a los cambios en la luz azul como lo son a los cambios en las luces verde/roja. Los sensores de las cámaras modernas actúan más como los ojos humanos y, por lo tanto, son menos sensibles al azul que al verde/rojo. Dado que el estándar para mostrar neutral en los monitores de color es tener cantidades iguales de azul, verde y rojo, y dado que los sensores son menos sensibles al azul que al rojo y al verde, es conveniente amplificar el canal azul. La amplificación de la señal del canal azul también amplifica el ruido del canal azul.

La reducción de ruido de la cámara solo se aplica si está grabando en JPEG, pero como mucha gente graba en RAW, el canal azul siempre tiene algo de ruido. He buscado un remedio a este problema. Uno sugirió convertir la imagen a color de laboratorio y suavizar/difuminar solo el canal de luminancia, luego volver a convertir a RGB para eliminar el ruido. Puedes probar.

Entonces, ¿está diciendo que los sensores de las cámaras modernas son menos sensibles al azul intencionalmente, porque eso modela mejor el ojo humano?
Es la naturaleza de la luz azul lo que hace que los sensores y los ojos humanos sean menos sensibles. Para detectar la luz azul correctamente, debe amplificarla, lo que también amplifica el ruido.
¿Por qué? ¿Qué tiene la luz azul? Y si somos menos sensibles a eso, ¿por qué necesitarías amplificarlo más? (A diferencia de los sensores que son menos sensibles, lo que casi obviamente requiere más amplificación).
El sensor está realmente diseñado para máxima sensibilidad. En comparación, la sensibilidad espectral normalmente se reduce en un factor de 2x en el extremo azul del espectro. La ganancia se aumenta en el canal azul para compensar la falta de sensibilidad de longitud de onda corta, lo que significa que el ruido térmico en ese canal también se amplifica junto con la señal. Lo mismo es cierto, pero en un grado mucho menos perceptible en el canal rojo y verde.
Eso tiene sentido para mí. (¿Puede editar su respuesta anterior para incluirla? Creo que la parte sobre "ojos humanos y por lo tanto" es algo confusa).
Además, en la respuesta de @Tall Jeff, actualmente votada a +20, dice "no hay nada inherente a la física que requiera que el rendimiento azul sea peor", lo que parece una contradicción directa con esto, dejándome un poco confundido. ¿Puedes ayudarme a enderezarme? Gracias.
La cuestión es que tenemos un solo sensor para detectar todas las luces diferentes de diferentes longitudes de onda. Dado que los ojos humanos son más sensibles al verde que al azul, los sensores están diseñados exactamente de la misma manera para reemplazar la imagen que vemos en nuestros ojos. Ahora, es normal que si un sensor está diseñado para detectar la longitud de onda máxima desde el verde, tendrá problemas para detectar el azul, ya que la luz azul carece de longitud de onda corta. Por lo tanto, los diseñadores de sensores potencian el azul, lo que también aumenta el ruido. En realidad no es un problema de luz azul. Así es como se diseñan los sensores. Editaré mi respuesta una vez que se aclare su confusión.
Espera; ¿No es la luz azul longitudes de onda más cortas que la verde o la roja? Y hablando de rojo, según esta explicación, ¿por qué el canal rojo no es tan ruidoso como el azul?
¡Ahora, yo también estoy un poco confundido! Nuevamente he leído algunos artículos relacionados con la luz y parece que no entendí correctamente los artículos anteriores, mis disculpas. Azul: 475nm, Verde: 510nm y Rojo:650nm. Entonces, en pocas palabras, dado que el verde se encuentra en el medio del espectro, los sensores están diseñados para detectarlo correctamente. La luz roja tiene una longitud de onda más larga y pueden reducirla sin ruido visible, pero para el azul, que tiene la longitud de onda más corta, necesitan aumentarla , lo que provoca la mayor cantidad de ruido.
Hmmmm; eso último puede explicar por qué el canal rojo es más susceptible al recorte: photo.stackexchange.com/questions/10735/…
@ShutterBug: creo que esto es probablemente lo más cercano a una respuesta real y significativa. Básicamente, la tecnología actual de los sensores solo puede responder a un rango limitado de luz, y dado que el verde/amarillo está a) en el medio yb) tan importante para la visión humana, la respuesta del sensor se centra allí, a expensas de que la luz sea más larga y más corta. longitudes de onda ¿Eso suena bien? Sin embargo, no entiendo exactamente lo que dices sobre la ampliación y reducción de longitudes de onda. Eso suena como algo totalmente diferente. ¿Tiene referencias a algunos de esos artículos? ¡Gracias!
Si bien no es una respuesta de "por qué" de ciencia profunda, las observaciones de Goethe sobre el peso del color pueden ser relevantes aquí. libros.google.com/…
@mattdm: Downscale significa convertir las luces que tienen una longitud de onda más larga para que sean sensibles a los sensores diseñados para detectar longitudes de onda más cortas. Lo contrario es para Upscaling. ¡Quizás alguien con mejor nota (¡no yo!) en física de secundaria pueda explicar mejor estos términos!

Hemos realizado un análisis de los canales azul-verde-rojo de una DP3 Merrill en modo digital (RAW). Acabo de comprar esta cámara en junio de 2018. El canal azul muestra un error dependiente del nivel en el convertidor a/d que no está presente en los canales rojo-verde, que funcionan como se esperaba. Parece que puede haber un error en el cableado del canal azul a/d o en el código que traduce el voltaje a/d a la señal digital del canal azul. NO es un problema de sensibilidad. Podría ser un problema de saturación, es decir, los voltajes físicos exceden el rango a/d en voltajes muy bajos, es decir, demasiada ganancia en ese canal. La cámara se configuró en ISO 100 para adquirir datos, y los datos se adquirieron en un rango de velocidades de obturación y niveles de señal en un marco. Las mediciones del canal azul fueron señales casi correctas en los niveles de señal MÁS BAJOS. Cuanto mayor sea la señal, mayor será el error. Es un problema de ganancia/digitalización en el algoritmo que produce los archivos X3F, o quizás un problema de ordenación de bytes. Estamos mirando los archivos X3F directamente para ver si el error ya está presente allí, pero espero que lo esté, ya que tanto los archivos TIFF como los JPEG producidos por el convertidor tienen el mismo problema. Es una pregunta si el fabricante estará interesado en corregir este problema. El chip Foveon es una buena idea que debe diseñarse correctamente. Es una pregunta si el fabricante estará interesado en corregir este problema. El chip Foveon es una buena idea que debe diseñarse correctamente. Es una pregunta si el fabricante estará interesado en corregir este problema. El chip Foveon es una buena idea que debe diseñarse correctamente.

Esta es una continuación del comentario anterior. Al convertir directamente el archivo x3f, evite la utilidad de conversión Sigma, encontramos que los datos son correctos en TODOS los canales. El problema está en la conversión del canal azul a tiff/jpg. Estamos buscando para ver cuál es el error, pero probablemente un intercambio de bytes para esa rama de la conversión. Se han realizado pruebas de varias maneras, y la salida de la cámara es la esperada, dada la sensibilidad y la ruta de absorción media de los fotones rgb en la cámara.
Hola, que herramienta estas usando? github.com/Kalpanika/x3f/releases ?