Los sensores de Bayer utilizan un patrón de píxeles rojos, verdes y azules, y los fusionan en una imagen de color final, con un píxel para cada sensor de color . Esto podría hacerse a través de una combinación "ingenua" de sensores vecinos, pero he oído hablar de enfoques más complicados con nombres como AHD, HPHD y AMaZE.
¿Cuáles son estos otros enfoques y qué ventajas aportan? ¿Tienen debilidades más allá de la complejidad informática?
Me imagino que el enfoque utilizado para JPEG en la cámara está más protegido, pero claramente se dedica mucha investigación y desarrollo a esta área. ¿La potencia de procesamiento limitada disponible en la cámara obliga a algún compromiso en esta área?
Me sorprendió hace unos meses descubrir que el SDK de mi cámara de visión artificial usaba la "interpolación" del vecino más cercano en su función bayer integrada. Es el tipo más rápido, pero el peor, que proporciona bordes duros, especialmente cuando comienza a hacer cálculos en los canales de imagen para la constancia del color o la invariancia del brillo. Encontré esta revisión de algoritmos:
http://www.arl.army.mil/arlreports/2010/ARL-TR-5061.pdf
El siguiente paso son las interpolaciones bilineales y bicúbicas que se pueden calcular bastante rápido porque solo equivalen a núcleos de convolución. Estos dan dientes de sierra coloreados en bordes inclinados, bilineales más que bicúbicos.
Se puede ver en este documento, y con datos de calidad cuantificada en 5 algoritmos diferentes:
https://www.microsoft.com/en-us/research/wp-content/uploads/2016/02/Demosaicing_ICASSP04.pdf
Es por eso que hicieron interpolaciones basadas en la dirección del borde. Sin embargo, estos tratan el verde como un "canal más importante" (ya que tiene la mejor resolución y representa la mayor parte de nuestra sensibilidad visual y la resolución de nuestros ojos). Y luego crean el azul y el rojo en función del canal verde, de una manera que preserva el tono. Esto, a su vez, hace que el contenido de alta frecuencia del canal verde sea más propenso a errores. La complejidad es mayor ya que tienen que detectar lo que está pasando y requieren múltiples pases. El muaré y los maíces son artefactos comunes de este tipo de interpolación.
Aquí muestran ejemplos de demostración de homogeneidad adaptativa y versiones bilineales con y sin complementos que preservan el tono y los bordes:
http://math.auburn.edu/~kilgota/ahd_bayer.pdf
Ese papel favorece a AHD y no muestra la parte negativa. En esta página, puede ver los diferentes artefactos de patrón de demostración de homogeneidad adaptativa, agrupación de píxeles con patrones y número variable de degradados (pase el mouse sobre los nombres):
http://www.ruevski.com/rawhistogram/40D_Demosaicing/40D_DemosaicingArtifacts.html
En resumen, hay una serie de suposiciones empleadas en estos algoritmos, y los artefactos ocurren cuando la suposición no se cumple:
Empecé a jugar un poco con esto y descubrí que el enfoque ingenuo no es tan malo. Eso es simplemente tratar cada color por separado e interpolar para obtener los píxeles intermedios. La principal desventaja de esto es que si está observando un píxel en un lugar donde hay un alto contraste, puede ver una pequeña franja de color. Dicho de otra manera, si tiene un área gris claro que linda con un área negra, verá algunos píxeles de colores en el límite. Afortunadamente, estos se promedian en general, pero si el borde es casi vertical o casi horizontal, se promedian en una frecuencia baja. El mismo efecto puede ser incluso más evidente en líneas finas y brillantes que son casi verticales u horizontales.
Aquí hay un ejemplo. Esta foto fue tomada deliberadamente como una prueba:
Tenga en cuenta las bandas aparentes de la línea de moldura cromada. Para poner esto en perspectiva, aquí está el cuadro completo:
He pensado en un enfoque alternativo, pero hasta ahora siempre ha habido otras cosas que hacer primero. Este esquema buscaría encontrar solo el brillo primero. Este sería el único canal de datos de imagen si la imagen fuera en blanco y negro. Cada sentido contribuye un poco a eso, aunque los colores no contribuyen por igual. Una vez que se determina la intensidad, interpolaría los colores como en el método ingenuo, pero usaría el resultado solo para configurar los colores de tal manera que se conserve la intensidad. La intensidad tendría un ancho de banda más alto o sería más nítida en términos fotográficos que la información de tono. La televisión analógica utilizó este truco para reducir los requisitos de ancho de banda de una imagen en color. Se salieron con la suya porque el sistema visual humano le da más importancia a la intensidad que a los colores, particularmente al rojo.
De todos modos, esos son sólo algunos pensamientos. Como dije, todavía no lo he probado ni resuelto los detalles. Algún día.
Tengo entendido que las diferentes versiones de proceso en Lightroom (hasta ahora tenemos 2003, 2010 y 2012) corresponden, entre otras cosas, a diferentes algoritmos de demostración. Otro software interesante es UFRaw que ofrece lo siguiente (cita de la página web):
Después de configurar el balance de blancos, UFRaw interpola el patrón de Bayer.
Esto podría proporcionar algún material para experimentar. Por cierto, UFRaw parece ser de código abierto, lo que le permite echar un vistazo a los propios algoritmos.
En astrofotografía, este tema se investiga profundamente, ya que cuando se usa un sensor de color de un solo disparo, se pierde mucha resolución por debayering. Por el lado positivo, el uso de un archivo RAW aún permite acceder a los datos originales y puede procesarse antes de la aplicación de color. Este tema se aleja mucho del lado del software.
En resumen, si tiene acceso a muchas imágenes con los mismos datos del sujeto (algo que se hace para reducir el ruido del sensor), puede cambiar una conversión de un solo cuadro con AHD por un enfoque de llovizna que puede recuperar la resolución perdida. La elección depende del tipo de fuente de datos que tenga disponible. La mayoría de los fotógrafos solo tienen una sola imagen para usar.
Algunos software que he usado con opciones para procesos de Debayering son: Deep Sky Stacker y Pix Insight. Hay otros también. Muchos están basados en DCRAW .
Aquí está el enlace para el artículo en la página de Deep Sky Stacker donde discuten algunas de las opciones: Debayering Choices
Geográficos de Jakub Sisak
jrista
jrista
miguel c
mattdm
usuario98068