¿Sería útil un algoritmo demosaico para blanco y negro?

Dado que el objetivo principal de la demostración es recuperar el color con la mayor precisión posible, ¿habría alguna ventaja en un algoritmo de demostración "solo en blanco y negro"? Es decir, en lugar de recuperar primero el color y luego convertirlo en blanco y negro, ¿sería mejor convertir el archivo RAW directamente a blanco y negro?

Estoy particularmente interesado en la calidad de la imagen (p. ej., rango dinámico y nitidez). En una nota relacionada, ¿qué algoritmos comunes de demostración son más aptos para la conversión en blanco y negro?

El color es un factor intrínseco de una imagen RAW creada a partir de un sensor bayer de color. El problema de convertirlo a escala de grises es que solo tiene luminancia para un solo color dado en cualquier píxel dado. Realmente no importa si solo trata cada píxel como un valor de luminancia o si lo trata como un valor de color, cada píxel solo representa aproximadamente 1/3 de la luminancia total que incidió en el píxel en el momento de la exposición. La "demostración" es realmente innecesaria para las imágenes en escala de grises, sin embargo, para obtener imágenes ideales en escala de grises, querrá usar un sensor de escala de grises ... ¡sin el bayer en absoluto!
En cuanto a qué algoritmos de demostración son ideales para la conversión en blanco y negro cuando se usa una cámara a color... Yo diría que la forma más simple, su interpolación cuádruple estándar. Muchos otros algoritmos de demostración más avanzados están diseñados para minimizar el muaré de color y otros artefactos relacionados con el color. Si todo lo que le importa es el blanco y negro, la interpolación estándar de 2x2 píxeles conservará la mayor parte de los detalles.
@jrista No estoy seguro de por qué una interpolación ingenua preservaría más detalles que uno de los algoritmos más avanzados que intentan distinguir entre cambios de brillo e intensidad. En cualquier caso, los artefactos de color también pueden aparecer en imágenes en blanco y negro dependiendo de cómo se realice la conversión.
Bueno, supongo que me baso principalmente en el TDAH, que tiende a suavizar los detalles. Al menos, la implementación en Lightroom produce resultados ligeramente más suaves que el algoritmo utilizado por Canon DPP, que produce resultados muy nítidos y nítidos a partir de un algoritmo de demostración más simple (aunque supongo que no tan simple como su 2x2 básico).
"Comparación de métodos de demostración de color" (Olivier Losson, Ludovic Macaire, Yanqin Yang) entra en muchos detalles sobre diferentes algoritmos de demostración. No se trata solo de decodificar el color, los mejores algoritmos tienen en cuenta toda la información circundante para obtener los mejores resultados en cada píxel. No estoy convencido de que un decodificador de escala de grises dedicado pueda funcionar mejor.
El color importa en blanco y negro. Si no puedo, por ejemplo, enfatizar el canal rojo en la conversión (que, por ejemplo, hace que el cielo azul sea más oscuro, por lo que las nubes se destacan más), tengo que usar un filtro rojo cuando tomo la foto. Eso bloquea parte de la luz entrante, por lo que tengo que aumentar la exposición, lo que reduce mi flexibilidad. Y si luego determino que un filtro amarillo hubiera sido mejor que el rojo, no puedo cambiarlo. Volviendo a los viejos tiempos de la fotografía cinematográfica...

Respuestas (5)

No hay forma de convertir un archivo RAW directamente a blanco y negro sin recuperar primero el color, a menos que su convertidor tome solo uno de los conjuntos de píxeles R, G, B para producir una imagen. Este enfoque daría como resultado una pérdida sustancial de resolución.

Para no perder resolución al convertir a blanco y negro, debe usar todos los píxeles RG y B, lo que implícitamente significa que se deben realizar cálculos de color, momento en el cual también podría usar uno de los algoritmos avanzados de demostración de color y luego convertir el resultado a blanco y negro.

reducir a la mitad la resolución sin el promedio ponderado de los quads mediante la extracción de un color no sería la imagen en escala de grises esperada, ya que sería como poner un filtro verde, rojo o azul en una cámara monocromática. Y una cuestión filosófica: dividir cada eje por 2, reduciendo el recuento de Mp por 4. A esto lo llamaría media resolución. Pero parece llamar a sqrt (2) por eje / 2 Mp cuenta "resolución media". ¿Qué definición es técnicamente correcta? Si la resolución es la capacidad de resolver, entonces ancho/2 y alto/2 es la mitad de la resolución en un sistema 2D en el que desea preservar la invariancia rotacional.
extensión de mi punto de vista sobre la resolución Creo que Mp no es la resolución, es un número de marketing de fotografía. Como ingeniero de procesamiento de imágenes, se da una resolución como w X h.
@MichaelNielsen ¿Qué "imagen esperada en escala de grises"? Hay muchos métodos diferentes para convertir a escala de grises, la pregunta no especificó un enfoque de igual ponderación. En segundo lugar, si tuviera un detector lineal y redujera a la mitad el número de muestras, el poder de resolución, es decir, la cantidad máxima de detalle detectable se reduciría a la mitad, no diría que se redujo por un factor de raíz 2. A partir de eso, es lógico que si tiene un campo 2D de detectores (como un sensor de imagen) y reduce a la mitad el número de muestras en ambas direcciones, dejándolo con una cuarta parte, diría que la resolución se redujo en un factor de 4.
si reduce a la mitad solo el eje x o y, tiene diferentes resoluciones en cada dirección, lo que anula la capacidad de contar una resolución total en términos de Mp y calcular un solo factor "/ 2 resolución". De c. Las lentes tampoco tienen la misma resolución, pero los fabricantes de sensores están bastante orgullosos de anunciar que hoy en día sus píxeles son cuadráticos y cuadrados, lo que produce la misma resolución en ambas direcciones, esto significa una resolución de 640x = 480y. Vea cómo el número de píxeles en sí no significa nada. La resolución 640 es la MISMA resolución que la 480.
Por lo tanto, para mantener la relevancia de la misma resolución cuadrática, para reducirla a la mitad (globalmente), necesita reducir a la mitad ambas direcciones. De lo contrario, DEBE salir de su camino para decir que redujo a la mitad una dimensión. No se puede agrupar en un solo número de resolución.
Escala de grises: no dije igual peso. Y sé que hay muchas versiones diferentes en escala de grises, pero puedo apostar que R, G o B no es una de las esperadas por el OP. La más probable es la versión 0.11*b+0.59*g+.3*r.
Si el poder de resolución se mide como el número de pares de líneas por mm a lo largo de un eje específico, tendería a pensar que usar 1/4 de los píxeles produciría 1/2 de resolución en ambos ejes. Por supuesto, cuando se utiliza RGBG, el poder de resolución de cada píxel se ve comprometido por la interpolación intrínseca de la demostración.
También intente consultar esta pregunta: photo.stackexchange.com/q/23331/4559
@MichaelNielsen Creo que has perdido el punto que estaba diciendo, que a menos que quieras perder resolución (independientemente de cómo decidas medirla) al tomar una conversión RG o B pura, entonces tienes que producir una imagen en color como paso intermedio en el proceso de conversión de RAW a blanco y negro.
Sé que ese era su punto original, pero simplemente me gusta una buena discusión y su alternativa a hacer la conversión completa no fue la única, sino la más simple con algunos problemas que fue interesante discutir. ;)

Necesita un algoritmo de demostración incluso si convierte una imagen a blanco y negro.

Una razón para eso es bastante simple: de lo contrario, obtendría artefactos de subpíxeles por todas partes. Debe darse cuenta de que la imagen registrada por el sensor es bastante desordenada. Echemos un vistazo a la muestra de Wikipedia :

demostración

Ahora imagine que no hacemos ninguna demostración y solo convertimos RAW en escala de grises:

escala de grises

Bueno... ¿ves los agujeros negros? Los píxeles rojos no registraron nada en el fondo.

Ahora, comparemos eso con la imagen demostrada convertida a la escala de grises (a la izquierda):

normal vs roto

Básicamente pierdes detalles, pero también pierdes muchos artefactos que hacen que la imagen sea bastante insoportable. La imagen que pasa por alto la demostración también pierde mucho contraste, debido a cómo se realiza la conversión en blanco y negro. Finalmente, los matices de los colores que están entre los colores primarios pueden representarse de formas bastante inesperadas, mientras que las grandes superficies de rojo y azul estarán en 3/4 en blanco.

Sé que es una simplificación, y podrías apuntar a crear un algoritmo que sea simplemente: más eficiente en la conversión RAW a B&N, pero mi punto es que:

Necesita una imagen en color calculada para generar los tonos correctos de gris en una fotografía en blanco y negro.

La buena manera de hacer fotografías en blanco y negro es eliminar completamente la matriz de filtros de color, como lo hizo Leica en Monochrom , no cambiando la conversión RAW. De lo contrario, obtendrá artefactos, o falsos tonos de gris, o disminuirá la resolución o todo esto.

Agregue a esto el hecho de que la conversión RAW->Bayer->B&N le brinda muchas más opciones para mejorar y editar imágenes, y obtuvo una solución bastante excelente que solo puede ser superada por la construcción de sensores dedicados. Es por eso que no ve convertidores B&N RAW dedicados que no volverían a hacer demostraciones en algún momento del proceso.

Las cámaras de visión artificial con filtros Bayer pueden proporcionar imágenes en escala de grises directamente, pero lo hacen haciendo demostraciones, convirtiendo a YUV y enviando solo el canal V (al menos los que normalmente uso). Si tuvieran una mejor manera de pasar por alto esta reconstrucción de color, creo que lo harían, ya que están constantemente aumentando la velocidad de fotogramas (la cámara típica que uso funciona a 100 FPS, por ejemplo).

Si tuviera que ignorar la demostración basada en color, podría reducir a la mitad la resolución y el promedio ponderado de cada cuadrante de 2x2, pero si desea una resolución completa, es mejor usar el algoritmo de demostración de color normal que trata de preservar mejor los bordes. Si sabemos que queremos una escala de grises, solo obtenemos una cámara monocromática desde el principio, aplicamos un filtro de color si buscamos un color determinado, ya que esta configuración es muy superior en calidad de imagen, lo que reduce la necesidad de sobremuestreo de resolución, lo que a su vez permite uso de un sensor rápido de baja resolución con píxeles más grandes, lo que a su vez brinda una imagen aún mejor.

Escribiste: "convirtiendo a YUV y enviando solo el canal V" Seguramente te refieres a enviar el canal Y, ya que Y es el canal de luminancia.

El efecto de los filtros de color sobre cada píxel de la capa de Bayer es el mismo que el de filmar una película en blanco y negro con filtros de color sobre la lente: cambia la relación de los niveles de gris de varios colores en la escena que se está fotografiando. Para obtener un nivel de luminancia preciso para todos los colores de la escena, se deben demostrar las señales de cada píxel. Como han mencionado otros, un sensor sin capa de Bayer produciría una imagen monocromática que no necesita ser demostrada. Esto debería resultar en una mejor nitidez de la imagen si el círculo de confusión de la lente es igual o menor que el ancho de cada píxel.

En términos prácticos, he notado varias cosas al convertir archivos RAW a monocromo usando Digital Photo Professional (DPP) de Canon.

  1. El ajuste del balance de blancos puede efectuar un cambio en la luminancia general percibida de la misma manera que el ajuste del contraste. Como tal, se puede utilizar para ajustar el contraste.
  2. El balance de blancos también afectará la luminosidad relativa de los diferentes colores en la escena. Esto se puede usar para ajustar la aplicación de los efectos de filtro "Naranja", "Amarillo", "Rojo", etc. El rojo parece ser el más afectado por esto y es mucho más oscuro a 2500K que a 10000K. Sorprendentemente, al menos para mí, es que los tonos azules no demuestran lo contrario.
  3. Dado que, a todos los efectos prácticos, no hay ruido de crominancia en una foto en blanco y negro, se puede dejar en "0".
  4. La herramienta de máscara de enfoque le dará mucho más control sobre la nitidez que el control deslizante "Nitidez" más simple. Especialmente si tiene algunos píxeles "cálidos" o "calientes" en la imagen, puede aumentar la nitidez general sin enfatizarlos.

A continuación se muestran dos versiones de la misma toma de exposición en una Canon 7D con un objetivo EF 70-200 mm f/2.8L IS II y un teleconversor Kenco C-AF 2X Teleplus Pro 300. La imagen fue recortada a 1000X1000 píxeles. El primero se convirtió usando la configuración de la cámara que se muestra debajo. El segundo fue editado con la configuración que se muestra en la captura de pantalla. Además de la pestaña RAW, se aplicó una configuración de reducción de ruido de luminancia de 2, al igual que un valor de aberración cromática de 99.

Luna - sin editar

Información de la cámara

Luna - editado

Ajustes

Propondría un algoritmo como este (supone que su objetivo es blanco y tiene una temperatura de color constante):

  • Demosaic RAW Bayer a RGB
  • Reducir el color a escala de grises
  • Cree una LUT entre los valores de bayer sin procesar y los valores de escala de grises (esto debería realizarse una vez por plano de color RGGB o RGB)
  • Use el filtro LUT por color para transformar RAW Bayer directamente a escala de grises sin ningún filtrado entre píxeles

En teoría, esto se acercaría a los resultados de un verdadero sensor monocromático.