¿Hay alguna razón para tomar 3 imágenes RAW/JPG para aprovechar al máximo HDR?

Soy nuevo en fotografía y lo que he visto hasta ahora:

  1. ViewNX me permite cambiar la exposición +2/-2 paradas en RAW
  2. HDR se trata de un rango dinámico más amplio y de la combinación de detalles de sombras de una imagen sobreexpuesta con detalles destacados de una imagen subexpuesta
  3. RAW contiene más bits que JPG y lo que se ve en el monitor, por eso es posible protegerlo de las luces y las sombras.

Entonces, me parece que RAW ya contiene toda la información HDR requerida y las fotos RAW/JPG adicionales no producirán mejores resultados para HDR (solo peores debido al proceso de alineación).

Hay mucha controversia sobre este tema. ¿Alguien puede dar una respuesta teóricamente probada sobre esta pregunta?

Relacionado (y tal vez en realidad una respuesta en sí misma): ¿Cómo puedo obtener una buena imagen HDR de un solo archivo RAW?

Respuestas (5)

HDR de una sola imagen RAW no agrega ningún rango dinámico que el capturado. Si la escena excede el rango dinámico de su cámara, no importa lo que haga, el RAW contendrá canales recortados en uno o incluso en ambos extremos. Incluso si tiene la mejor cámara y la usa en su configuración ISO óptima, lo máximo que obtiene hoy es un poco más de 14 paradas de DR.

Tomar una exposición entre paréntesis le permite capturar un rango mucho más amplio. Teniendo en cuenta el rango de las DSLR modernas, puede hacer un bracket fácilmente con 5 EV entre cada toma. Eso ampliará 14 EV de DR a 24 EV.

Por supuesto, parte de la pregunta es la forma de ver esto y de ahí viene el mapeo de tonos. Solo hay una pantalla HDR y es muy costosa, por lo que todos los demás deben contentarse con ver algo dentro de los límites del rango dinámico normal (8 paradas como máximo). Entonces, sí, terminas viendo algo que no es HDR, pero aún ves cosas que tenían más alcance. Sin tener cuidado, esto obviamente da como resultado un aspecto atroz por el que HDR se ha hecho famoso.

La D800 todavía no es capaz de hacer más de 14 paradas. El hardware en sí es capaz, según DXO, de 13,23 paradas. No importa qué tan avanzado sea su software de posprocesamiento o qué tan meticulosa sea su técnica, si intenta capturar una escena con 14,4 paradas de DR, el sensor de 13,23 paradas resaltará . Se han ido 1.2 paradas completas de resaltados soplados, reducir la escala a una imagen de "impresión" estandarizada de 8mp no va a cambiar eso.
Las estadísticas de DXO son excesivamente engañosas a este respecto, casi criminalmente. Reclamar 1,2 paradas adicionales, más del doble, de la capacidad de rango dinámico debido al simple acto de reducir la resolución (con un par de puntos de "bonificación" agregados aquí y allá para aumentar el número aún más de lo que permitiría la reducción de resolución por sí sola) es simplemente producir una estadística no válida desde el punto de vista del hardware. (Incluso matemáticamente, dada la naturaleza de los bits digitales, el hardware de la cámara podría, como máximo, con un ADC de 14 bits, ser capaz de realizar 14,0 paradas antes de resaltar los reflejos... suponiendo perfección/cero sobrecarga).
Sí, eso lo descubrí. Como cuestión, esa fue una de mis primeras preguntas aquí: photo.stackexchange.com/questions/4762/…
Mmmm interesante. Incluso comenté sobre eso en ese entonces, pero hasta donde yo sé hoy, TODA la atenuación de los datos de imagen ocurre digitalmente en las DSLR en estos días. Los ADC son lineales para cualquier ISO dado y, a menudo, tienen una ganancia fraccionaria en la mayoría de las configuraciones ISO, lo que conduce a un error de cuantificación (y, por lo tanto, a una mayor pérdida en DR). La gente tampoco parece entender el valor de una "duplicación"... si un sensor Canon tiene 11 paradas de DR, y una Nikon tiene más de 13 paradas, eso es más de CUATRO VECES la DR que tiene la Nikon... esa es una diferencia increíble (incluso sin superar las 14 paradas).

La cantidad de imágenes requeridas para producir un resultado HDR sin luces ni sombras recortadas depende completamente de la escena que se está fotografiando, no del rango dinámico de su dispositivo de salida. Las imágenes RAW pueden contener un rango mayor del que puede mostrar en su monitor, pero eso realmente no importa, ya que de todos modos comprimirá el rango dinámico como parte del proceso HDR mediante el mapeo de tonos .

Una sola imagen RAW puede no ser suficiente ya que el rango dinámico de su escena puede ser enorme. Tendemos a no darnos cuenta de esto ya que nuestro cerebro lo compensa extremadamente bien, pero cualquier situación en la que la fuente de luz esté en la toma pero no ilumine parte de la escena probablemente resulte imposible para el enfoque de una sola imagen.

La prueba de esto radica en el hecho de que una vez que se recortan los puntos destacados en RAW, la información desaparece para siempre. Del mismo modo, cuando las áreas oscuras se convierten en puro ruido, no hay forma de recuperar los detalles. Por lo tanto, siempre habrá escenas en las que las partes oscuras sean demasiado oscuras y las partes brillantes demasiado brillantes como para salirse con la suya usando una sola imagen.

Me centraré en esta declaración L=:

Entonces, me parece que RAW ya contiene toda la información HDR requerida y las fotos RAW/JPG adicionales no producirán mejores resultados para HDR (solo peores debido al proceso de alineación).

RAW contiene una conversión A/D de 12 o 14 bits de las lecturas del sensor. No es tan simple, pero dependiendo de su cámara, el caso normal es de 12 bits, el caso mejor es de 14 bits. Piense en HDR como una serie de n imágenes (donde n es, sin embargo, las imágenes que desea usar para obtener el detalle que necesita en las luces y las sombras). Idealmente, el rango dinámico de cada imagen se superpone en una pequeña cantidad al rango dinámico de la siguiente en el grupo de exposición. En este punto, creo que verá que en un rango de exposición de 3, suponiendo que se superpongan en convertidores A/D de aproximadamente 1/3 y 12 bits, seguirá utilizando unos 28 bits de datos. Agregue más exposiciones y puede expandir esto hasta 32 bits, que es donde se detienen la mayoría de las tecnologías HDR.

Entonces no es cierto que un solo archivo RAW contenga todos estos datos. Con las exposiciones entre paréntesis, está capturando datos adicionales tanto para el extremo bajo como para el alto más allá de lo que podría haber capturado en un solo cuadro. Sin embargo, es cierto que debe tener mucho cuidado de no mover o golpear la cámara (y espere que no haya objetos en movimiento en el marco). Por lo tanto, hay cierta degradación de la imagen (que no es cuantificable) asociada con el HDR de varios cuadros.

Me tomó un momento reflexionar sobre esta respuesta para que tuviera sentido, pero ciertamente es la respuesta más definitiva a la pregunta, simplemente no hay suficiente información almacenada en comparación con múltiples imágenes expuestas de manera diferente. Siguiendo la misma lógica, ¿esto hace que una imagen correctamente expuesta sea mejor que ajustar la exposición de un RAW en la publicación?
Sí. Creo que una imagen correctamente expuesta siempre ganará. Cualquier otra cosa se hace por efecto o estarás haciendo un rescate. Y, si no tiene tiempo o ganas de dedicar mucho tiempo a cada imagen, es imprescindible hacerlo bien en la cámara.

Tu cámara solo tiene un rango dinámico limitado. Por lo tanto, tomar las imágenes subexpuestas y sobreexpuestas al mismo tiempo que la toma normal le permite extraer detalles de las sombras y recuperar las luces mucho mejor que con una sola toma RAW. La otra cosa también es que si crea una copia virtual de un archivo RAW y reduce o aumenta la exposición del mismo en la publicación, corre el riesgo de introducir ruido artificial que sería perjudicial para la imagen final.

Obtendrá mucha más "información" de tres fotos separadas con diferentes exposiciones que de una sola.

RAW es una mejor fuente para HDR ya que también contiene respuestas lineales sin procesar del sensor.

Los archivos JPEG generalmente se procesan dentro de la cámara, al menos se aplica una curva de gamma/contraste, por lo que los valores de los píxeles ya no se corresponden con las irradiaciones reales.

Uno de los propósitos de HDR es capturar la luminosidad relativa, es decir, cuando la nube es 120 000 veces más brillante que la pared de un edificio, por lo que el valor del píxel es 120 000 veces mayor.

Las curvas de gamma y contraste se pueden aplicar al final del flujo de trabajo de procesamiento HDR para una mejor calidad de percepción (nuestra vista responde de forma no lineal a la cantidad de luz, al contrario que el sensor CCD/CMOS).