¿Cuál es la diferencia entre "Fake HDR" y HDR de exposición entre paréntesis real?

Cuando comencé a repasar mis habilidades de fotografía de paisajes, me encontré con el problema polarizante (juego de palabras) de la fotografía HDR. Más específicamente, me encontré con una publicación de blog bien escrita titulada " ¿Es un "efecto" HDR de Lightroom, realmente HDR? ". Para citar la publicación:

Vi esta publicación el otro día en 500px (enlace: http://500px.com/photo/8023755 ) y me hizo preguntarme. El fotógrafo, José Barbosa (cuyo trabajo creo que es fabuloso por cierto), escribió "No HDR" junto a su foto. Pero la foto (al menos para mí) parece una foto HDR. (...) Investigué un poco en los metadatos de su foto y vi mucho trabajo de pincel de ajuste hecho con Clarity (Básicamente, el control deslizante de efecto HDR en Lightroom). Y en los comentarios de la publicación de 500px, el propio fotógrafo escribió “procesamiento en Lightroom y Viveza 2”. (...)

Mi punto (y una pregunta para usted) es si HDR (que no es realmente HDR), ¿sigue siendo HDR? ¿No se ha convertido HDR simplemente en un efecto? Algo así como Blanco y negro o el efecto de procesamiento cruzado. ¿Todavía necesitamos 3, 5 o 7 fotos entre corchetes que se procesaron en un programa como Photomatix, para clasificar una imagen como una foto HDR oficial? ¿O es HDR simplemente el efecto de resaltar más detalles en las sombras y los reflejos (y tal vez un poco de aspecto arenoso/surrealista).

Parece que tengo la misma pregunta que el autor: ¿Cuál es realmente la diferencia entre estos efectos "falsos hdr" agregados a través, por ejemplo, del ajuste de claridad de Lightroom, junto con una recuperación de sombras/iluminación en comparación con el HDR "real" que involucra exposiciones entre paréntesis en + /-n EV? ¿Hay ruido adicional en el método "falso"? ¿Hay alguna diferencia (perceptible) en absoluto? En una nota similar, ¿hay alguna razón para tomar una imagen HDR si solo podemos usar la recuperación de sombras/iluminación para exponer uniformemente toda la escena?

Respuestas (5)

¿Cuál es la diferencia entre el "HDR falso" y el HDR de exposición entre paréntesis real?

La única diferencia es la amplitud o la precisión con la que decida definir el término Imágenes de alto rango dinámico (HDR). ¿Utiliza el término más amplio tal como se ha utilizado históricamente durante más de 150 años para hacer referencia a las técnicas utilizadas para mostrar una escena con un rango dinámico más alto que el rango dinámico del medio de visualización? ¿O insiste en una definición muy estrecha que utiliza técnicas que solo existen desde hace un par de décadas para argumentar que la única definición legítima de HDR es una versión de mapa de tonos de 8 bits de un mapa de luz de punto flotante de 32 bits creado por ¿Combinar múltiples exposiciones entre paréntesis? Eso es practicamente todo.

HDR , como se usa comúnmente el término hoy en día, es solo una forma de imágenes de alto rango dinámico (HDRI) que ha estado ocurriendo desde al menos la década de 1850.

Gustave Le Gray tomó exposiciones múltiples a diferentes valores de exposición para crear paisajes marinos que usaron el cielo brillante de un negativo de placa de vidrio y el mar y la costa más oscuros de otro.

El sistema de zonas al disparar y revelar y el mapeo de tonos realizado en el cuarto oscuro a mediados del siglo XX fue convertido en una forma de arte por Ansel Adams y otros, ya que utilizaron los tiempos de revelado y esquivaron y quemaron las impresiones para reducir el rango dinámico total de un escena a lo que los papeles fotográficos que estaban usando eran capaces de mostrar.

En el ámbito de la fotografía digital, se utilizan varias técnicas para representar una escena con un alto rango dinámico utilizando un medio, como un monitor de computadora o una impresión, que no es capaz de lograr un contraste tan grande entre las partes más brillantes y las más oscuras de una escena. como contiene la escena misma. Lo que muchas personas quieren decir cuando dicen que HDR es solo una de esas técnicas entre muchas.

Aunque lejos de ser el único legítimo, la interpretación más común hoy en día del término HDRes lo que evolucionó a partir de ideas introducidas por primera vez en 1993 que dieron como resultado una teoría matemática de imágenes expuestas de manera diferente del mismo tema publicada en 1995 por Steve Mann y Rosalind Picard. Crea un mapa de luz de alto rango dinámico a partir de múltiples imágenes digitales expuestas a diferentes valores utilizando solo operaciones de imagen global (en toda la imagen). El resultado suele ser una "imagen" de coma flotante de 32 bits que ningún monitor o impresora es capaz de reproducir. A continuación, se debe mapear el tono reduciendo el contraste general y conservando el contraste local para que encaje en el rango dinámico del medio de visualización. Esto a menudo conduce a artefactos en las transiciones entre áreas de valores de luminancia altos y áreas de valores de luminancia bajos. (Incluso cuando abre un archivo 'sin procesar' de 12 o 14 bits en su aplicación de fotografía en la computadora, lo que ve en la pantalla es una representación de 8 bits del archivo sin formato de demostración, no el 14 monocromático real filtrado por Bayer. -archivo de bits. A medida que cambia la configuración y los controles deslizantes, los datos 'sin procesar' se reasignan y se procesan nuevamente en 8 bits por canal de color).

Cuando las técnicas descritas por Mann y Picard se aplicaron por primera vez en las principales aplicaciones de imágenes a nivel de consumidor, esas aplicaciones generalmente requerían que las imágenes estuvieran en formato jpeg. Un poco más adelante, si quisieras ser realmente exótico, podrías encontrar un programa que te permitiera usar archivos TIFF. A menudo, los usuarios tomaban un solo archivo sin procesar, creaban una serie de jpegs a partir de un solo archivo con algo así como -2, 0, +2 diferencias de exposición/brillo y luego los combinaban usando el programa HDR. Incluso un archivo sin procesar de 12 bits puede contener tanto rango dinámico como una serie de jpegs -2, 0, +2. Un archivo sin procesar de 14 bits puede contener la información equivalente a la de una serie de jpegs -3, 0, +3. Solo recientemente, la mayoría de las aplicaciones HDR basadas en la creación de mapas de luz de coma flotante permitieron el uso de datos de archivos sin procesar como punto de partida.

En el uso más amplio de los términos HDR (o HDRI ), también se incluyen otros procesos que no involucran mapas de luminancia de 32 bits y la necesidad de mapeo de tonos. Combinar diferentes áreas de diferentes exposiciones de la misma escena, ya sea a través de un 'cortar y pegar' físico como lo hizo Le Gray hace más de 150 años o mediante modernas aplicaciones de imágenes digitales que usan capas, es una forma. Otras técnicas, como Exposure Fusion o Digital Blendingrealice digitalmente ajustes globales de una manera que no requiera el mismo tipo de mapeo de tonos que un mapa de luz de coma flotante de 32 bits. Como se mencionó anteriormente, muchas de las técnicas utilizadas en el cuarto oscuro para producir impresiones de película expuesta en el siglo XX eran un medio para mostrar escenas con un rango dinámico muy amplio usando papel fotográfico que tenía la capacidad de un rango dinámico más bajo que la película negativa. utilizado para capturar la escena. Lo mismo ocurre con estas variadas técnicas digitales.

Incluso convertir un archivo sin procesar de 14 bits, donde los datos de cada píxel solo tienen un valor de luminancia pero no colores reales, y usar algoritmos de demostración para interpolar un valor de color rojo, verde y azul de 8 bits por canal de color para cada píxel basado en en los diferentes valores de luminancia de los píxeles adyacentes que se filtran utilizando una máscara de Bayer con patrones alternos de rojo, verde y azul se puede considerar HDRI , especialmente cuando se aplican curvas de tono de forma irregular a los valores RGB resultantes.

En mi opinión, es tan simple como esto: una foto HDR es una foto en la que intentas resaltar los detalles en cada parte de una escena con un alto rango dinámico. Después de todo, eso es lo que dice el nombre "HDR".

Ahora bien, ¿qué es un alto rango dinámico? Es cuando las partes sombreadas de la imagen son mucho más oscuras que las partes brillantes de la imagen. Históricamente, uno tomaba varias fotos con diferentes exposiciones para capturar los detalles en cada parte de la escena, porque las cámaras no tenían la capacidad de capturar un alto rango dinámico. Hoy en día, la cámara puede capturar fácilmente 14 paradas de exposición (lo que significa que el detalle en el tono más oscuro es 2^14 veces menos claro físicamente que los tonos más brillantes que la cámara puede capturar) (por ejemplo: la Nikon D750 tiene 14,5 paradas de rango dinámico ). Esto es mucho, y en más situaciones que antes, suficiente para lograr el mismo efecto de una "foto HDR" usando múltiples exposiciones. En resumen, las cámaras se han vuelto mejores para capturar rangos amplios, y, por lo tanto, la necesidad de múltiples fotos de diferentes exposiciones ha disminuido, pero eso no significa que no sea HDR. Para concluir, la foto de 500 px que vinculaste es definitivamente una foto HDR, ya que puedes ver muchos detalles en todas las partes de la imagen para una escena que originalmente tenía mucho rango dinámico.

"... las cámaras no tenían la capacidad de capturar un alto rango dinámico". Tal vez las primeras cámaras digitales no lo hicieron. Con la película correcta y la exposición/revelado adecuados, Ansel Adams nos mostró cómo la película de gran formato podía capturar detalles en escenas que estaban separadas por 14 paradas en un solo negativo y luego revelar e imprimir para que esos detalles fueran visibles en papel con un DR máximo de 6 -7 paradas.

si podemos usar la recuperación de sombras/iluminación para exponer uniformemente toda la escena

Esto depende del rango dinámico de la escena que intenta capturar y del rango dinámico que el sensor puede capturar.

Si apenas obtiene detalles en las sombras cuando expone para no arruinar los reflejos, necesita múltiples exposiciones.

Si puede obtener suficientes detalles en las sombras (con niveles de ruido mínimos o aceptables) y al mismo tiempo conservar las luces, puede estar satisfecho con capturar y ajustar una sola foto.

Mi respuesta será una especie de forma práctica y experimental de obtener la comprensión.

  1. Vaya al lugar como una ciudad con un edificio y la calle donde puede mirar el sol o el cielo directamente en un día soleado, o para ir al lugar donde, por ejemplo, hay un bosque y también puede ver el sol o el cielo. cielo.

  2. Mira (con tus propios ojos) los edificios o los árboles.

  3. Mire al cielo o de cerca al sol (más bien no mire directamente al sol).

Puedes observar cómo se van adaptando los ojos. Puedes ver tanto los árboles como el cielo.

  1. Tome su cámara cuando tenga la opción de visualización en vivo, puede encenderla.

  2. Enfoca tu cámara en los mismos puntos que habías mirado.

Verá que la cámara no puede efectivamente en una sola exposición obtener la vista del cielo y los objetos más oscuros. Incluso si filma la escena con una especie de configuración de exposición promedio, hay lugares que serán negros y algunos que serán blancos (subsaturados y sobresaturados). Incluso si intenta reducir o aumentar localmente la exposición en el software especializado (hay muchos), no habrá forma de obtener la forma y los colores de los blancos y negros.

es la realidad Los sensores de corriente no son tan avanzados como los ojos. Por cierto, por el bien del arte, también es una característica deseada, que se usa en fotografía de clave baja y clave alta.

Sigamos con el experimento.

  1. Si puede tomar un par de fotos para obtener más información y luego combinarlas en el software HDR más tarde, combinará toda la información de todas las fotos.

  2. Lo mejor es tomar más imágenes con un paso EV más pequeño, cuando la escena es estática. Si hay objetos en movimiento, habrá una especie de compensación entre el número de disparos y el paso EV.

Dependiendo de la situación, puede disparar desde 3 imágenes +/-1EV o 3 con +/2EV hasta 9 o más disparos +/-0.5EV o incluso +/-2EV.

Importante también es cómo haces el cambio EV. Básicamente, la forma más popular es aumentar o disminuir el tiempo de obturación. Con algunos límites, se pueden usar los cambios de ISO para obtener lo mismo, pero con valores altos de ISO, las imágenes son más ruidosas. Cambiar la apertura hace que las imágenes sean difíciles de fusionar y los efectos son interesantes (yo diría artísticos o conceptuales). Por supuesto, uno puede usar filtros ND, para ampliar el rango EV propio; intente usar algún filtro extremo como ND 3.0.

Finalmente, cuando el conjunto de imágenes está bien preparado y con una gama realmente amplia de EV, el resultado HDR será sorprendente y no hay forma de falsificarlo a partir de una sola imagen, ya que la imagen única definitivamente tendrá menos información.

Comentarios finales.

Este tipo de escena se puede capturar usando un filtro de degradado, pero HDR es más general, especialmente cuando el borde entre los lugares claros y oscuros no es lineal.

Recomiendo usar trípode para cualquier experimento con HDR :-).

Hay una idea errónea de "HDRI"

Una imagen de alto rango dinámico tiene más rango dinámico que una imagen normal. Sonaba bastante pobre explicación pero eso es lo que es.

Aquí unas animaciones que hice explicando que es un Hdri: http://www.otake.com.mx/Apuntes/Imagen/EnviromentMaps/Index.html#HighDynamicRangeImages

La idea errónea es que una parte del proceso de manipulación de estas imágenes, llamada mapeo de tonos, es la misma que la propia imagen Hdri. No lo es. Una imagen HDri realmente contiene más información. Exteriores soleados e interiores oscuros juntos.

Para poder volver a ver esa información en un monitor normal, la imagen HDR tiene que ser "reasignada". Una imagen con mapa de tonos tiene un tipo específico de contraste. No un contraste general sino un contraste en zonas adyacentes. Ahora puede ver nubes contrastadas e interiores oscuros contrastados, por ejemplo.

El punto es que podrías tomar una foto normal (sin paréntesis) y asignarle tonos, para que puedas tener el aspecto "hdri".

Aquí hay 3 brotes. Uno es un mapa de tonos de un conjunto de 3 fotos entre paréntesis (HDRI real pero ahora un mapa de tonos en una imagen de 8 bits)

El segundo es un tono mapeado de un solo disparo.

El tercero es solo el disparo único normal pero moviendo mucho los niveles, para revelar información adicional sobre el cielo que no vimos antes.

El punto es que una foto normal se puede manipular, esquivar y quemar para lograr una apariencia similar, una apariencia contrastada en una foto.

Aquí están las fotos originales entre paréntesis. La que se usa para (2) y (3) es la Ev0:

Parte de la información está escondida allí. Pero cuando se procesa, podría convertirse en bandas, porque tiene información limitada en los píxeles. Para evitar bandas, es mejor si tienes más información, más niveles de los tonos claros y más niveles de sombras... Por eso tomaste las imágenes entre paréntesis.

El punto es similar a esta publicación: ¿Cuál es el punto de capturar imágenes de 14 bits y editarlas en monitores de 8 bits? Más niveles de información es mejor en la edición de imágenes.