He escuchado muchas veces a personas decir que disparar en RAW ofrece un mejor rango dinámico que disparar en JPG. Pero de alguna manera siempre lo he sentido tan difícil de creer.
Entonces, la pregunta es: ¿ hay alguna evidencia de este hecho?
Siga el razonamiento (probablemente incorrecto) que he hecho, por qué es difícil para mí creer que RAW realmente tiene una gran ventaja para lograr un rango más dinámico.
La razón es que si sé que tener 12 bits para cada canal (en lugar de 8) ofrece la posibilidad de memorizar 8 veces más tonos, entonces teóricamente sería posible guardar más información en una imagen RAW.
Pero al mismo tiempo también sé que el resultado final de un procesamiento HDR perfecto se muestra usando 8 bits.
Entonces, de alguna manera, si una imagen se toma a JPG con alguna zona quemada (recortada), me pregunto por qué el firmware, que tiene la información RAW con el rango dinámico más alto, prefiere quemar algunas zonas eliminando detalles en lugar de hacer un HDR simple en la mosca para salvar algún detalle.
También teniendo en cuenta que la visión humana es muy similar a un HDR natural (es muy raro que el ojo vea el cielo blanco porque es demasiado luminoso)
Consulte también este enlace: ¿Por qué el rango dinámico adaptativo es incompatible con la expansión ISO?
Sí, la evidencia de que esto es un hecho es que se utilizan imágenes RAW para hacer los archivos JPEG. No es posible que un JPEG tenga un rango más amplio que una imagen RAW porque la imagen RAW son los datos reales del sensor a partir de los cuales se crea el JPEG.
Un JPEG es la imagen procesada producida por la cámara tomando su mejor estimación de cómo debe procesarse la imagen. Descarta detalles como irrelevantes que están en la parte superior o inferior del rango dinámico y luego hace que el blanco y el negro sean los puntos que cree que son el punto blanco y negro de la imagen. El resultado final de esto es que el JPEG puede lucir más vibrante desde el primer momento, pero en realidad contiene mucha menos información porque el procesamiento ya se ha aplicado, los detalles se han descartado fuera del rango del JPEG y la profundidad de color ha cambiado. se ha reducido significativamente (color de 12 o 14 bits a 8 bits en la mayoría de los casos, que es más de un orden de magnitud menos color).
Está confundiendo el rango dinámico de la entrada con la profundidad de bits de la salida. En una imagen HDR, cubre un rango dinámico de entrada ampliado al observar los detalles en ambos extremos de dos fotos para cubrir una amplia gama de entrada. Procesado correctamente, esto se puede triturar en 8 bits porque se está asegurando de distribuir bien los detalles en esos 8 bits. Sin embargo, HDR no funciona para todas las imágenes. Si el rango dinámico de una escena no es muy amplio, el uso de HDR no logra nada. (También tenga en cuenta que el aspecto HDR se puede lograr con un solo archivo RAW en muchas DSLR modernas debido al alto rango dinámico que admiten).
Lo que tiene que pasar para pasar de RAW de 12 o 14 bits a un JPEG es que la información que es importante tiene que ser mapeada en tono en el rango de 8 bits. La cámara puede intentar hacer esto por sí misma o, para mayor precisión, un fotógrafo experimentado puede hacerlo a mano. Mantener alta la profundidad de bits permite que este detalle se almacene hasta que un artista pueda mapearlo en lugar de una computadora. Sin embargo, esto no es lo mismo que el rango dinámico.
Podría tener una imagen con menos rango dinámico, pero más profundidad de bits. La profundidad de bits determina la precisión y la granularidad del color, no el rango. El rango es la medida desde el punto más oscuro hasta el más brillante. Depende de la entrada. Teóricamente, un JPEG podría procesarse para tener el mismo rango dinámico que un archivo RAW, pero en general, la cámara descartará la información que tritura en blanco o negro, lo que da como resultado que el JPEG represente un rango dinámico más pequeño que la imagen RAW.
La ventaja de RAW es que los bits adicionales de precisión están disponibles durante el posprocesamiento para que el fotógrafo juegue con ellos, por lo que es posible resaltar detalles adicionales aumentando la exposición en las sombras y disminuyendo la exposición en las luces. Ya sea automáticamente (utilizando la función "Auto" del software) o de forma selectiva. Cortar los 4-6 bits adicionales y convertirlos a JPEG en primer lugar pierde esos detalles.
Entonces, sí, cuando el JPEG final se genera a partir de RAW, técnicamente solo tiene 8 bits por píxel, pero puede mostrar detalles mejorados que se habrían recortado si hubiera sido de 8 bits en primer lugar.
Apruebo totalmente la respuesta dada por AJ Henderson, pero pasa por alto un importante inconveniente adicional de JPEG.
(Es comprensible que la pregunta se centre en el aspecto de la gama de colores de RAW frente a JPEG).
Sin embargo, creo que es importante mencionar esto, ya que he descubierto a lo largo de los años que muchas personas no se dan cuenta de este pequeño hecho...
¡JPEG también pierde detalles finos!
Es un método de compresión con pérdida. Logra su tasa de compresión descartando componentes de alta frecuencia de la imagen.
Sin entrar en los detalles realmente técnicos (ve a leer las especificaciones JPEG ( aquí ) si quieres un dolor de cabeza) significa que los cambios de color rápidos (como en los bordes afilados) en la imagen se vuelven ligeramente borrosos.
También puede introducir pequeños artefactos en los detalles finos que no estaban en la imagen original.
Como resultado, el jpeg siempre tendrá un poco menos de detalle (en color y resolución) que el RAW original.
Incluso en los ajustes de calidad JPEG más altos, esta pérdida de precisión está presente.
Sí, los datos sin procesar permiten absolutamente mejores imágenes finales cuando la escena tiene un alto rango dinámico.
Un sensor de 14 bits captura la intensidad con una resolución de una parte en 2 14 = 16384. En parte tiene razón en que se captura en gran medida el mismo rango oscuro a claro y que, en última instancia, mostrará o verá la imagen con una resolución mucho más limitada. Digamos que la imagen final será de 8 bits/color/píxel, que es solo 2 8 = 256 niveles.
El punto que te falta es que es importante poder elegir los 256 niveles finales de un continuo y no quedarte atrapado con los 256 niveles distribuidos uniformemente desde el punto más oscuro al más brillante de la escena. Muy a menudo, desea que los niveles de salida final no estén espaciados uniformemente, a veces significativamente, cuando se mapean de nuevo a los datos capturados originales.
Los humanos no perciben la intensidad de la luz linealmente; lo perciben logarítmicamente. Esto significa que para obtener lo que le parece un incremento de brillo fijo, en realidad necesita un múltiplo fijo en la intensidad de la luz real. Por ejemplo, un paso de 1,1x al pasar de 50 a 55 parecerá aproximadamente el mismo incremento que al pasar de 200 a 220. Por el contrario, trabajando esto al revés, un paso de +1 de 200 a 201 apenas se notará, pero un paso de +1 de 10 a 11 es bastante significativo.
Una escena con un rango dinámico razonablemente alto puede contener fácilmente una relación de brillo de 1000x desde la parte más tenue en la que le interesa ver los detalles hasta la parte más brillante. Sin embargo, los medios de visualización comunes no se acercan a eso. Incluso una buena impresión puede ser 50:1 u 80:1 en condiciones ideales. Lo mismo es cierto para los monitores de computadora, especialmente porque la mayoría se ven con una luz ambiental significativa, lo que limita la forma en que realmente se puede mostrar el negro.
Por lo tanto, para que una imagen final se pueda ver en un medio de 50:1 que comienza con un contraste de 1000:1, por ejemplo, se necesita una compresión seria del rango dinámico. Para que esta compresión parezca natural y aceptable para los espectadores humanos, debe realizarse en el espacio de la intensidad conceptual humana. Como mencioné anteriormente, el espacio de intensidad conceptual humana es el logaritmo de la intensidad de la luz física.
El objetivo de todo esto es explicar por qué no funciona el espaciado lineal de los 256 pasos de intensidad de visualización finales sobre el rango de intensidad capturado original. Si sigue todas las matemáticas, el resultado es que los niveles de visualización limitados se toman del original agrupados en el extremo oscuro y se extienden en el extremo claro. No puede hacer esto y no perder información si comienza con solo 256 niveles distribuidos linealmente.
Hay otros efectos de posprocesamiento y otras razones para querer elegir los niveles de visualización de forma no lineal a partir de las intensidades de la escena. Todos estos requieren más resolución de brillo capturado para que aún tenga diferencias y saltos suaves entre el número limitado de niveles de salida.
Acabamos de tener una pregunta en la que alguien publicó una escena nocturna (alto rango dinámico) y quería saber a dónde iban todos los detalles en las áreas oscuras. Vea mi respuesta , que muestra un gran ejemplo de lo que sucede cuando intenta realizar un mapeo de brillo no lineal comenzando con solo los mismos 256 niveles en los que finalmente desea mostrar el resultado. Básicamente, no deje que esto le suceda.
Hoy en día, las diferencias entre JPEG y RAW se están reduciendo para la mayoría de las imágenes en las cámaras modernas.
Mi experiencia es que, si bien el disparo RAW ofrece más posibilidades de recuperar imágenes mal expuestas o con balance de blancos en el posprocesamiento, cambiar a cámaras sin espejo de alta calidad de la generación actual ha significado que ahora hago las cosas bien a la primera en la cámara con más frecuencia y rara vez necesito la mayor control posterior de RAW que era esencial en los días de DSLR.
Así que ahora uso JPG para la mayoría de mis tomas, y tomo secuencias AEB donde se necesita un rango dinámico extendido (las nuevas cámaras sin espejo tienen un disparo de secuencias en ráfaga mucho más rápido que hace que capturar HDR de mano sea muy fácil). Ahora reservo RAW para un número limitado de imágenes en las que el posprocesamiento es más importante: escenas oscuras, vestidos de novia blancos... escenas en las que sé que potencialmente quiero mucho posprocesamiento extremo.
Esto minimiza el tiempo de uso de la computadora, enfocándola hacia donde funcionará mejor, ¡y liberando tiempo para sostener una cámara en su lugar! Esto es importante ya sea que la fotografía sea tu carrera o tu pasatiempo.
Cada cámara (y marca) tiene su "mejor" configuración JPEG en la cámara que necesita saber (esa es la razón por la que existen esos "modos de escena", ¡así que utilícelos!). Mi experiencia es que con las cámaras de la generación anterior, estaban configuradas para "disparar a la derecha" y, a menudo, soplaban los reflejos de JPG para evitar la subexposición de las sombras. El software moderno ahora es tan bueno para controlar esto, que mis cámaras más antiguas ahora se disparan con una configuración de exposición de -1/3 a -2/3 EV cuando están en modo de exposición automática. Esto permite disparos más rápidos con cámaras más antiguas (sus cachés solían llenarse después de unos pocos disparos), mientras que puedo aumentar fácilmente la exposición de la sombra en una parada o más sin pérdida de calidad de imagen en la publicación.
Mi experiencia es que la configuración de Olympus y Fuji JPEG es muy buena SOOC; mientras que mi Panasonic y Nikon necesitan más controles individuales. Las cámaras con especificaciones de aficionados de Canon ofrecen excelentes archivos JPEG SOOC, pero las de especificaciones profesionales, como las NIKON, necesitan una aportación más personal.
En una situación de cambios rápidos, solía decirse que RAW permitía rescatar más imágenes si se tomaban con una exposición o ajustes de balance de color subóptimos. Pero me he dado cuenta de que cada cámara de nueva generación ofrece mejores y mejores resultados de su modo de programa de selección automática de escena; por lo tanto, esta es una buena configuración para dejar la cámara cuando de repente se requieran "instantáneas" (por ejemplo, la configuración IAS en las cámaras Lumix actuales).
Si finalmente muestra su foto como JPEG, como lo haré yo, la comparación es entre la conversión RAW->JPEG que hará su cámara y la conversión RAW->JPEG que hará en la publicación. La conversión a JPEG de 8 bits ocurrirá de una forma u otra. Hago muchas fotos de aves, que a menudo están mal iluminadas. Obtengo mejores detalles de las sombras procesando un archivo RAW en Lightroom que procesando una cámara JPEG. Si la conversión de la cámara fuera tan inteligente como yo, disparar en RAW no tendría ninguna ventaja. Ese día puede llegar, pero vi una gran mejora cuando obtuve una cámara de observación de aves que dispararía en RAW: la Nikon P950 en comparación con la P900. Misma lente, mismo sensor, pero captura RAW disponible. Cuando tengo tiempo uso(d) compensación de exposición en ambas cámaras,
Olivier Dulac
Anterior
Olivier Dulac
yuval weissler