¿Los archivos RAW realmente permiten más rango dinámico RAW que disparar en JPG?

He escuchado muchas veces a personas decir que disparar en RAW ofrece un mejor rango dinámico que disparar en JPG. Pero de alguna manera siempre lo he sentido tan difícil de creer.

Entonces, la pregunta es: ¿ hay alguna evidencia de este hecho?

Siga el razonamiento (probablemente incorrecto) que he hecho, por qué es difícil para mí creer que RAW realmente tiene una gran ventaja para lograr un rango más dinámico.

La razón es que si sé que tener 12 bits para cada canal (en lugar de 8) ofrece la posibilidad de memorizar 8 veces más tonos, entonces teóricamente sería posible guardar más información en una imagen RAW.

Pero al mismo tiempo también sé que el resultado final de un procesamiento HDR perfecto se muestra usando 8 bits.

Entonces, de alguna manera, si una imagen se toma a JPG con alguna zona quemada (recortada), me pregunto por qué el firmware, que tiene la información RAW con el rango dinámico más alto, prefiere quemar algunas zonas eliminando detalles en lugar de hacer un HDR simple en la mosca para salvar algún detalle.

También teniendo en cuenta que la visión humana es muy similar a un HDR natural (es muy raro que el ojo vea el cielo blanco porque es demasiado luminoso)

Consulte también este enlace: ¿Por qué el rango dinámico adaptativo es incompatible con la expansión ISO?

Vea este raw vs jpeg si quiere ejemplos photo.stackexchange.com/q/2627/13645
@OlivierDulac: ¡esa era la respuesta que estaba buscando!
Me alegro de que haya ayudado :) (haga clic en las preguntas, luego vote y lea las más importantes... está ahí arriba ^^ junto con muchas otras interesantes)
Estoy totalmente de acuerdo con la pregunta de Revios y debo admitir que todavía no encontré una respuesta satisfactoria. Decir que una imagen RAW tiene una profundidad de bits de 12 frente a 8 no dice nada explícito sobre el rango dinámico, porque puede ser que cada nivel de gris en RAW sea igual al de un JPEG (ambos niveles de gris representan el mismo cantidad de luz que incide en el píxel), pero solo va 3838 niveles más alto que JEPG, o que RAW y JPEG tienen el mismo rango, pero RAW puede dividirlo en niveles más discretos (pero ambos aún tienen los mismos límites).

Respuestas (6)

Sí, la evidencia de que esto es un hecho es que se utilizan imágenes RAW para hacer los archivos JPEG. No es posible que un JPEG tenga un rango más amplio que una imagen RAW porque la imagen RAW son los datos reales del sensor a partir de los cuales se crea el JPEG.

Un JPEG es la imagen procesada producida por la cámara tomando su mejor estimación de cómo debe procesarse la imagen. Descarta detalles como irrelevantes que están en la parte superior o inferior del rango dinámico y luego hace que el blanco y el negro sean los puntos que cree que son el punto blanco y negro de la imagen. El resultado final de esto es que el JPEG puede lucir más vibrante desde el primer momento, pero en realidad contiene mucha menos información porque el procesamiento ya se ha aplicado, los detalles se han descartado fuera del rango del JPEG y la profundidad de color ha cambiado. se ha reducido significativamente (color de 12 o 14 bits a 8 bits en la mayoría de los casos, que es más de un orden de magnitud menos color).

Está confundiendo el rango dinámico de la entrada con la profundidad de bits de la salida. En una imagen HDR, cubre un rango dinámico de entrada ampliado al observar los detalles en ambos extremos de dos fotos para cubrir una amplia gama de entrada. Procesado correctamente, esto se puede triturar en 8 bits porque se está asegurando de distribuir bien los detalles en esos 8 bits. Sin embargo, HDR no funciona para todas las imágenes. Si el rango dinámico de una escena no es muy amplio, el uso de HDR no logra nada. (También tenga en cuenta que el aspecto HDR se puede lograr con un solo archivo RAW en muchas DSLR modernas debido al alto rango dinámico que admiten).

Lo que tiene que pasar para pasar de RAW de 12 o 14 bits a un JPEG es que la información que es importante tiene que ser mapeada en tono en el rango de 8 bits. La cámara puede intentar hacer esto por sí misma o, para mayor precisión, un fotógrafo experimentado puede hacerlo a mano. Mantener alta la profundidad de bits permite que este detalle se almacene hasta que un artista pueda mapearlo en lugar de una computadora. Sin embargo, esto no es lo mismo que el rango dinámico.

Podría tener una imagen con menos rango dinámico, pero más profundidad de bits. La profundidad de bits determina la precisión y la granularidad del color, no el rango. El rango es la medida desde el punto más oscuro hasta el más brillante. Depende de la entrada. Teóricamente, un JPEG podría procesarse para tener el mismo rango dinámico que un archivo RAW, pero en general, la cámara descartará la información que tritura en blanco o negro, lo que da como resultado que el JPEG represente un rango dinámico más pequeño que la imagen RAW.

Pero, ¿hay alguna medida que diga que, al menos en la mayoría de los casos, los RAW están menos recortados que los Jpeg? (Espero que la palabra recortada sea clara)
@Revious: los archivos JPEG provienen de los datos RAW, no es físicamente posible que un archivo RAW recorte más que una versión JPEG de la imagen. Cuando toma una foto, los datos RAW se toman del sensor y se almacenan en un archivo RAW o se procesan para formar un JPEG. Los datos RAW son los datos exactos a partir de los cuales se crea el JPEG cuando se guarda como JPEG.
@Revious Tenga en cuenta que un archivo sin procesar se puede procesar no solo en un JPEG de 3 × 8 bits, sino también en un TIFF de 3 × 16 bits. No tengo una cita a la mano, pero recuerdo haber leído no hace mucho que muchos monitores TFT de consumo realmente no hacen más de 6 bits por canal por píxel de fidelidad de color real.
@MichaelKjörling: los paneles TN generalmente solo ofrecen color de 6 bits. Además, cuando aplica un archivo RAW a un TIFF de 16 bits, se expande un poco, por lo que los 16 bits completos no se utilizan realmente, pero se conserva más información que si ingresa a un JPEG de 8 bits, pero eso está relacionado con el número de colores en lugar del rango dinámico absoluto.
@AJHenderson Correcto, no quise dar a entender que usar TIFF de 16 bits de alguna manera agregó información. Gracias por la aclaración de que se trata de paneles TN.
En rigor, pasar de 12 a 8 bits no pierde "varios órdenes de magnitud". Pasas de 4096 a 256 valores posibles, así que en principio "sólo" por un factor de 16, es decir, un poco más de un orden de magnitud. Pero, por supuesto, la diferencia sigue siendo muy significativa, especialmente en los extremos "negro" y "blanco".
@HagenvonEitzen: cierto, creo que estaba pensando en términos de potencias de 2 en lugar de potencias de 10, pero la mayoría de la gente piensa en potencias de 10.

La ventaja de RAW es que los bits adicionales de precisión están disponibles durante el posprocesamiento para que el fotógrafo juegue con ellos, por lo que es posible resaltar detalles adicionales aumentando la exposición en las sombras y disminuyendo la exposición en las luces. Ya sea automáticamente (utilizando la función "Auto" del software) o de forma selectiva. Cortar los 4-6 bits adicionales y convertirlos a JPEG en primer lugar pierde esos detalles.

Entonces, sí, cuando el JPEG final se genera a partir de RAW, técnicamente solo tiene 8 bits por píxel, pero puede mostrar detalles mejorados que se habrían recortado si hubiera sido de 8 bits en primer lugar.

Apruebo totalmente la respuesta dada por AJ Henderson, pero pasa por alto un importante inconveniente adicional de JPEG.
(Es comprensible que la pregunta se centre en el aspecto de la gama de colores de RAW frente a JPEG).

Sin embargo, creo que es importante mencionar esto, ya que he descubierto a lo largo de los años que muchas personas no se dan cuenta de este pequeño hecho...

¡JPEG también pierde detalles finos!
Es un método de compresión con pérdida. Logra su tasa de compresión descartando componentes de alta frecuencia de la imagen.
Sin entrar en los detalles realmente técnicos (ve a leer las especificaciones JPEG ( aquí ) si quieres un dolor de cabeza) significa que los cambios de color rápidos (como en los bordes afilados) en la imagen se vuelven ligeramente borrosos.
También puede introducir pequeños artefactos en los detalles finos que no estaban en la imagen original.
Como resultado, el jpeg siempre tendrá un poco menos de detalle (en color y resolución) que el RAW original.
Incluso en los ajustes de calidad JPEG más altos, esta pérdida de precisión está presente.

Si bien todo lo que dice aquí es preciso y completamente relevante para una pregunta sobre la calidad de imagen RAW vs JPEG. Esta pregunta es específicamente sobre el rango dinámico admitido y esta respuesta realmente no aborda eso, lo que hace que esto sea más un comentario. (Por eso también no lo incluí en mi respuesta, aunque estoy completamente de acuerdo en que es muy importante señalarlo cuando se habla de las ventajas de RAW).
Por cierto, no soy el que votó negativo.
Si bien estoy de acuerdo en que esto no responde directamente a la pregunta, creo que las respuestas que brindan información complementaria adicional para que el OP las considere son perfectamente válidas y útiles aquí. Al hacer eso, debe señalar que no está respondiendo directamente a la pregunta. Sin embargo, lo hiciste, así que +1 para contrarrestar el voto negativo injusto.
@OlinLathrop lo aprecio :-)
@AJHenderson Consideré ponerlo en un comentario, pero pensé que 1) el formato en un comentario es limitado, lo que lo hace muy ilegible 2) Para ser conciso, era demasiado largo para un comentario 3) La compresión JPEG también afecta el color la reproducción en sí misma (funciona en grupos de 2x2 píxeles), por lo que también está tangencialmente relacionada con la fidelidad del color 4) Una respuesta recibe más atención :-)
@Tonny: sí, es por eso que no voté en contra. :) Desearía que hubiera una buena manera de hacer comentarios tangenciales relevantes con un buen formato. A veces, un enlace a una pregunta relevante también es una manera fácil de hacerlo y puede responder a esa pregunta, pero eso tampoco siempre funciona bien.

Sí, los datos sin procesar permiten absolutamente mejores imágenes finales cuando la escena tiene un alto rango dinámico.

Argumento teórico

Un sensor de 14 bits captura la intensidad con una resolución de una parte en 2 14 = 16384. En parte tiene razón en que se captura en gran medida el mismo rango oscuro a claro y que, en última instancia, mostrará o verá la imagen con una resolución mucho más limitada. Digamos que la imagen final será de 8 bits/color/píxel, que es solo 2 8 = 256 niveles.

El punto que te falta es que es importante poder elegir los 256 niveles finales de un continuo y no quedarte atrapado con los 256 niveles distribuidos uniformemente desde el punto más oscuro al más brillante de la escena. Muy a menudo, desea que los niveles de salida final no estén espaciados uniformemente, a veces significativamente, cuando se mapean de nuevo a los datos capturados originales.

Los humanos no perciben la intensidad de la luz linealmente; lo perciben logarítmicamente. Esto significa que para obtener lo que le parece un incremento de brillo fijo, en realidad necesita un múltiplo fijo en la intensidad de la luz real. Por ejemplo, un paso de 1,1x al pasar de 50 a 55 parecerá aproximadamente el mismo incremento que al pasar de 200 a 220. Por el contrario, trabajando esto al revés, un paso de +1 de 200 a 201 apenas se notará, pero un paso de +1 de 10 a 11 es bastante significativo.

Una escena con un rango dinámico razonablemente alto puede contener fácilmente una relación de brillo de 1000x desde la parte más tenue en la que le interesa ver los detalles hasta la parte más brillante. Sin embargo, los medios de visualización comunes no se acercan a eso. Incluso una buena impresión puede ser 50:1 u 80:1 en condiciones ideales. Lo mismo es cierto para los monitores de computadora, especialmente porque la mayoría se ven con una luz ambiental significativa, lo que limita la forma en que realmente se puede mostrar el negro.

Por lo tanto, para que una imagen final se pueda ver en un medio de 50:1 que comienza con un contraste de 1000:1, por ejemplo, se necesita una compresión seria del rango dinámico. Para que esta compresión parezca natural y aceptable para los espectadores humanos, debe realizarse en el espacio de la intensidad conceptual humana. Como mencioné anteriormente, el espacio de intensidad conceptual humana es el logaritmo de la intensidad de la luz física.

El objetivo de todo esto es explicar por qué no funciona el espaciado lineal de los 256 pasos de intensidad de visualización finales sobre el rango de intensidad capturado original. Si sigue todas las matemáticas, el resultado es que los niveles de visualización limitados se toman del original agrupados en el extremo oscuro y se extienden en el extremo claro. No puede hacer esto y no perder información si comienza con solo 256 niveles distribuidos linealmente.

Hay otros efectos de posprocesamiento y otras razones para querer elegir los niveles de visualización de forma no lineal a partir de las intensidades de la escena. Todos estos requieren más resolución de brillo capturado para que aún tenga diferencias y saltos suaves entre el número limitado de niveles de salida.

Argumento práctico

Acabamos de tener una pregunta en la que alguien publicó una escena nocturna (alto rango dinámico) y quería saber a dónde iban todos los detalles en las áreas oscuras. Vea mi respuesta , que muestra un gran ejemplo de lo que sucede cuando intenta realizar un mapeo de brillo no lineal comenzando con solo los mismos 256 niveles en los que finalmente desea mostrar el resultado. Básicamente, no deje que esto le suceda.

Hoy en día, las diferencias entre JPEG y RAW se están reduciendo para la mayoría de las imágenes en las cámaras modernas.

Mi experiencia es que, si bien el disparo RAW ofrece más posibilidades de recuperar imágenes mal expuestas o con balance de blancos en el posprocesamiento, cambiar a cámaras sin espejo de alta calidad de la generación actual ha significado que ahora hago las cosas bien a la primera en la cámara con más frecuencia y rara vez necesito la mayor control posterior de RAW que era esencial en los días de DSLR.

Así que ahora uso JPG para la mayoría de mis tomas, y tomo secuencias AEB donde se necesita un rango dinámico extendido (las nuevas cámaras sin espejo tienen un disparo de secuencias en ráfaga mucho más rápido que hace que capturar HDR de mano sea muy fácil). Ahora reservo RAW para un número limitado de imágenes en las que el posprocesamiento es más importante: escenas oscuras, vestidos de novia blancos... escenas en las que sé que potencialmente quiero mucho posprocesamiento extremo.

Esto minimiza el tiempo de uso de la computadora, enfocándola hacia donde funcionará mejor, ¡y liberando tiempo para sostener una cámara en su lugar! Esto es importante ya sea que la fotografía sea tu carrera o tu pasatiempo.

Cada cámara (y marca) tiene su "mejor" configuración JPEG en la cámara que necesita saber (esa es la razón por la que existen esos "modos de escena", ¡así que utilícelos!). Mi experiencia es que con las cámaras de la generación anterior, estaban configuradas para "disparar a la derecha" y, a menudo, soplaban los reflejos de JPG para evitar la subexposición de las sombras. El software moderno ahora es tan bueno para controlar esto, que mis cámaras más antiguas ahora se disparan con una configuración de exposición de -1/3 a -2/3 EV cuando están en modo de exposición automática. Esto permite disparos más rápidos con cámaras más antiguas (sus cachés solían llenarse después de unos pocos disparos), mientras que puedo aumentar fácilmente la exposición de la sombra en una parada o más sin pérdida de calidad de imagen en la publicación.

Mi experiencia es que la configuración de Olympus y Fuji JPEG es muy buena SOOC; mientras que mi Panasonic y Nikon necesitan más controles individuales. Las cámaras con especificaciones de aficionados de Canon ofrecen excelentes archivos JPEG SOOC, pero las de especificaciones profesionales, como las NIKON, necesitan una aportación más personal.

En una situación de cambios rápidos, solía decirse que RAW permitía rescatar más imágenes si se tomaban con una exposición o ajustes de balance de color subóptimos. Pero me he dado cuenta de que cada cámara de nueva generación ofrece mejores y mejores resultados de su modo de programa de selección automática de escena; por lo tanto, esta es una buena configuración para dejar la cámara cuando de repente se requieran "instantáneas" (por ejemplo, la configuración IAS en las cámaras Lumix actuales).

Si finalmente muestra su foto como JPEG, como lo haré yo, la comparación es entre la conversión RAW->JPEG que hará su cámara y la conversión RAW->JPEG que hará en la publicación. La conversión a JPEG de 8 bits ocurrirá de una forma u otra. Hago muchas fotos de aves, que a menudo están mal iluminadas. Obtengo mejores detalles de las sombras procesando un archivo RAW en Lightroom que procesando una cámara JPEG. Si la conversión de la cámara fuera tan inteligente como yo, disparar en RAW no tendría ninguna ventaja. Ese día puede llegar, pero vi una gran mejora cuando obtuve una cámara de observación de aves que dispararía en RAW: la Nikon P950 en comparación con la P900. Misma lente, mismo sensor, pero captura RAW disponible. Cuando tengo tiempo uso(d) compensación de exposición en ambas cámaras,