¿Cómo previene RAW el "recorte digital feo"?

En otra respuesta, el usuario Ilmari escribe , en el contexto de la prevención de la sobreexposición:

En general, también recomendaría disparar siempre en RAW, tanto para capturar mejor el rango dinámico completo de su cámara como para evitar el feo recorte digital de las áreas sobreexpuestas. Para esto último, es útil subexponer un poco las tomas (por ejemplo,...) y luego aumentar la exposición en la computadora...

¿Cómo previene RAW el recorte de áreas sobreexpuestas?

Disparar en RAW no garantiza la eliminación del recorte de luces. Sin embargo, los archivos RAW contienen la información completa capturada por el sensor de imagen, que generalmente incluye detalles destacados más allá de lo que se capturaría en una imagen JPEG. Tenga en cuenta que los archivos RAW suelen tener 12 o 14 bits de datos tonales por píxel, mientras que JPEG está limitado a 8 bits, por lo que hay muchos más datos con los que trabajar en un archivo RAW. Lo sé de primera mano y me he recuperado de los reflejos recortados en JPEG innumerables veces cuando abro el archivo RAW en RawTherapee. Ver también: photo.stackexchange.com/a/13448
(continuación) Diablos, las ventajas de RAW, incluida la capacidad de realizar una reducción de ruido más efectiva y otro procesamiento posterior en una PC después del evento, son lo suficientemente importantes como para capturar deportes en RAW+JPEG, a pesar de que reduce drásticamente el búfer. ¡profundidad! (Mi empleador a menudo quiere una imagen JPEG de uso inmediato para su sitio web justo después de un juego, y entrego el resto de las imágenes unos días hábiles después).

Respuestas (3)

En general, también recomendaría disparar siempre en RAW, tanto para capturar mejor el rango dinámico completo de su cámara como para evitar el feo recorte digital de las áreas sobreexpuestas. Para este último, es útil subexponer un poco sus tomas [...] y luego aumentar la exposición en su computadora.

OK, sí, estaba siendo un poco breve cuando escribí eso . Déjame tratar de descomprimirlo un poco.

Obviamente, simplemente cambiar de JPEG a RAW no hará nada para arreglar el recorte por sí solo. Lo que estaba tratando de sugerir, cuando escribí el párrafo anterior, es:

  1. Subexponer deliberadamente sus fotos lo suficiente como para que los aspectos más destacados no se recorten.

  2. Disparar en RAW, que tiene un rango dinámico más alto que JPEG, para conservar los detalles de las sombras para el siguiente paso.

  3. Corrija la subexposición en el posprocesamiento, utilizando un algoritmo que simula reflejos suaves "como una película" en lugar de un recorte digital duro. (Creo que cualquier procesador RAW decente debería tener esta función incorporada; sé que UFRaw la tiene, y eso es software gratuito).

¿Por qué tomarse tantas molestias, en lugar de simplemente disparar JPEG directamente con la exposición predeterminada? Bueno, básicamente (además de todas las otras razones para disparar RAW ), para que puedas obtener esto:

Foto de ejemplo A con reflejos suaves Foto de ejemplo B con reflejos suaves

en lugar de esto:

Foto de ejemplo A con reflejos duros Foto de ejemplo B con reflejos suaves
(Haga clic en las imágenes para ampliar.)

Por supuesto, hice un poco de trampa al hacer estos dos pares de imágenes de ejemplo a partir de los mismos archivos RAW; la única diferencia es que usé el modo "destacados suaves como una película" para el primer par y el modo "recorte digital duro" para el segundo par, simulando lo que habría obtenido si los hubiera fotografiado directamente en JPEG con una exposición más larga.

Tenga en cuenta en particular el cielo cian característico en la parte superior derecha de la versión recortada de la primera imagen, la planitud antinatural de los reflejos recortados y las distorsiones de color generales a su alrededor. (Las imágenes con elementos de fondo blanco brillante, como nieve o nubes, tienden a mostrar este efecto de manera particularmente prominente, pero no encontré ningún buen ejemplo en esta computadora portátil. Puede que intente buscar mejores ilustraciones más adelante).

La razón de esta uniformidad y distorsión del color es que, a diferencia de la curva de respuesta de luz de saturación suave de la película, los sensores de imagen digital tienen una respuesta (aproximadamente) lineal hasta su punto de saturación, y luego un corte agudo:

Curvas de respuesta del sensor digital frente a la película
(En realidad, la curva de respuesta de la película dibujada arriba es algo engañosa, ya que convertir la película negativa en una imagen positiva real introduce otra capa de no linealidad en el extremo inferior de la curva de respuesta, lo que generalmente resulta en una curva de respuesta combinada algo sigmoidea . Pero en al menos en el extremo más destacado del rango dinámico, las curvas anteriores se asemejan a las respuestas de luz reales de las cámaras digitales y de película en general).

En particular, en fotografía a color, cada canal de color (rojo, verde y azul) tiene su propia curva de respuesta. Con un sensor digital, esto significa que, a medida que aumenta el brillo de la luz entrante, uno de los canales R/G/B normalmente se recortará antes que los demás, distorsionando el color de dichos píxeles parcialmente recortados.

Además, la planitud de la curva de respuesta digital por encima del punto de saturación significa que, mientras que la sobreexposición de la película solo comprime las luces, las luces recortadas en una foto digital (ya sea RAW o JPEG) desaparecen y no se puede recuperar ningún detalle. Por lo tanto, la regla general para la fotografía digital es que, si no está seguro de cuál será la exposición óptima (o si sabe que la escena que está fotografiando incluye puntos destacados que no desea recortar), siempre es más seguro errar en el lado bajo. Claro, aumentar el brillo de una foto subexpuesta en el posprocesamiento también amplificará el ruido en la imagen, pero subexponer un poco y perder algunos detalles de las sombras por el ruido suele ser mejor que sobreexponer y perder las luces por completo.

Por supuesto, ninguno de los anteriores requiere que dispare en RAW; puede aumentar el brillo de las imágenes JPEG, por ejemplo, en Photoshop con la misma facilidad. Pero en comparación con RAW, el formato JPEG tiene dos problemas aquí:

  • JPEG solo usa color de 8 bits; es decir, la diferencia más pequeña entre dos niveles de brillo que puede almacenar es aproximadamente 1/256 de la diferencia entre el negro puro y el blanco puro. JPEG en realidad usa una codificación de color no lineal, lo que ayuda un poco, pero el rango dinámico efectivo de una imagen JPEG sigue siendo de solo 11 paradas (a diferencia de las 8 paradas que se obtendrían con una codificación lineal). Esto es suficiente para mostrar imágenes en la pantalla, pero aún es menor que el rango dinámico efectivo incluso de los sensores de cámara de gama baja, y no deja mucho espacio para ajustar la exposición para recuperar los detalles de las sombras.

  • Además, JPEG utiliza un esquema de compresión con pérdida diseñado para reducir el tamaño del archivo de imagen descartando detalles que el ojo humano no puede ver fácilmente. Por desgracia, esta compresión también tiende a descartar los detalles de las sombras de manera bastante agresiva: aumente demasiado el brillo de una imagen JPEG y es probable que termine con una imagen llena de distorsiones de color y artefactos de compresión en bloque.

Un archivo RAW, en comparación, conserva el rango dinámico completo del sensor de su cámara sin compresión con pérdida, lo que le permite procesar la imagen en la mayor medida posible (en este caso, limitado principalmente por el ruido de fondo del sensor).

Guau. Salud. ;-)

En resumen, un archivo RAW almacena cada píxel usando más bits que el JPEG correspondiente.

Para comprender cómo ayuda esto, considere un solo píxel (ignoraremos el color, se aplica la misma lógica pero lo complica todo). Si tiene 8 bits disponibles para registrar la amplitud (cantidad de luz que llega a ese píxel), tiene 256 niveles, incluido "ninguna luz" (0).

Debe establecer un nivel máximo, que corresponde al valor 255. El rango entre 0 y este máximo es el rango dinámico que se puede representar en la imagen. Cualquier píxel que reciba más luz que este nivel se satura y se registra el valor máximo de 255. Esto provoca el efecto de recorte, donde las áreas sobreexpuestas se ven completamente blancas.

Si tiene bits adicionales, puede representar más niveles. Con el mismo rango dinámico, obtendrá pasos más finos entre ellos, o puede ampliar el rango y permitir que los píxeles con mayor (o menor) exposición se representen en algún lugar del rango.

Un archivo RAW contiene más bits por píxel que el JPEG correspondiente (por ejemplo, 14 para Canon 5D, en comparación con 8 para JPEG). Esto le permite capturar más niveles de exposición. Los píxeles que estarían saturados en una representación de 8 bits pueden no saturar una representación de 14 bits. Esto convierte las áreas sobreexpuestas completamente blancas en tonos de gris y permite capturar algunos detalles.

Por supuesto, todavía es posible saturar una representación de mayor profundidad de bits, pero cuantos más bits tenga, más información tendrá para trabajar.

Raw es excelente por algunas otras razones, pero, por supuesto, Raw NO PUEDE evitar el recorte de áreas sobreexpuestas. Una vez que los datos digitales exceden 255, se recortan, lo que significa que permanece en 255 y ya no representa el color verdadero. Digital simplemente no tiene forma de retener números más grandes, la mayor capacidad se escala a 255. No hay forma de recuperar los datos recortados, aparte de otro intento con menos exposición.

El ejemplo que muestras es un color blanco de luz. El blanco es especial, tiene tres componentes RGB casi iguales. Pero imagina que el color (sobreexpuesto) fuera como Rojo 500, Verde 250, Azul 250, que es un color rojo. Pero cuando se recorta a 255, sale 255, 250, 250, un color completamente diferente, casi blanco ahora. Retroceder en el procesamiento posterior a aproximadamente la mitad sigue siendo 128, 125, 125, todavía NO es rojo.

Su ejemplo vinculado posiblemente NO era blanco en primer lugar, pero salió sobreexpuesto y recortado en 255, 255, 255, que es blanco. No hay recuperación para el recorte.

Esto depende de cómo la cámara haya asignado la imagen sin procesar a la imagen de 8 bits. Muchas cámaras tendrán opciones HDR de una sola imagen donde puede modificar este mapeo, la configuración estándar tendrá menos rango dinámico que otras configuraciones. Por lo tanto, normalmente una imagen de 8 bits con partes recortadas no tendrá las mismas áreas recortadas en la imagen sin formato. Siempre mapear el tono de todo el rango dinámico grabado tiene un costo; simplemente dejando que las áreas pequeñas estén sobreexpuestas, tiene un rango de hasta 255 disponible para el resto de la imagen, lo que puede conducir a un mejor resultado general.
HDR? HDR es una operación especial que combina varias exposiciones entre paréntesis, incluida una de menor exposición. HDR no se parece en nada a las exposiciones normales de la cámara. Tengo una Nikon D800 y HDR ni siquiera está disponible en modo RAW. Mi afirmación anterior es correcta, el recorte es causado por una sobreexposición superior a 255, que no depende de la cámara.
¿Esperar lo? Los RAW típicos tienen 14 bits de información de luminancia por píxel. Hay innumerables tonos de casi blanco que se pueden recuperar de un RAW incluso si, de forma predeterminada, todos se asignan a 255,255,255 en un JPEG.
14 bits son 16384 valores posibles. La conversión es de 2048 valores posibles por paso único de 0..255. Lo que significa que había 2048 valores posibles entre 255 y 256, que se llamarán 255. Pero eso es poca ayuda, una ayuda insignificante para el recorte, que seguramente perdería 257 y 260 y 270 también, ¿y tal vez 300? Pero todo eso puede desaparecer, porque el recorte es recorte. Evitar la sobreexposición es muy importante para digital.
El recuento de bits n no importa en absoluto para el recorte de blancos. Si la entrada al ADC que realiza la lectura de un píxel llega a la saturación, obtendrá la lectura máxima de (2^n)-1. Más bits no ayudarán.
Los valores en la respuesta solo deben verse como ejemplares. La reformulación podría ayudar a aclarar esto, tal vez mediante el uso de valores relativos (90% / 150% Rango ADC). El principio explicado en la respuesta es correcto.
Depende de cómo la cámara mapee los datos sin procesar de 14 bits y cómo mapee el jpeg de 8 bits que produce a partir de esos datos. La mayoría de los jpegs producidos en la cámara NO asignan solo 16384 como 255 en el JPEG (o solo "0" en el archivo sin procesar de 14 bits como "0" en el jpeg de 8 bits. Si comprimieran todo el rango dinámico de 14 bits de el sensor en 8 bits, la salida se vería plana y aburrida sin contraste y también demostraría demasiadas bandas. En cambio, los algoritmos de demostración analizan los datos sin procesar y deciden dónde establecer el punto negro (generalmente en algún lugar muy por encima de 0) y el punto blanco (generalmente en algún lugar muy por debajo de 16384).
Si su respuesta fuera una respuesta a "TIFF de 16 bits frente a JPEG", sería correcta, ya que con un TIFF los puntos en blanco y negro ya están incorporados y los datos sin procesar se traducen a 16 bits en función de los puntos en blanco y negro seleccionados. en la conversión. Pero un verdadero archivo sin procesar incluye los datos de los píxeles enmascarados y no tiene los puntos en blanco y negro incorporados. Ese es el mayor problema que tengo al convertir archivos Canon .cr2 a .dng: los píxeles enmascarados se descartan y el blanco y negro los puntos están integrados. Un DNG se parece más a un TIFF que a un verdadero archivo sin procesar.
Consulte photo.stackexchange.com/q/55825/15871 para ver cómo se pueden recuperar del archivo sin procesar las luces quemadas en el jpeg de la cámara.
Puede recuperar detalles muy brillantes, pero no puede recuperar valores recortados. Es por eso que el rango dinámico es tan importante. Además, está mezclando el rango dinámico con la profundidad de bits del ADC. Esos no son lo mismo en absoluto, consulte: peachpit.com/articles/article.aspx?p=1709190&seqNum=2
Para aclarar, estoy de acuerdo con @Michael Clark en el hecho de que la limitación de profundidad de bits de un JPEG de 8 bits conduce a la pérdida de información y al recorte en comparación con la imagen RAW original con mayor profundidad de bits. El rango dinámico, por otro lado, describe un factor limitante en el proceso desde el sensor analógico hasta una lectura digital, donde la profundidad de bits juega solo un papel menor en relación con el recorte. La respuesta sería correcta si se refiere al recorte debido a las limitaciones del rango dinámico, o necesita considerar el mapeo que mencionó Michael.
Así es como se ve una imagen cuando se representa de la manera que describe en su respuesta: la primera se representa linealmente, la segunda tiene corrección de gamma aplicada y 0-2047 en el archivo de 14 bits se asignan como 0 en el archivo de 8 bits y 14383 -16383 en el archivo de 14 bits se asignan como 255 en el archivo de 8 bits. La última imagen tiene el punto negro (0 en el archivo de 8 bits) establecido en el valor aproximado de las partes más oscuras de la escena que están muy por encima de 2047, y el punto blanco (255 en el archivo de 8 bits) establecido en el partes más brillantes de la escena que están muy por debajo de 14383. photo.stackexchange.com/a/39478/15871