¿Por qué mi cámara es tan indulgente con la exposición exagerada cuando disparo en RAW?

Descubrí que mi cámara (Sony A99) es muy indulgente en términos de sobreexposición al disparar en RAW. Con eso quiero decir, puedo sobreexponer una parada más o menos y cuando llego a casa para el posprocesamiento puedo subexponerlo de nuevo y recuperar todos los detalles.

Por supuesto, esto no funcionaría en jpeg. No hay datos más allá del área más a la derecha del histograma. Pero no ocurre lo mismo con RAW, los datos vuelven mágicamente al histograma. ¿Por qué? ¿La cámara me reserva un área del histograma en caso de que me equivoque? Si es así, ¿no significa esto que se pierde algo de latitud si tuviera que disparar correctamente (perfectamente expuesto)?

Además, ¿por qué esto solo está disponible para sobreexposición? ¿Pero no subexposición? No creo que pueda sacar detalles de las áreas negras aplastadas.

Respuestas (4)

Este es uno de los beneficios que obtienes al disparar en bruto.

No puede recuperar detalles de luces o sombras de un archivo JPEG porque tiene 8 bits de profundidad de color por componente de color, 1 y está asignado de modo que el valor de píxel más bajo se interprete como "negro" y el más alto como "blanco". Simplemente no hay nada debajo del negro o encima del blanco. Los creadores de JPEG hicieron esto porque 8 bpc son adecuados para que los humanos perciban una imagen a todo color con la exposición adecuada. 2 El ojo humano tiene un rango dinámico mayor que el que permite JPEG, pero no puede ver ese rango completo todo el tiempo. 3

La mayoría de las cámaras con capacidad RAW son capaces de capturar al menos 10 bpc. 12 bpc+ es muy común, y 14 bpc+ es posible con los mejores sensores. El truco es, ¿cómo hacer uso de este rango dinámico adicional? Hay varios espacios de diseño en los que encontrar una solución:

  • Captura y visualización de rango completo

    El medidor de exposición de la cámara podría tratar de capturar tanto rango dinámico como sea físicamente posible, y podría intentar mostrarlo todo en la pequeña pantalla en la parte posterior de la cámara. Su software de procesamiento sin procesar también podría intentar mostrarle todo el rango dinámico en el archivo de imagen en la pantalla. Al guardar un archivo JPEG, la cámara podría mapear este rango dinámico completo de manera obvia, descartando efectivamente los bits menos significativos del sensor.

    Nadie hace esto. 4

    Si toma una fotografía de un arbusto a contraluz al atardecer, la cámara podría intentar capturar las hormigas negras en la sombra gris oscura bajo el denso follaje verde oscuro mientras captura al mismo tiempo los detalles de las manchas solares en el disco solar.

    Las cámaras no hacen esto porque la imagen resultante se vería como barro rayado. Los ojos humanos no tienen el rango dinámico para ver las hormigas y las manchas solares al mismo tiempo, por lo que los cerebros humanos no esperan ver esas cosas. 5 Tampoco tenemos tecnología de visualización lo suficientemente buena para reproducir una imagen físicamente correcta. 6

  • Rebanada desde el medio

    En cambio, la cámara podría simplemente poner su noción de exposición "correcta" justo en el medio del rango y extraer el JPEG de 8 bits y la vista previa de la pantalla del medio del rango. Si su cámara tiene un sensor de 12 bits, podría brindarle un rango de ajuste de exposición de ±2 paradas, ya que cada 1 bpc se traduce en 1 parada, en términos fotográficos.

    No creo que esta sea una forma completamente mala de hacerlo, pero no daría las imágenes más agradables. Las compañías de cámaras que hicieran esto no estarían vendiendo muchas cámaras.

  • Punto negro y curva gamma

    Un plan mucho mejor es elegir un nivel de brillo en la imagen para llamar negro 7 y luego elegir una curva gamma para reasignar los datos del sensor sin procesar en ese rango de 8 bpc.

    Con este método, la cámara y el software de procesamiento sin procesar pueden optar por dejar algunos de los datos sin procesar fuera del rango mapeado, de modo que el archivo de imagen sin procesar codifique más negro que el negro y más brillante que el blanco. Esta es la región de la que está extrayendo cuando su software de procesamiento sin procesar recupera detalles de luces o sombras.

No existe una autoridad universal que ordene qué método usar, e incluso si lo hubiera, hay mucha variación en la tecnología existente y todavía hay mucho más espacio para más variaciones. Por ejemplo, los DNG con pérdida usan un espacio de color de 8 bpc, pero la forma no lineal en que los datos de la imagen de entrada se asignan a los valores de salida, todavía tiene un poco de rango dinámico para trabajar fuera del rango de visualización normalmente visible.


Notas al pie:

  1. 8 bpc también se denomina "24 bits" por aquellos que prefieren considerar los tres canales necesarios para obtener imágenes en color juntos.

  2. En cualquier momento, el ojo humano tiene menos rango dinámico que el que obtienes con 8 bpc. La única razón por la que usamos tantos bits por canal es que a las computadoras les gusta manejar datos en fragmentos de 8 bits, al igual que las pantallas digitales. Cualquier valor que pueda tener una variante de JPEG de 7 bpc o 9 bpc es eliminado por décadas de inercia histórica que nos empuja a quedarnos con 8.

  3. Si sus ojos pudieran usar su rango dinámico completo todo el tiempo, no tendría que entrecerrar los ojos por un rato cuando camina afuera de una casa con poca luz al mediodía, o cuando enciende la luz de la mesita de noche cuando se despierta en la oscuridad.

  4. No tengo ninguna duda de que esto se ha intentado varias veces en laboratorios de investigación. Incluso no me sorprendería saber que se ha puesto a disposición del público un software que hace esto. Si quisiera ser exactamente correcto, tendría que reescribir esa oración a algo menos contundente como: "Nadie ha tenido éxito comercial en la producción de software o hardware que presente imágenes usando este método".

  5. Esta es parte de la razón por la que es difícil hacer un buen HDR .

  6. Y si tuviéramos tal tecnología, no serías capaz de mirar el sol en la imagen reproducida, más de lo que podrías mientras tomas la fotografía.

  7. O blanco, si lo prefieres. Realmente no importa. Puedes trabajar las matemáticas de cualquier manera.

Aún mejor, la Sony A99 tiene un sensor Exmor, que esencialmente no tiene ISO. Es decir, estirar o empujar una exposición unas pocas paradas en la publicación tiene esencialmente el mismo efecto sobre el ruido que cambiar el ISO en la cámara por la misma cantidad de paradas.
¡La respuesta actualizada es excepcional!
Fascinante. Si fotografío RAW y luego importo a Lightroom, ¿estoy utilizando automáticamente todos los datos sin procesar cuando realizo mis ajustes con los diversos controles deslizantes, o necesito involucrarme más con las opciones avanzadas?
Ocasionalmente, un fabricante de cámaras inventará alguna nueva y extraña variante sin procesar que tenga "características" que no correspondan a las características del software de procesamiento sin procesar de terceros, lo que lo obligará a usar el software propietario para usar la nueva característica. Adobe ha agregado funciones a Lightroom y ACR para acomodar tales fallas algunas veces, que yo sepa, y probablemente haya hecho muchas más que no he notado. Como regla general, no debe sentirse excluido de nada realmente importante con Lightroom.
@AndrewHeath Sí. Cuando fotografío sin flash en interiores con mi Canon, a menudo obtengo ventanas blancas en la imagen predeterminada inicial y en la versión jpeg de la cámara, pero luego deslizo hacia abajo los "puntos destacados" y de repente veo todos los verdes en el jardín exterior y el cielo azul.
Esto es esclarecedor, pero habla de elegir una curva gamma. ¿La curva gamma no está predefinida en la especificación JPEG, por lo que una vez que elige un punto negro, no hay más opciones que se puedan hacer? Idealmente, gamma sería un campo en los metadatos, por lo que puede elegir cuánto rango dinámico puede tener su JPEG, a riesgo de posterización; podrá hacer esta compensación. Pero no creo que JPEG (o PNG o TIFF) sean tan flexibles. Especifican una única curva gamma. Por favor corrígeme si estoy equivocado.
No es para elegir liendres en una gran respuesta, pero creo que es engañoso decir que el ojo tiene menos de 8 bits de rango dinámico en un punto dado. Cierto, pero el cerebro reúne la información de los movimientos sacádicos, por lo que el rango dinámico percibido es mayor y el JPEG se queda corto.
8 bpp no ​​siempre son suficientes para el ojo humano: computergraphics.stackexchange.com/questions/3964/…

El histograma que muestra su cámara se basa en la vista previa jpeg en la cámara generada cuando guarda un archivo RAW. En la vista previa, los datos se han ido y son irrecuperables. Sin embargo, la información todavía está allí en el archivo RAW.

La mayoría de las cámaras usan alrededor de 12 a 14 bits por canal de color, pero el estándar JPEG solo permite 8 bits por canal. Cuando muestra su archivo RAW en su computadora, la pantalla también está limitada a 8 bits por canal de color. Lo mismo sucede en su computadora que sucede en la pantalla de vista previa de la cámara y en el histograma. Al cambiar la exposición en el procesamiento posterior, cambia qué ocho de los 12-14 bits por canal de color se muestran realmente en el monitor. Al ajustar las curvas de tono, incluso puede exprimir más de ese rango dinámico en solo 8 bits.

El rango dinámico es la diferencia entre la parte más oscura y la más brillante de una imagen. Los archivos JPEG tienen que representar cada color con 8 bits de información donde, como raw, puede usar más bits (por lo tanto, más valores posibles).

Hay dos opciones sobre cómo la cámara puede resolver la diferencia en la profundidad de bits. Puede representar una variación más pequeña para cada valor (pasos más pequeños) o puede representar un rango dinámico más amplio. También podría hacer alguna combinación intermedia.

Para las cámaras que tienen un amplio rango dinámico para el sensor, el jpeg normalmente se enfocará solo en una parte del rango dinámico para brindar gradientes suaves con un número limitado de valores posibles. Sin embargo, el archivo sin procesar cubrirá el rango dinámico completo del sensor y, por lo tanto, podrá almacenar información que de otro modo estaría fuera del rango del JPEG (porque excede el valor máximo de 8 bits).

Ese margen adicional en el archivo RAW le permite cambiar los puntos hacia abajo en el rango que se puede expresar mediante un JPEG que produce manualmente más tarde a través de una utilidad RAW.

¿Línea de fondo? Está preguntando sobre el uso de la asignación completa de rango dinámico de su cámara, que, de hecho, excede lo sugerido por el ancho del cuadro de histograma ajustado por JPEG de su A99.

Aquí hay un tutorial publicado en UglyHedgehog que aborda ese problema preciso.

http://www.erizofeo.com/t-372364-1.html