¿Qué es el "recorte" blanco o negro y cómo se evita?

¿Me han dicho que esta fotografía tiene " recortes blancos "?
¿Qué son y qué fuentes de luz deben colocarse y de qué manera para evitarlo?

Me han dicho que la imagen de muestra tiene reflejos recortados

Muy buena foto.
Por cierto, esa foto es un ejemplo de por qué, si alguna vez visitas un plató de cine, verás que los actores y extras que visten ropa "blanca" generalmente usan algo que se ve un poco sucio, blanco puro, especialmente si incluye "abrillantadores ópticos", casi se garantiza que se apague si todo lo demás está expuesto correctamente.
Esa es una buena foto. Si no puede ver el recorte que otros señalan, parece que hay un recorte blanco en el cuello de la camisa y tal vez en su arete, y un recorte negro en su cabello en la esquina superior izquierda.
Un término más común para el recorte blanco es "destello quemado". No me preocuparía demasiado, en mi opinión, se recoge de manera desproporcionada en las críticas fotográficas y, en muchos casos, puede mejorar una imagen. Ver foto.stackexchange.com/questions/13411/…
Ni siquiera diría que esta imagen está arruinada: apenas puedo distinguir las líneas en su cuello, incluso en las áreas más brillantes.

Respuestas (6)

Clipping es un término que básicamente se refiere a la pérdida de datos en una imagen capturada. Otra descripción común de este fenómeno se refiere a una parte de una imagen como "desaparecida". La luz que entra en tu cámara golpea los píxeles del sensor de tu cámara y se convierte en una pequeña cantidad de carga eléctrica. Cada elemento solo puede contener tanta carga que cuando está lleno, el resaltado está completamente saturado y cuando un área completa de píxeles está saturada, cualquier detalle en esa área se pierde, lo que se conoce como recortado o soplado. Del mismo modo, tiene que haber una cantidad suficiente de luz que incida en el píxel para generar una carga medible y, si no hay suficiente en un área del sensor, solo se captura un negro sólido y cualquier detalle en esa área se pierde de manera similar. Ninguna cantidad de procesamiento posterior puede recuperar los detalles en estas áreas porque no se ha capturado ningún detalle.

Con una cámara de película sucede lo mismo, excepto que en lugar de que la luz se convierta en una carga eléctrica en un sensor, hace que las moléculas fotosensibles de la película reaccionen. Cuando todos han reaccionado en un área del negativo, no se puede capturar ningún detalle en esa área.

En composiciones donde hay áreas muy brillantes y muy oscuras, como en su ejemplo, es muy difícil capturar detalles en toda la imagen. Técnicas como HDR se desarrollaron exactamente para este escenario en el que se combinan varias imágenes con diferentes exposiciones para aumentar el rango dinámico. Es imposible capturar detalles en toda la imagen con una sola toma sin emplear alguna iluminación externa para iluminar las áreas más oscuras para que pueda reducir la exposición y traer las áreas más claras. Los fotógrafos profesionales tienden a hacer un buen uso de los reflectores para hacer esto solo para levantar las sombras lo suficiente como para obtener algo de profundidad.

La intensidad, o el brillo, de los objetos en el mundo real funcionan de manera muy diferente que en una fotografía. En realidad, el brillo de un objeto, para todos los efectos, es infinito. Una bombilla potente puede parecer particularmente brillante, pero en comparación con el sol, es bastante tenue. El rango general de posibles niveles de intensidad de la luz es inmenso en el mundo real, desde la tenue luz de las estrellas (digamos 0.0001 en una escala hipotética) hasta la luz del sol (100,000,000 en la misma escala hipotética). Este rango de intensidad es lo que llamamos rango dinámico.

El ojo humano es capaz de percibir un rango dinámico limitado, y no puede ver la oscuridad de la luz de las estrellas y el brillo de la luz del sol al mismo tiempo... puedes ver uno u otro. Si sus ojos están ajustados para ver la luz de las estrellas, el sol y cualquier cosa iluminada por él se "recortarán" en lo que respecta a su visión y percepción. Por el contrario, si tus ojos están ajustados para ver el mundo iluminado por la luz del sol, la penumbra de la luz de las estrellas estaría muy por debajo de las partes más oscuras del mundo que te rodea... efectivamente recortada en la sombra. Sin embargo, lo sorprendente del ojo es su capacidad de adaptación... el rango dinámico total que el ojo es capaz de funcionar es extremadamente grande... más pequeño que el rango total de intensidades posibles, pero mucho más grande que los dispositivos electrónicos comunes como cámaras y monitores de computadora.

Del mismo modo, los sensores de las cámaras y las pantallas de las computadoras tienen un rango dinámico aún más limitado que el del ojo humano. Sin embargo, a diferencia del ojo, es el hecho de que los dispositivos digitales deben representar el rango dinámico como valores discretos capaces de representarse digitalmente. Los dispositivos digitales también están limitados en el rango total que pueden representar... con el negro total generalmente representado internamente por el número cero, y el blanco total representado por un máximo finito como 255 (8 bits), 4096 (12 bits), 16384 ( 14 bits), o posiblemente tan alto como 65536 (16 bits) en las cámaras y monitores más recientes y de primera línea.

Este rango es considerablemente más limitado que el posible rango de intensidad de la luz en el mundo real, por un factor de más de 1500 veces. Al exponer una fotografía, hay que tener en cuenta el rango dinámico limitado. Si expone demasiado tiempo, corre el riesgo de capturar más luz de la que es posible representar en 8-16 bits de información... momento en el que recorta cualquier exceso de valor analógico al máximo valor digital posible. En la fotografía que ha publicado, parece que el cuello de la blusa de la mujer ha sido sobreexpuesto, lo que provocó que se recortara. Su cabello también parece estar un poco subexpuesto, y aunque no es posible exponer menos de 0, es posible exponer muy poco, de modo que el ruido electrónico del sensor supera cualquier dato de imagen útil.

Es posible determinar antes de capturar una foto con una cámara digital si está recortando los blancos (o los reflejos, como se les suele llamar), utilizando el histograma. El histograma es un diagrama simple que traza cuántos de cada tono (un nivel de intensidad, que va de cero al máximo) están presentes en la fotografía. El histograma normalmente avanza de izquierda a derecha (sin embargo, algunas cámaras son opuestas), con los tonos más oscuros a la izquierda, los tonos medios en el centro y los resaltados a la derecha. Si está sobreexponiendo, los tonos más a la derecha se maximizarán... alcanzando el borde superior del histograma. Cuando vea un histograma de este tipo, ajuste la exposición hacia abajo hasta que los reflejos sean planos o comiencen a elevarse cerca del borde derecho. Cabe señalar que si expone para los aspectos más destacados, es posible que pierda la exposición adecuada en otros lugares.

Tan pronto como leí la pregunta, supe que habría habido una respuesta de @jrista. +1 de mi parte :)
TLDR :P......;)
Mi Pentax me muestra las partes blancas sobreexpuestas después de tomar una foto, como advertencia.

Aquí hay un histograma (Colores | Información | Histograma en GIMP) de esa foto:

histograma de la foto original

Ese pico en el extremo derecho implica recorte: en este caso, había muchos píxeles que eran demasiado brillantes para la configuración de exposición y a todos se les dio el mismo valor (blanco puro). Por lo general, desea evitar un pico en cualquiera de los bordes, ya que a menudo indica que la exposición no está configurada correctamente para la escena.

Una forma de evitar esto es verificar la visualización del histograma en su cámara después de tomar cada imagen: si ve un pico en un extremo del histograma, está perdiendo información y debe ajustar su exposición (nota: hay una pieza común de consejos para "exponer a la derecha", que es en realidad lo que hizo aquí) para compensar. (Si ve un pico en ambos extremos (y su imagen tiene un pequeño pico en el extremo oscuro), está perdiendo tanto los tonos claros como los oscuros; una solución es usar técnicas HDR).

¿Qué es el rango dinámico y cómo es importante en la fotografía? explica un poco más el concepto.

No estoy de acuerdo en que con el recorte, "se comprime mucha información en un rango muy pequeño". El recorte implica información perdida, no comprimida. De lo contrario, respuesta útil.

El recorte de blanco se produce cuando un píxel (o un área de píxeles) que no estaba destinado a ser 100 % blanco se ha expuesto demasiado brillante y se ha recortado al 100 % de blanco (255, 255, 255). El cuello de la camisa se consideraría demasiado recortado para su comodidad. Dicho esto, si mirara el archivo sin procesar de esa foto (¿la tomó sin procesar?), supongo que la mayor parte de la información todavía está allí y todo lo que necesitaría es un pequeño ajuste de exposición para trae el detalle de vuelta.

Ahora, el problema real es cuando recortas el archivo sin formato 100% blanco. Esto no se puede corregir y por lo general se ve bastante desagradable.

No corté nada allí. ¿Qué quisiste decir con and have clipped at 100% white (255, 255, 255)?

Un poco de google probablemente respondería a su pregunta.

Aquí hay un enlace a un artículo de Wikipedia sobre recorte.

De ese artículo:

Las áreas brillantes debido a la sobreexposición a veces se denominan reflejos apagados o reflejos ensanchados. En casos extremos, puede parecer que el área recortada tiene un borde notable entre el área recortada y la no recortada. El área recortada normalmente será completamente blanca, aunque en el caso de que solo se haya recortado un canal de color, puede representarse como un área de color distorsionado, como un área del cielo que es más verde o amarilla de lo que debería ser.

El recorte es otro término para la saturación.

ACTUALIZACIÓN : no me refiero aquí al operador o variable de saturación de color (como en Photoshop o HSV), sino al término matemático/técnico. Perdón por la confusion.

El recorte no es otro término para la saturación. Recorte es un término para la pérdida de datos. Verá recortes cuando las luces altas sean demasiado brillantes para representarlas en una imagen o cuando las sombras sean demasiado oscuras.
@Steve Ross: esto es exactamente lo que es la saturación: satura el valor de sus píxeles para que obtengan sus valores extremos, en este contexto es 0 y 255 (jpeg). Si está familiarizado con Matlab/Simulink, sabe que el bloque que simula este comportamiento se llama saturación.
Sin embargo, tiene razón en que este no es el operador o la variable Saturación de color. Debería haberlo señalado en la respuesta, pero debido a la hora tardía probablemente no vi esa trampa.
Entendido, sin embargo, la definición matemática de saturación es abstracta y no se traduce fácilmente a la comprensión del recorte per se. En particular, cuando dice "saturación", la gente piensa en comprimir las áreas de sombra para agregar intensidad de color. Rara vez piensan en la alteración de las áreas destacadas, que es donde ocurre el problema citado por el OP. Sí, la saturación de píxeles en el sentido matemático provoca la pérdida de detalles, sin embargo, el OP solicitó una solución de iluminación. Tal solución (si existe) aplanaría la imagen original eliminando/reduciendo el recorte.
Continuando... lamento ser abrupto en mi respuesta anterior. Este artículo es relativamente bueno en la definición matemática de saturación: en.wikipedia.org/wiki/Saturation_arithmetic y habla de la "represión" de los valores, es decir, el recorte.
@Steve Ross: puedo ser yo, pero cuando leo "Si el resultado de una operación es mayor que el máximo, se establece ("sujeta") al máximo, mientras que si está por debajo del mínimo, se sujeta al mínimo "Tengo entendido que es exactamente lo que sucede cuando se recortan los tonos ...
Acordado. No eres solo tú; estás bien. Esa es la definición matemática precisa. Sin embargo, la mayoría de las personas que experimentan recortes en la fotografía lo hacen porque perdieron la exposición (no recorte sino una limitación del sensor) o porque sobreprocesaron la imagen y recortaron . No son conscientes de que ciertos valores de la imagen se han fijado a un valor que no está en la escena original.
Esperaría que muy pocos fotógrafos pensaran primero en esta definición de saturación, o incluso que la supieran. En el contexto de la fotografía y el arte en general, la saturación se refiere a la saturación del color. Fui a la clase especial de física y matemáticas en la escuela secundaria y no me he encontrado con esto. Usar una palabra con muchos significados diferentes como única descripción de algo no es una buena explicación en mi humilde opinión.
@Imre: no estás terriblemente equivocado. Sin embargo, escribí esa respuesta después de que se enviaron otras dos respuestas que mencionaban específicamente el contexto fotográfico. Realmente no tenía sentido repetir esas explicaciones (aunque algunas personas dijeron básicamente lo mismo después de eso). Mi intención era agregar otra perspectiva (juego de palabras) a esas respuestas al mencionar la analogía (correcta) con el término de saturación tal como se usa en un contexto más amplio. Después de leer el comentario de Steve me di cuenta de la posible confusión, de ahí la aclaración. El hecho de que pocos piensen en eso no es razón para [...]
@Imre - [...] sin mencionarlo, en mi humilde opinión. ciertamente, ¡no es una buena razón para descartarla como una explicación incorrecta ! El OP podría ser alguien que asocie fácilmente este término con el recorte, y solo mencionarlo puede haberle explicado de manera concisa de qué se trata. De todos modos, la gente debería tomarlo FWIW.
@Imre, SteveRoss: acabo de leer esta respuesta de Matt y me recordó esta vieja discusión: photo.stackexchange.com/a/16442/1024 ; Así que aquí hay un ejemplo del uso de "saturación" como "recorte" por parte de un fotógrafo.