¿Cuáles son las causas físicas del recorte?

¿Qué limita exactamente los sensores de las cámaras digitales modernas para capturar la intensidad de la luz más allá de cierto punto?

Respuestas (3)

¿Qué limita exactamente los sensores de las cámaras digitales modernas para capturar la intensidad de la luz más allá de cierto punto?

En términos de las propiedades físicas del propio sensor:

El número de impactos de fotones y el número de electrones libres resultantes de dichos impactos de fotones hasta que no haya más electrones disponibles con el potencial de ser liberados dentro de cada fotosito (a/k/a sensel, pixel well, etc.) definen su pozo completo. capacidad. No es muy diferente de la película, en la que se alcanza la saturación total cuando no quedan cristales de haluro de plata en la emulsión que no tengan suficientes 'motas de sensibilidad' para ser transformados en plata atómica por el revelador.. La principal diferencia es la forma de las curvas de respuesta cuando cada tecnología se acerca a su capacidad máxima. Digital da como resultado la misma cantidad de electrones por fotón¹ que se liberan hasta que se alcanza la capacidad total del pozo. A medida que la película se acerca a la saturación total, se necesita más y más energía luminosa (o tiempo de revelado) para afectar las sales de plata restantes.

En términos de registrar los voltajes analógicos como datos digitales:

Cuando se lee el voltaje analógico de cada fotosito (a/k/a 'sensel', 'pixel well', etc.) del sensor, se aplica amplificación a la señal. La configuración ISO de la cámara determina cuánta amplificación se aplica. Por cada aumento de parada de ISO, se aplica el doble de amplificación. Si se utiliza la sensibilidad "base" de la cámara (por razones de simplicidad, llamemos a ISO 100 una amplificación de 1,00X en la que el voltaje de entrada es igual al voltaje de salida), entonces los fotositos que alcanzaron la capacidad total del pozo deberían dar como resultado una lectura de voltaje máximo en la amplificación posterior. circuito analógico que alimenta el ADC. Si se usa ISO 200 (amplificación 2.0X), el voltaje de cualquier sensor que alcance la mitad (1/2) de la capacidad total del pozo o más se amplifica hasta el voltaje máximo permitido en el circuito de amplificación posterior.

Cualquier amplificación superior a 1,0X aplicará un "techo" inferior a la capacidad total del pozo de cada fotosito. Cuando se utiliza una amplificación alta, las señales más débiles que la capacidad total del pozo también alcanzan la capacidad máxima de voltaje de los circuitos aguas abajo del amplificador. Cualquier nivel de señal preamplificada que sea lo suficientemente fuerte como para "fijar el medidor" después de la amplificación es indistinguible de cualquier otro nivel de señal preamplificada que también "fije el medidor".

Cuando estas señales analógicas amplificadas se convierten en datos digitales mediante el convertidor de analógico a digital (ADC), a las señales en la capacidad máxima de voltaje del circuito se les asigna el valor máximo permitido por la profundidad de bit de la conversión de analógico a digital. Si se convierte a valores de 8 bits, a los voltajes se les asigna un valor en binario entre 0 y 255. La señal máxima permitida por el circuito analógico que alimenta el ADC se registraría como 255. Si es de 14 bits, a los voltajes se les asigna un valor entre 0-16 383 con el valor máximo asignado como un valor binario de 16 383, y así sucesivamente.

La comida para llevar cuando realmente estás tomando fotos:

Obtendrá la mayor diferencia y el menor número de gradaciones entre los elementos más brillantes y los más oscuros² en la escena que está fotografiando cuando la amplificación está en la sensibilidad "base" de la cámara y el tiempo de obturación y la apertura se combinan para dar los elementos más brillantes en la escena sólo la exposición suficiente para estar en o cerca de la saturación total. Usar un valor ISO más alto es útil si no es posible exponer durante tanto tiempo o con una apertura lo suficientemente amplia para acercarse a la saturación total de las luces en la escena para la imagen que desea tomar. Pero usar un ISO más alto tiene un precio. El rango dinámico total se reduce por la mayor amplificación de las señales eléctricas que salen del sensor.

Entonces, ¿por qué no disparamos siempre a ISO 100, o cualquiera que sea el ISO base de la cámara, y luego aumentamos la exposición más adelante en la publicación? Porque hacerlo de esa manera tiende a amplificar el "ruido" en la imagen incluso más que disparar a valores ISO más altos. Cuánto más depende de cuánto y dónde se haga la reducción de ruido a la señal. Pero reducir la influencia del ruido mediante la aplicación de reducción de ruido a los voltajes analógicos que salen del sensor también tiene un precio: las fuentes de luz puntuales muy tenues a menudo se filtran como "ruido". Es por eso que algunas cámaras con muy buen rendimiento con poca luz/ISO alto, en términos de reducción de ruido, también son conocidas como "devoradoras de estrellas" por los astrofotógrafos.

¹ Existe una ligera variación en la energía contenida en un fotón en función de la frecuencia a la que oscila. Los fotones que oscilan a frecuencias más bajas liberan un poco menos de energía cuando golpean el sensor que los fotones que oscilan a frecuencias más altas. Pero para los fotones que oscilan a una frecuencia/longitud de onda específica, la cantidad de energía liberada al golpear la parte inferior de un pozo de píxeles es la misma hasta que se alcanza la capacidad total del pozo.

² Llamamos a la diferencia entre los elementos más oscuros y más brillantes que pueden ser registrados por un sensor (o película) el rango dinámico del medio de grabación. Por cada parada de aumento de sensibilidad (ISO) con una cámara digital, la diferencia de voltaje lineal entre "cero" y "saturación total" se reduce a la mitad. Cuando se convierte a escalas logarítmicas, como 'Ev', duplicar la sensibilidad da como resultado una reducción de un 'stop' del rango dinámico (todo lo demás es igual, lo que rara vez ocurre).

y tenga en cuenta que, paradójicamente, el recorte digital aparece en un medio que es de naturaleza más analógica. la película solo puede producir una imagen binaria (una partícula dada se activa y se satura instantáneamente o no reacciona en absoluto), mientras que cada uno de los píxeles de la cámara digital reconoce un rango (cuasi-analógico) de la intensidad de la luz. sin embargo, el poder de las estadísticas y la gran cantidad de celdas binarias individuales en una película hacen que se comporte de manera más "analógica" que los sensores digitales.
Agregaría a esta respuesta una explicación de los datos de píxeles que se amplifican (analógicos) a medida que las líneas de píxeles se desplazan fuera del sensor; si el nivel de amplificación se configura demasiado alto (configuración ISO mal calculada), las entradas del ADC se saturarán. Creo que ADC se realiza a una mayor profundidad de bits para mitigar este problema, pero aún existen límites en los que se perderán los datos. Como los canales RGB se realizan por separado, esto también supondrá la pérdida de información de color (blanqueo).
@Phil Buen punto sobre ADC y los límites impuestos por la amplificación. Sin embargo, los canales HRGB no se realizan por separado durante ADC. En ese punto todo es monocromo: un solo valor por sentido.
@szulat Bueno, más o menos, pero no exactamente. Las 'motas de sensibilidad' formadas en la superficie de los cristales individuales por el impacto de los fotones no convierten el cristal completo hasta que la película se pone en contacto con el revelador. El tiempo que se permite que el revelador reaccione con la emulsión determina cuántos 'puntos de sensibilidad' (a/k/a cuántos 'electrones atrapados') necesita un cristal antes de convertirse en plata atómica. Hasta entonces, el cristal sigue siendo principalmente haluro de plata. Es por eso que llamamos a un negativo sin revelar una imagen 'latente'.
¡Guau! Tema complejo bien explicado y sencillo. ¡Bien hecho!
@PhilH, "a medida que las líneas de píxeles se desplazan del sensor" , ¿qué significa?
@GillBates Esa es una forma imprecisa de decir "a medida que el sensor se lee píxel por píxel".
Mis disculpas, el cambio es un término preciso específico de los sensores CCD, que no me había dado cuenta de que es incorrecto para los sensores CMOS en las cámaras modernas. El punto general sobre la amplificación que depende de los niveles ISO sigue siendo cierto, solo a nivel de píxel en lugar de a nivel de sensor. @MichaelClark: los CCD usan un registro de desplazamiento para las cargas de píxeles y se desplazan de una columna a la vez antes de cambiar esa columna fila por fila a través del ADC. A eso me refería.
Los sensores @PhilH CCD no desplazan los píxeles a ninguna parte. Se quedan justo en el sensor. Cambian los datos resultantes, en forma de voltajes. apaga el sensor de forma secuencial, al igual que los sensores CMOS. La principal diferencia es que los sensores CCD pueden iniciar y detener el tiempo en que un sensor está "activo" (es decir, recopilar fotones y convertirlos en voltajes) globalmente, mientras que los sensores CMOS solo pueden encender/apagar cada fotosito secuencialmente.
Lo siento, tal vez no fui lo suficientemente preciso: la carga (electrones) en cada fotosito es lo que se desplaza. Esta es la razón por la cual los CCD producen artefactos de línea; un fotosito dado está tan sobreexpuesto que la carga inunda los otros fotositos. La carga no se convierte en voltaje hasta que finalmente se cambia a través de un amperio antes del ADC. Esta es la raíz de la parte 'carga acoplada' del nombre. Por el contrario, cada píxel CMOS tiene su propio amplificador (transistor seguidor de fuente).
@PhilH Explique la diferencia entre una carga y un voltaje. (Son lo mismo: energía eléctrica en forma de electrones).
@MichaelClark: las fotocélulas son capacitivas; almacenan carga. Puede medir la cantidad de carga almacenada en un capacitor detectando la diferencia de potencial (voltaje) a través de la celda o proporcionando una ruta a tierra que descarga el capacitor a través de una resistencia, produciendo una curva de caída de voltaje a medida que se agota la carga. El voltaje es el efecto, la carga es la causa.

Además de la excelente respuesta de Michael Clark (que describe el recorte de capacidad de pozo completo y el recorte de ADC), hay varios otros puntos en una tubería de fotografía digital donde puede ocurrir el recorte:

  • Para imágenes no RAW, durante la corrección de color en el dispositivo/ajuste automático de gamma antes de la compresión y durante la compresión misma.

    Cuando comprime una imagen como JPEG o MPEG, el hardware trunca la profundidad de bits a lo que admita el medio comprimido, que suele ser mucho menor que la profundidad de bits del hardware. Debido a ese truncamiento, los valores cercanos a ambos extremos de brillo se pierden.

    Antes de la compresión, su cámara aplica corrección de color y ajustes gamma que pueden afectar el rango dinámico efectivo que se ajusta a la profundidad de bits limitada proporcionada por el compresor. Por ejemplo, cuando se graba un video en el modo Canon Log, las partes más oscuras y más claras de la escena se desplazan matemáticamente hacia el centro para que el rango dinámico efectivo aumente significativamente y se recorten menos partes de la imagen en cualquiera de los extremos del rango.

  • Durante el posprocesamiento. Cuando se realiza un posprocesamiento que altera significativamente el brillo de una imagen, es posible que las primeras etapas del cálculo realmente provoquen que los valores excedan el rango que puede representarse correctamente por la cantidad de bits utilizados para contenerlos. Si bien es poco frecuente, esto ocurre a veces y, cuando ocurre, puede provocar recortes incluso en áreas de la foto que no están realmente recortadas en la imagen original.

  • Durante la corrección de la gama de colores al imprimir o mostrar la imagen. Al realizar la corrección de color, a veces puede obtener valores que quedan fuera de la gama que el medio de salida puede reproducir con precisión. En ese momento, el motor de color tiene que decidir qué hacer con esos valores fuera de gama. Esto también da como resultado un recorte, aunque visualmente se ve algo diferente de lo que la mayoría de la gente piensa cuando habla de recorte, lo que generalmente hace que las cosas se vean del color incorrecto.

La fácil explicación empírica:

Mire una bombilla muy brillante, si la luz es lo suficientemente brillante, no podrá ver el interior de la bombilla porque sus pupilas pueden cerrarse más y todavía hay demasiada luz incidiendo en su retina, saturándola y la información que llega. tu cerebro está recortado (solo ves luz brillante pero no los detalles dentro de la luz). Esa es una de las razones por las que si lo intentas, no debes hacerlo, al mirar directamente a un cielo despejado sol de mediodía no podrás ver el sol sino una luz intensa (Cuidado que intentar hacerlo sin el la protección adecuada en realidad puede dañar permanentemente sus ojos o su equipo fotográfico, lentes y sensor)

Cualquier sensor se comporta de la misma manera (de su cámara o de otra manera). Una vez que la señal (en este caso, la luz) es demasiado alta para su capacidad (alcanza el nivel de saturación), recortará cualquier información adicional, no podrá discernir más señal, transmitiendo solo una señal plana alta sin ninguna información valiosa.