Medición ISO de fotografía digital, ¿por qué uniforme en toda la imagen?

ISO ha existido desde los tiempos de la fotografía analógica. Cualquiera, debería haber sido uniforme por razones obvias: nunca se podría saber qué se capturará en cada parte de la película. Entonces, vaya uniforme (ISO 100, ISO 200), seleccione el apropiado para las condiciones dadas y haga lo mejor que pueda. Avance rápido hasta hoy y tenemos el mismo enfoque. A pesar de que en fotografía digital el "tú sabes" o, mejor dicho, el sensor de imagen sabe lo que será captado por cada píxel o grupo de píxeles. Aquí está la pregunta, ¿por qué no podía medir la sensibilidad por área o, incluso, por píxel y tener configuraciones ISO no uniformes en todo el sensor? ¿Qué impide que el nivel ISO se establezca automáticamente por píxel?

Respuestas (3)

Deténgase y piense en lo que está diciendo. Suponiendo que uno estuviera dispuesto a gastar el costo prohibitivo para hacer lo que propone, ¿cuál sería el resultado? Si cada píxel se ajustara usando ISO para que se exponga "correctamente", terminaría con una imagen en la que cada píxel tiene el mismo brillo. Habría cero contraste. Ninguno. No podrías ver los detalles de nada que sea de un color uniforme. ¡Y ni siquiera pienses en ir monocromático! Terminaría con una imagen que parece una tarjeta gris al 18%.

hm... tal vez he formulado incorrectamente si esa es la percepción. Prefiero imaginar los resultados a lo largo del resultado similar a HDR donde las áreas resaltadas tendrían 100 ISO aplicado y las áreas oscuras se tratarían, tal vez, ISO 800 mientras que el medio se haría con ISO 200. En otras palabras, como HDR es se lograría combinando los resultados mediante la alteración de las exposiciones; en un escenario basado en ISO, se lograría mediante la combinación de aplicaciones multi-ISO.

El propósito de HDR no es, en última instancia, reducir el ruido. Es tomar una escena con un rango dinámico más amplio que el que pueden capturar las cámaras actuales y/o mostrar los medios de visualización actuales y exprimir ese rango dinámico adicional en el espacio permitido por el medio de visualización. El aumento de ISO no aumenta el rango dinámico. Disminuye el rango dinámico porque se necesita la mitad de fotones para alcanzar el equivalente a la capacidad total del pozo.

HDR, al menos en un entorno digital al que parece referirse, es mucho más complicado e involucrado de lo que afirma. En última instancia, el mapeo de tonos que se debe hacer es más una manipulación del contraste local que del contraste general. Se ganaría poco fotografiando las áreas brillantes con ISO 100 y las áreas oscuras con ISO 800, ¡porque las áreas en las que ISO 800 crea más ruido son las sombras! Las áreas más brillantes se ven perfectamente bien con ISO 800. Si amplifica una parte de la imagen más que otra, todavía tiene el problema de que algunas partes de las áreas oscuras que aún son más oscuras que las partes más oscuras de las áreas brillantes se verán más brillantes que esas partes de las áreas brillantes.

De acuerdo, es un proceso mucho más complicado de lo que podría atreverme a representar. Sin embargo, todavía se basa en la exposición para obtener la información con la que trabajar. Simplemente digo que si bien generalmente entiendo que la apertura y la exposición son relevantes y aplicables de manera unificada a la captura general de imágenes, no puedo (todavía) entender las razones por las que ISO se aplica de la misma manera. En la película, está claro por razones obvias porque, de lo contrario, necesitaría crear una película dedicada para cada captura. Pero para lo digital, todavía hay algo que va en contra de la lógica en mi mente.

Para aprovechar varias sensibilidades ISO en partes discretas del sensor, tendría que encontrar una manera de alterar el tiempo de exposición píxel por píxel. Así que ahora necesita sensores que puedan proporcionar un obturador electrónico global. Incluso cuando todo el sensor recolecta fotones durante un período de tiempo universal, su producción es muy costosa. El poder de cómputo para hacer lo que usted propone elevaría astronómicamente el costo de tal cámara. La creación de un chip sensor que pudiera seguir las instrucciones resultantes de tales cálculos probablemente exceda el presupuesto de la mayoría de los países del tercer mundo.

hm... tal vez he formulado incorrectamente si esa es la percepción. Prefiero imaginar los resultados a lo largo del resultado similar a HDR donde las áreas resaltadas tendrían 100 ISO aplicado y las áreas oscuras se tratarían, tal vez, con ISO 800, mientras que el medio se haría con ISO 200.
en otras palabras, como HDR se logra mediante la combinación de resultados a través de la alteración de las exposiciones; en un escenario basado en ISO, se lograría mediante la combinación de aplicaciones multi-ISO.
HDR, al menos en un entorno digital al que parece referirse, es mucho más complicado e involucrado de lo que afirma. En última instancia, el mapeo de tonos que se debe hacer es más una manipulación del contraste local que del contraste general.
Se ganaría poco fotografiando las áreas brillantes con ISO 100 y las áreas oscuras con ISO 800, ¡porque las áreas en las que ISO 800 crea más ruido son las sombras! Las áreas más brillantes se ven perfectamente bien con ISO 800. Si amplifica una parte de la imagen más que otra, todavía tiene el problema de que algunas partes de las áreas oscuras que aún son más oscuras que las partes más oscuras de las áreas brillantes se verán más brillantes que esas partes de las áreas brillantes.
El propósito de HDR no es, en última instancia, reducir el ruido. Es tomar una escena con un rango dinámico más amplio que el que pueden capturar las cámaras actuales y/o mostrar los medios de visualización actuales y exprimir ese rango dinámico adicional en el espacio permitido por el medio de visualización. El aumento de ISO no aumenta el rango dinámico. Disminuye el rango dinámico porque se necesita la mitad de fotones para alcanzar el equivalente a la capacidad total del pozo.
De acuerdo, es un proceso mucho más complicado de lo que podría atreverme a representar. Sin embargo, todavía se basa en la exposición para obtener la información con la que trabajar. Simplemente digo que si bien generalmente entiendo que la apertura y la exposición son relevantes y aplicables de manera unificada a la captura general de imágenes, no puedo (todavía) entender las razones por las que ISO se aplica de la misma manera. En la película, está claro por razones obvias porque, de lo contrario, necesitaría crear una película dedicada para cada captura. Pero para lo digital, todavía hay algo que va en contra de la lógica en mi mente.
Para aprovechar varias sensibilidades ISO en partes discretas del sensor, tendría que encontrar una manera de alterar el tiempo de exposición píxel por píxel. Así que ahora necesita sensores que puedan proporcionar un obturador electrónico global. Incluso cuando todo el sensor recolecta fotones durante un período de tiempo universal, su producción es muy costosa. El poder de cómputo para hacer lo que usted propone elevaría astronómicamente el costo de tal cámara. La creación de un chip sensor que pudiera seguir las instrucciones resultantes de tales cálculos probablemente exceda el presupuesto de la mayoría de los países del tercer mundo.
No... yo no tocaría la exposición. En pocas palabras, me gustaría obtener la medida automática de iso no para toda la imagen sino para partes de ella o incluso, si es posible, píxeles y establecer esos ajustes individuales. Entonces tendremos un área con 50, la mayor parte dice 100 y algunas partes en 200. Eso es lo mejor que podría describir, supongo :)
Tendrías que ajustar el tiempo de exposición o tendrás diferentes niveles de exposición para las diferentes partes de la foto...
Correcto, tendré diferentes niveles de exposición debido a los diferentes valores ISO. Como podría hacer una foto con la misma A, la misma S pero diferentes niveles de ISO, eso es lo que imagino como resultado. Imaginando una matriz simplificada de 9x9, tendría la primera línea superior en ISO 100, luego 400 y luego 800. La razón es que partes de la imagen ubicadas en áreas sombreadas o menos iluminadas y, por lo tanto, se elevan a través de ISO.

ISO de un sensor implica a qué voltaje está funcionando. Modificar esto en solo un área o píxel requeriría mucho cableado complejo (¿cómo puede adivinar el fabricante que desea aumentar el ISO de píxel 432,288) y mucha interfaz y programación adicionales? En términos simples, tal capacidad sería una característica muy costosa que rara vez se usa.

De acuerdo. ¿No se podría establecer un nivel de referencia para el píxel o el área y, una vez medido, el voltaje se ajusta adecuadamente? Simplemente parece que el calibre uniforme en toda la imagen es tan... simplista y de la vieja escuela tomado a ciegas de los días del cine.
Y, por cierto, ya se hace hoy con el modo iso automático. La pregunta es: ¿por qué se aplica a todos los píxeles o al marco completo en lugar de áreas o incluso píxeles?
El ISO automático solo toma la luz total medida en la escena y establece el ISO (por ejemplo, la amplificación del sensor) siguiendo un conjunto de reglas para asegurar que la Tv y Av utilizadas se mantengan dentro de los rangos preestablecidos.
genial, eso es auto iso. lo que estoy diciendo: todavía podría tener (lógicamente) sentido hacerlo por píxel o, al menos, por grupos de píxeles.
@ user56548 "¿No se podría establecer un nivel de referencia para el píxel o el área y una vez medido " ... y cómo se toma esa medida? ¿Con qué se toma en relación ? Esa medida es solo tomar una foto de la escena , donde todas las ganancias del amplificador de píxeles se establecen equivalentes (es decir, ISO idéntico). Si usa esa imagen de referencia para tomar otra imagen con mayor o menor ganancia para mapear los tonos de las regiones oscuras/claras, entonces voilà, tiene una forma de HDR.
@scottbb podría simplificarse. Pero, por ejemplo, la misma medida que ocurre cuando se define AUTO ISO. Solo a un nivel más granular (píxel/grupo de píxeles). ¿Funcionaría?
@user56548 No, en realidad no. El sensor no participa en la determinación de los valores de exposición automática (incluido ISO). Entonces, ¿cómo puede determinar la localidad de los niveles/valores de referencia cuando no se conoce la localidad?
@scottbb Probablemente, y tal vez sea una especulación, ¿al tener un sensor de capa que lo haga? ¿En regiones más pequeñas y proporcionando coordenadas a lo largo? Suena como un desafío razonable para ingeniería/I+D. Desconozco la solución lamentablemente. Si lo hiciera, respondería con procedimientos. Estoy desafiando la configuración lógicamente actual, ya que sigue el mismo diseño que la película (es decir, ISO uniforme) que, en mi humilde opinión, podría no ser relevante o no debería serlo, ya que ya no es un elemento constante.
@ user56548 Nada de lo que está preguntando es inalcanzable desde un punto de vista técnico, pero no se hace porque realmente no tiene sentido. No se puede engañar a la física del sistema. el sistema (los fotositos del sensor, el convertidor A/D, el amplificador de ganancia de voltaje) tienen límites de resolución, límites de sensibilidad, etc. Combinados, describen el rango dinámico del sistema de imágenes. No puede crear más rango dinámico o información de la que hay o que el sistema puede capturar (aunque existen trucos, como HDR, para "falsificar" el efecto deseado).
exactamente... esa es la misma sensación que estoy teniendo. No tiene sentido. Ese lado receptor de la fotografía actual (sensor digital) usa los mismos "límites físicos" que la invención/creación de la década de 1880 con configuraciones ISO uniformes. Tomaré 3 fotos con el mismo AS y diferentes ISO y veo áreas en cada 3 donde iq es más alto que otros en las mismas partes. Y no se puede hacer nada.
@ user56548 Parece que no entiendes: la física cuántica de la luz no ha cambiado desde la década de 1880 (al menos no mucho).
es la parte de "uniformidad" que no puedo encontrar una explicación lógica, no la física cuántica. Estoy como golpeando un cadáver aquí, pero tiene sentido (ISO uniforme) cuando no sabes por adelantado lo que se va a capturar; hoy ya no es el caso. De hecho, "ves" cómo la luz va a terminar en el sensor/foto.

Creo que puede estar preguntando acerca de la uniformidad de la respuesta, en cuyo caso la mayoría de las cámaras, si no todas, tienen tablas de corrección integradas para eliminar las compensaciones oscuras para cada píxel y obtener diferencias entre píxeles. Esto garantiza que la señal de salida de cada píxel para N fotones de entrada sea la misma.

Si está preguntando sobre el ajuste de ISO para que las partes oscuras de la escena obtengan más ganancia, entonces estaría solicitando un ajuste de ganancia dinámica por píxel. Incluso entonces, como señaló Michael Clark, en el mejor de los casos terminarías con una imagen muy descolorida.

Si tiene una escena con un gran contraste (oscuro a más brillante), hay otra opción. Caros, pero disponibles: sensores con amperios logarítmicos. Esto le da a los píxeles un gran rango dinámico efectivo, y luego puede procesar posteriormente la salida de escala logarítmica para hacer lo que quiera.

sí, se trata más de ganancia dinámica, supongo. En cuanto a "lavado", no estoy seguro de eso porque esas áreas en sombra o menos iluminadas serán más pronunciadas y claras. Y las cámaras de hoy en día hacen un gran trabajo en el control de ruido en ISO alto. Hasta ahora parece que se reduce a "cómo localizar la medición ISO" y "cómo implementar la amplificación basada en píxeles o en grupos de píxeles". Ambas parecen ser tareas de ingeniería tangibles en mi opinión.