¿Podría ser prácticamente posible una configuración de "exposición universal"?

No estoy seguro de cuán inculta es esta pregunta, pero estoy interesado en aprender, así que gracias de antemano por su indulgencia.

La película cambia físicamente durante el período de tiempo que está expuesta. Sin embargo, un sensor digital no lo hace; es solo lectura de datos. ¿Hay alguna razón por la que la cámara no pueda "recordar" cuáles fueron las lecturas del sensor en cada punto de exposición? Son solo datos. Puede ser una gran cantidad de datos, pero hay ocasiones en las que uno podría querer hacer eso, ¿no? Dando mucha más flexibilidad en el procesamiento posterior.

Si el almacenamiento de datos no fuera un problema, ¿hay alguna razón por la que esto no podría ser la norma, al menos para la fotografía profesional y artística?

Curiosamente, eso es casi exactamente lo que hacen nuestros ojos. HDR está diseñado para tratar de reconstruir los algoritmos realizados dentro de nuestras células de la retina y la corteza visual, y emularlos lo mejor que podamos.
@CortAmmon E incluso entonces, los ojos simples más avanzados tienen la característica adicional del iris, que se expande o contrae para permitir que pase más o menos luz a través de la pupila como un componente adicional en la regulación de la intensidad. (Por supuesto, los ojos tampoco se ajustan de inmediato, como se muestra fácilmente al pasar de un área de luz brillante a una con poca luz o, lo que es más doloroso, viceversa).
Un sensor digital también cambia físicamente a medida que se expone a la luz (se pueden hacer discusiones sobre "físico" versus "químico" versus "eléctrico", pero puedo argumentar que son lo mismo). Una cámara "perfecta" registraría la posición/tiempo/ángulo de cada fotón; bastante difícil (verdaderamente perfecto es imposible debido a Heisenberg) a menos que haga concesiones: tratar con muy pocos fotones, en una banda específica ( excitación de dos fotones , detectores de neutrinos )
@Cort Ammom, creo que está en el camino correcto con la mención de HDR, que utiliza el concepto de configuraciones de exposición múltiple integradas en una sola imagen de alta definición. Para obtener esa funcionalidad en tiempo real sin necesidad de cambiar la configuración, creo que sería necesario tener una cámara que tenga múltiples lentes; tal vez 5 serían suficientes para imágenes de nivel HDR decentes.
¿ Es justo lo que hacen nuestros ojos, Cort? Tengo entendido que nuestros ojos escanean una escena frente a nosotros, ajustando el enfoque y la exposición (muy rápido, pero lejos de ser instantáneo) a medida que se mueven. Y que nuestros cerebros constituyan una imagen a partir del resultado. HDR está más cerca: agrupa la exposición de manera efectiva y luego combina las partes mejor expuestas. De hecho, muy de cerca: en una situación de alto rango dinámico, el ojo probablemente a menudo esté exponiendo mal temporalmente, pero "olvidamos" esos momentos al constituir nuestra imagen de la escena.

Respuestas (6)

Un sensor digital realmente no se describe mejor como "lectura de datos". Una manera mucho mejor de describirlo es "recolectar fotones" que luego se convierten en datos midiendo las cargas eléctricas microscópicas que producen una vez que finaliza el período de recolección . No tienen la capacidad de registrar continuamente el estado cambiante de cada píxel a medida que recogen la luz. Y dependiendo de la poca o la cantidad de luz que caiga sobre el sensor, puede tomar mucho tiempo para que suficientes fotones lleguen al sensor antes de que se generen más que datos aleatorios. Por otro lado, en condiciones de luz muy brillante, a veces todos los pozos de píxeles pueden llenarse tan rápido que se pierden los fotones adicionales que caen sobre el sensor.

En el primer escenario, no se recolectan suficientes fotones para crear un patrón perceptible a través del "ruido" generado por la energía que fluye a través del sensor que se usa para recolectar los voltajes creados por los fotones que caen en los pozos de píxeles. Por lo tanto, no se recopila información utilizable. Toda la foto está oscura con manchas aleatorias de color y luz.

En el segundo escenario, se recopilan tantos fotones que cada píxel se lee con el mismo valor máximo, llamado saturación total, y dado que cada píxel de la imagen tiene el mismo valor, no se conserva información utilizable. Toda la foto es de color blanco brillante sólido.

Solo cuando suficientes fotones inciden en un sensor, las áreas con más fotones por unidad de tiempo tienen un valor de lectura más alto que las áreas con menos fotones incidiendo en ellas por unidad de tiempo. Solo entonces el sensor recopila información significativa que puede diferenciar entre áreas de brillo variable.

Imagine colocar varios cubos de agua en su jardín para recolectar gotas de lluvia. Imagina que todos tienen algo de agua pero la tiras antes de colocarlos. Algunos se colocan debajo del alero del techo de su casa. Algunos se colocan debajo de grandes árboles en su jardín. Algunos se colocan al aire libre. Algunos se colocan debajo del caño que vierte el agua de las canaletas al jardín. Entonces empieza a llover.

Digamos que solo llueve por muy poco tiempo: 15 segundos. Hay unas pocas gotas de agua en cada balde. Pero no hay suficiente agua en cada cubeta para poder saber si cada cubeta puede haber tenido más agua de lluvia o si solo le quedaron unas pocas gotas más en la cubeta cuando vació el agua antes de colocar las cubetas. en la yarda. Como no tienes suficientes datos para poder determinar cuánta lluvia cayó en qué partes del jardín, tiras todos los cubos y esperas a que llueva de nuevo.

Esta vez llueve durante varios días. Para cuando deja de llover, todos los cubos del patio se están desbordando. Aunque está bastante seguro de que algunos cubos se llenaron más rápido que otros cubos, no tiene forma de saber qué cubos se llenaron más rápido y cuáles se llenaron en último lugar. Por lo tanto, debe volcar los baldes nuevamente y esperar a que llueva más.

En tu tercer intento llueve durante tres horas y luego deja de llover. Sales al patio e inspeccionas tus baldes. ¡Algunos están casi llenos! ¡Algunos apenas tienen agua en ellos! La mayoría tiene cantidades variables de agua entre los dos extremos. Ahora puede usar la ubicación de cada balde para determinar cuánta lluvia cayó en cada área de su jardín.

La razón por la que alteramos la exposición en las cámaras digitales es para intentar recolectar suficiente luz para que las áreas más brillantes estén casi saturadas, pero no del todo.Idealmente, esto ocurre con la cámara en la sensibilidad ISO base. A veces, sin embargo, no hay suficiente luz para hacer esto. Incluso con la apertura más grande disponible, no podemos recolectar suficiente luz en la mayor cantidad de tiempo que nos atrevemos a dejar el obturador abierto (debido al movimiento de nuestros sujetos). Lo que hacemos en este caso es ajustar la configuración ISO en nuestra cámara para que todos los valores que salen del sensor se multipliquen en un factor que lleva los valores más altos a un punto donde están casi, pero no del todo saturados. Desafortunadamente, cuando amplificamos la señal (los voltajes creados por los fotones que aterrizan en los pozos de píxeles) también amplificamos el ruido (los voltajes irregulares aleatorios producidos por la corriente utilizada para recolectar los voltajes de cada pozo de píxeles). Esto da como resultado una relación señal-ruido más baja.lo que disminuye la cantidad de detalles que podemos crear a partir de los datos que hemos recopilado del sensor.

Existen otras limitaciones técnicas que impiden que las cámaras mantengan un "total acumulado" de la cantidad de fotones recolectados en varios intervalos mientras el obturador está abierto. Arroje suficiente dinero al problema y algunas de esas limitaciones pueden superarse, al menos parcialmente. Pero las leyes de la física tendrían que cambiar o tendríamos que cambiar por completo la forma en que los sensores cuentan los fotones antes de que se puedan superar otras de esas limitaciones. Eventualmente, la tecnología en algunos o todos estos dispositivos podría reemplazar la forma en que actualmente capturamos imágenes de muy alta calidad, pero aún no estamos cerca de eso.

¿La sección citada en bloque es de otro lugar y necesita atribución, o simplemente está tratando de diferenciarla por algún motivo?
No es una cita. Es mi propia ilustración. El formato de cita en bloque se usó para diferenciarlo del resto de la respuesta. Elegí hacerlo de esa manera porque sentí que, entre las opciones de formato disponibles, era la mejor opción.
Una cosa a tener en cuenta es que potencialmente podríamos capturar exposiciones más cortas a partir de una exposición más larga, si desarrollamos sensores que podamos sondear lo suficientemente rápido, por ejemplo, podríamos usar una exposición de 1 segundo pero capturar 1/250, 1/125, 1/60, 1/30, etc. de eso leyendo el sensor repetidamente durante ese tiempo y manteniendo una especie de "total acumulado". Ya podemos hacer esto, pero no está muy bien desarrollado y tiene límites en cuanto a qué tan corta es la exposición que podemos capturar.
La lectura tarda demasiado en los sensores de alta resolución. Y muchos tiros no se quedan quietos ni un segundo. A veces, 1/1000 no es lo suficientemente rápido.
"Total acumulado" es una frase potencialmente engañosa. Lo que hacen los sensores ahora es mantener un "total acumulado" de fotones vistos durante la exposición. Creo que lo que quiere decir en esta respuesta, y lo que @JonStory significa en su comentario, es mantener una serie de muestras muy cortas de cada píxel.
De ahí las comillas en torno al "total acumulado". El punto es que sondearíamos a intervalos y calcularíamos/almacenaríamos el valor para cada exposición según sea necesario. Lo estaba abordando desde el punto de vista del software (es decir, almacenar en 1/1000, luego 1/500) en lugar de la mecánica del sensor
Eso no es más que un paréntesis glorificado. Lo cual es difícil de hacer cuando estás fotografiando atletas de clase mundial a más de 10 fps. Con la latitud que los archivos sin formato nos brindan actualmente, cualquier fotógrafo que se precie debería poder exponer lo suficientemente bien como para obtener el resultado deseado. Y recuerde, con un obturador de plano focal, cualquier televisor más corto que la velocidad de sincronización aún requiere la misma cantidad de tiempo que la velocidad de sincronización para que las dos cortinas pasen por el sensor. Y luego está el tiempo de lectura necesario antes de que el sensor pueda borrarse para el siguiente cuadro.
Como señalamos en nuestra respuesta, existen algunas formas de evitar algunas de las limitaciones físicas, pero son costosas de ejecutar y dejan mucho que desear para ciertos usos. Ciertamente aún no son prácticos , que es lo que aborda la pregunta.
El mejor retorno de la inversión en este sentido en los últimos años ha sido la aparición de medidores de exposición que son sensibles de forma independiente al rojo, verde y azul. Esto no solo ayuda a evitar que se borren los reflejos que solo están completamente saturados en un canal de color, sino que también ayuda a la cámara a identificar mejor una escena en particular al compararla con la biblioteca interna contenida en el firmware de la cámara. Los avances en velocidad de procesamiento más rápida y menor consumo de energía al mismo tiempo también han contribuido a la mejora en la medición.
Michael, esa fue una respuesta fantástica. Especialmente con la siguiente discusión. Algunas preguntas como seguimiento: primero: "Idealmente, esto ocurre con la cámara en la sensibilidad ISO básica". ¿Por qué?
Segundo: "Eso no es más que un horquillado glorificado. Lo cual es difícil de hacer cuando estás fotografiando atletas de clase mundial a más de 10 fps". Eso tiene sentido, pero también se enfoca en una situación muy específica. Para muchas otras situaciones, ¿no podría ser un tipo de horquillado glorificado realmente útil para tener integrado en la cámara como una opción?
Los "totales acumulados" son más que un paréntesis: la suposición es que nunca están sobreexpuestos (debido al breve tiempo de muestreo) y sin intervalos de tiempo entre ellos, puede combinarlos en exposiciones sintéticas de cualquier duración. esto es ciencia ficción (¿por ahora?), pero con ese sensor no necesitas medir la exposición en absoluto y ni siquiera puedes arruinar tu foto configurando un tiempo de exposición o iso incorrecto. ¿No sería lindo? ;-)
¿Qué sucede con los dispositivos como L16 de Google, Immerge de Lytro, etc.? Permiten la posedición de ISO, campo de visión, etc. Utilizan una tonelada de sensores en varios ángulos para lograr el efecto de permitir increíbles opciones de posedición.
@Wombat Pete; 1) La relación señal/ruido y el rango dinámico son mejores si puede exponerse a una saturación cercana al ISO base. 2) Muchas cámaras de nivel superior ya tienen horquillado automatizado altamente configurable. 3) No existe tal cosa como un "total acumulado". Para leer un sensor CMOS o CCD, se debe borrar la carga actual en cada pozo de píxeles. Solo estaría agregando cuadros consecutivos (lo que significa que también estaría aumentando el ruido de lectura/disminuyendo el DR para cada cuadro adicional)
"Dispositivos como..." todos caen bajo la parte "Tírale suficiente dinero..." al final de la respuesta. Hay algunas compensaciones muy significativas, y no solo desde el punto de vista del costo, involucradas en el uso de tales dispositivos. Eventualmente, la tecnología en algunos o todos estos dispositivos podría reemplazar la forma en que actualmente capturamos imágenes de muy alta calidad, pero aún no estamos cerca de eso. Y la pregunta incluye las palabras "prácticamente posible".
"Para leer un sensor CMOS o CCD, se debe borrar la carga actual en cada píxel". Interesante. ¿Es ese un requisito mecánico inevitable?
Tienes que mover electrones para sacar los datos del sensor. Esos electrones son las cargas creadas por los fotones que golpean la parte inferior del pozo de píxeles.
FWIW También encuentro confuso el formato de "cita". ¿Quizás usar encabezados/subtítulos para separar las secciones?
Elegí hacerlo de esa manera porque sentí que, entre las opciones de formato disponibles, era la mejor opción. Los encabezados/subtítulos parecerían, al menos para mí, indicar una progresión lógica de una sección a la siguiente, pero ese no es el caso aquí. Más bien es una pausa para ilustrar por metáfora. No hay un indicador automático que diga "CITA" antes y después de un cuadro azul en medio de una respuesta. No existe una convención general en el idioma inglés que diga que un cuadro sombreado tiene que ser una cita. Si pongo toda la ilustración en cursiva o en negrita , otros tendrán problemas con eso.

Ya tenemos parte de la tecnología para esto. Nuestro término para recordar las lecturas del sensor en cada punto de exposición es "video", y lo que solicita es la reconstrucción de una imagen fija óptima a partir de múltiples cuadros de video.

Para obtener una descripción general del trabajo de Microsoft Research sobre esto, comience aquí: http://research.microsoft.com/en-us/um/redmond/groups/ivm/multiimagefusion/

Para ver un ejemplo disponible, consulte la aplicación Synthcam, que se puede usar para reducir el ruido en condiciones de poca luz al combinar cuadros de video tomados con la cámara de un teléfono: https://sites.google.com/site/marclevoy/

Esto está muy lejos de ser práctico para la fotografía cotidiana, pero es concebible que las cámaras futuras capturen muchos fotogramas de video de alta definición y alta velocidad de fotogramas, lo que le permitirá al fotógrafo lograr el resultado deseado seleccionando y combinando más tarde.

Actualización de finales de 2016: cuando escribí la respuesta original, estaba lejos del mercado. A finales de 2016 parece mucho más cerca. La aplicación "See In The Dark" de Marc Levoy integra múltiples cuadros de video con estabilización en un teléfono inteligente de consumo para producir imágenes utilizables a la luz de la luna. Vea también la cámara Light L16 , que integra múltiples sensores pequeños en una sola imagen.

Que tipo de cae en la categoría "Arroja suficiente dinero al problema". ¡Imagina lo que costarían 4000 fps a 50 MP!
Trabajé en 1000 fps hace unos cinco años y pesaba unos pocos kg. Actualmente llevo una cámara de 120fps en mi bolsillo. Esto podría ser práctico en 5 a 10 años. Ciertamente no para la fotografía convencional ahora, y siempre puedes encontrar una situación oscura en la que simplemente no hay suficientes fotones para que nada funcione.

La pregunta original se basa en una suposición incorrecta (acerca de que el sensor digital no cambia de estado durante la exposición), pero el concepto está relacionado con la idea del sensor de imagen cuántica (QIS) investigada por Eric Fossum .

http://engineering.dartmouth.edu/research/advanced-image-sensors-and-camera-systems/

El QIS es un cambio revolucionario en la forma en que recopilamos imágenes en una cámara que se está inventando en Dartmouth. En el QIS, el objetivo es contar cada fotón que golpea el sensor de imagen y proporcionar una resolución de mil millones o más de fotoelementos especializados (llamados jots) por sensor, y leer planos de bits de jot cientos o miles de veces por segundo resultantes en terabits/seg de datos.

Tal dispositivo sería (citando la pregunta)

"recordar" cuáles fueron las lecturas del sensor en cada punto de exposición

y teniendo el conjunto de datos completo, podríamos, por ejemplo, "cambiar" el tiempo de exposición efectivo después de capturar la "fotografía".

Hoy en día, esto se puede aproximar grabando un video y combinando fotogramas en el posprocesamiento para simular tiempos de exposición más largos (limitados por el rendimiento de la cámara, la resolución del modo de video y la velocidad del obturador, pero muestra la idea)

Si el QIS funciona según lo prometido, también introduciría otras características interesantes, como un mejor rendimiento con poca luz, mayor rango dinámico, sin aliasing, sensibilidad completamente personalizable (por ejemplo, como una película), sin configuraciones ISO, resolución ajustable frente al ruido.

Anuncio reciente: http://phys.org/news/2015-09-breakthrough-photography.html

"Si el QIS funciona como se prometió, también introduciría otras características interesantes, como un mejor rendimiento con poca luz, mayor rango dinámico, sin aliasing, sensibilidad completamente personalizable (por ejemplo, como una película), sin configuración ISO, resolución ajustable frente al ruido" - Eso es lo que estaba pensando, ¡es exactamente por eso que hice la pregunta en primer lugar!
¿Terabits por segundo? Siendo generoso, eso es 1 GB para una exposición de 1/125 segundos, o 2 GB para una exposición de 1/60 segundos. (¿Cree que un archivo RAW de 25-50 MB de una DSLR de gama alta razonable, en su mayoría, independientemente del tiempo de exposición, es grande?) Con un rendimiento de escritura de 1000 MB/s, que es bastante superior, usted es aproximadamente 100 veces más lento . Creo que en estos niveles, el almacenamiento es una consideración muy real.

La película cambia físicamente durante el período de tiempo que está expuesta. Sin embargo, un sensor digital no lo hace; es solo lectura de datos.

Eso realmente depende del tipo de sensor. El tipo de sensores CMOS que se utilizan en las DSLR de hoy en día acumulan una carga eléctrica en cada píxel con el tiempo, por lo que, de hecho, cambian con el tiempo como lo hace la película. Si no funcionaran de esa manera, la imagen existiría solo mientras el obturador estuviera abierto. Los sensores CCD (la otra tecnología común para los sensores de imagen en las cámaras) también funcionan de esta manera, acumulando luz con el tiempo.

¿Hay alguna razón por la que la cámara no pueda "recordar" cuáles fueron las lecturas del sensor en cada punto de exposición?

Eso es exactamente lo que hace la cámara cuando graba una imagen. Sin embargo, creo que lo que quiere decir es que si el sensor pudiera leer la intensidad de la luz instantánea, entonces podría ajustar la exposición después del hecho al valor que desee. Como se explicó anteriormente, no es así como funcionan la mayoría de los sensores de imagen. Por otro lado, podemos y , a menudo , ajustamos bastante la exposición en el posprocesamiento.

Si el almacenamiento de datos no fuera un problema, ¿hay alguna razón por la que esto no podría ser la norma, al menos para la fotografía profesional y artística?

En cuanto a "recordar" los datos del sensor, es la norma para muchos fotógrafos. La mayoría de las cámaras le permiten grabar imágenes en formato "RAW", y estos son prácticamente los datos que se leen del sensor, además de un poco más de información sobre la configuración de la cámara en ese momento. Las imágenes RAW ocupan mucho más espacio que otros formatos como JPEG, pero le dan al fotógrafo la libertad de reinterpretar los datos más tarde, por lo que puede cambiar fácilmente configuraciones como la temperatura del color y el balance de blancos en el posprocesamiento.

Diría que su respuesta es la única que contiene el punto clave: los sensores no producen una lectura continua que sería necesaria para lo que desea el OP. Si uno quisiera una exposición continua, requeriría una salida de datos continua en pasos de tiempo muy pequeños (más pequeños que "Live View" y similares).
@DetlevCM ¿Has leído detenidamente mi respuesta? Incluye esa información tanto en el primer como en el último párrafo.
@MichaelClark De hecho, lo contiene cuando lo vuelvo a leer ahora (sin ediciones registradas). Así que supongo que se perdió en el ruido cuando revisé las respuestas...
Lo he editado para que quede aún más claro.
"Si uno quisiera una exposición continua, requeriría una salida de datos continua en pasos de tiempo muy pequeños (más pequeños que "Live View" y similares)" ... que es la noción de "horquillado glorificado" en la discusión anterior, ¿verdad? La nueva pregunta, como estoy empezando a entender esto, se refiere a la practicidad/disponibilidad de este tipo de cosas.

Otros ya han explicado por qué esto no funcionará, técnicamente. Quiero mencionar por qué no funcionaría en la práctica .

Si el almacenamiento de datos no fuera un problema, ¿hay alguna razón por la que esto no podría ser la norma, al menos para la fotografía profesional y artística?

Considere la magnitud de las diferentes condiciones de iluminación de las que podemos querer tomar fotografías. Incluso ignorando los extremos como la astrofotografía (en la que a menudo se fotografían pequeñas motas de luz rodeadas de un negro casi total), todavía se tiene fotografía terrestre vespertina o nocturna y paisajes invernales cubiertos de nieve muy iluminados. Voy a usar los dos últimos como ejemplos.

Además, supondré que para recrear con precisión cualquier exposición deseada, debemos exponer el sensor hasta el punto de saturación total.

Además, supondré que podemos leer los valores del sensor de forma no destructiva. (Este es probablemente uno de esos problemas que caen en la categoría de "tirar suficiente dinero al problema y podría resolverse").

En el caso de la fotografía nocturna, necesitaríamos exponer el sensor durante mucho tiempo para saturar todos los píxeles, lo que significa que cualquier foto, sin importar de qué queramos tomar una foto, tomará un tiempo absurdo . La imagen turística clásica de bailarines en un bar al aire libre se vuelve casi imposible porque, bueno, es posible que puedas tomar algunas de ellas durante toda la noche. No es bueno. Entonces no podemos exponer a la saturación, al menos no indiscriminadamente. (Exponer a un porcentaje de píxeles saturados es igualmente inútil, pero por diferentes razones; intente obtener la exposición exactamente correcta cuando tome una fotografía de una chimenea con fuego ardiendo en ella. Eso es casi imposible; no importa cuánto lo intente, algunoslos píxeles se sobredimensionarán o grandes franjas de la imagen quedarán terriblemente subexpuestas).

Al fotografiar un paisaje cubierto de nieve muy iluminado, como una vista invernal durante el día cuando sale el sol, la exposición a la que aspira el sistema de exposición automática de la cámara ("18 % de gris") es lamentablemente inadecuada. Es por eso que a menudo ves fotos de nieve que son oscuras, y donde la nieve parece más de un gris claro que blanco. Debido a esto, a menudo usamos una configuración de compensación de exposición positiva que da como resultado que la nieve se exponga como un blanco casi saturado. Sin embargo, esto significa que no podemos confiar en el sistema AE de la cámara para determinar cuándo finalizar la exposición: si lo hacemos, dichas imágenes estarán invariablemente subexpuestas .

En otras palabras, la exposición a la saturación total no es práctica en muchos casos, y la exposición para hacer feliz al sistema AE es inadecuada en muchos casos. Esto significa que el fotógrafo aún tendrá que hacer algún tipo de elección, y en ese punto, al menos nos conviene quedarnos con lo que tenemos y a lo que los fotógrafos están acostumbrados, mejorando los sistemas AE y facilitándole al fotógrafo ( más fácil?) acceso a la configuración de compensación de exposición. Al aumentar el rango dinámico prácticamente utilizable del sensor, podemos permitir (incluso) una mayor latitud en los cambios de exposición en el posprocesamiento; las SLR digitales originales eran terriblemente caras, pero realmente horribles en este sentido en comparación con los modelos básicos de hoy en día.

Todo lo cual se puede hacer plenamente dentro del marco de lo que ya tenemos. Esto no quiere decir que mejorar drásticamente el rango dinámico utilizable del sensor sea fácil , pero probablemente sea mucho más fácil de lo que está proponiendo, y es un problema en el que los proveedores tienen experiencia trabajando.

Los profesionales, casi por definición, saben cómo utilizar los equipos de su oficio. Realmente no es diferente si son fotógrafos o pilotos de transbordadores espaciales . Especialmente cuando se puede hacer sin causar una sobrecarga de información, por lo general es mejor dar al usuario el control total del equipo profesional. En mi opinión, las réflex digitales de alta gama actuales son bastante buenas para alcanzar el punto óptimo en esto.

Gracias por señalar los problemas prácticos con esta idea. Me imagino que una cámara que promedie inteligente e independientemente cada píxel para crear una exposición equilibrada produciría imágenes bastante grises.

Simplifiquemos el problema para entender por qué siempre tendremos que hacer concesiones.

Inventemos la cámara que deseas, pero con un solo píxel monocromático. Debe poder recibir y notificar de manera confiable al procesador sobre la recepción de un solo fotón. También necesita poder recibir y notificar al procesador de la recepción de, en términos prácticos, fotones incontables e infinitos.

El primer caso en una situación donde no hay luz. El segundo en el caso de incluso una cantidad moderada de luz.

El problema principal es que simplemente no tenemos la tecnología para crear un sensor con un rango dinámico tan amplio. Siempre vamos a tener que ceder, y en este momento estamos cediendo al seleccionar un rango más alto donde el sensor puede aceptar fotones casi infinitos y darnos una lectura que sugiere una cantidad relativa de luz que incide en el sensor. No los cuenta en absoluto, pero actúa como lo hacen nuestros ojos: simplemente dan una salida relativa a la cantidad de fotones que los golpean, sin intentar contar los fotones.

Esto se complica aún más por el hecho de que esto se recopila con el tiempo.

Un sensor ideal en realidad sería más como un contador Geiger: medir el tiempo entre fotones para darnos una medida casi instantánea de la cantidad de luz que cae sobre el sensor, asumiendo que los fotones están espaciados relativamente uniformemente (lo cual no es cierto, pero es una suposición conveniente, y por qué los contadores geiger promedian con el tiempo al igual que las cámaras).

Los sensores cuánticos tendrían esencialmente el mismo problema. Claro, pueden sentir un fotón individual, pero en algún momento vienen lo suficientemente rápido como para que simplemente no puedas medir el tiempo entre ellos, o incluso contar cuántos vienen por período de exposición.

Así que tenemos este compromiso que requiere que tomemos varias imágenes de varias exposiciones, o agreguemos varias imágenes de la misma exposición alta juntas para eliminar las áreas de poca luz, o dividamos la luz entrante en dos o más caminos con diferentes sensores de diferente dinámica. rango, o construir sensores que puedan agrupar píxeles o apilar sensores de luz, o, o, o - hay literalmente miles de formas en que los fotógrafos han superado este problema básico durante décadas con una amplia variedad de medios.

Es una limitación de la física que no es probable que se supere. Nunca vamos a tener una cámara* sin intervención del fotógrafo que permita tomar todas las decisiones en el posprocesamiento.

* Por supuesto, si cambia la definición de cámara, es posible que esté satisfecho con los resultados de otros procesos, pero esto es en gran parte subjetivo. La realidad es que si toma una imagen de una escena con su cámara, luego le muestra la escena a una persona, luego la imagen que tomó, percibirá diferencias debido a las diferencias inherentes entre sus ojos, su sensor de imagen y el proceso que usó para imprimir. la imagen. La fotografía tiene tanto que ver con la interpretación y el arte como con capturar la luz, por lo que un enfoque fanático en la "cámara perfecta" probablemente no sea muy útil.

si está tratando de contar una cantidad casi infinita de fotones, entonces ya está muerto ;-) (quemado por la poderosa fuente de luz), en otros casos, siempre podemos inventar alguna tecnología para manejar esto, por ejemplo --> dpreview.com/ artículos/5923827506/…