¿Por qué todavía no tenemos sensores de alto rango dinámico que tengan la exposición correcta en cada parte de una imagen?
Ya hay cámaras con DR más grandes que el ojo humano, tanto al instante como en general. El rango dinámico del ojo humano no es tan grande como la mayoría de la gente tiende a pensar que es. Según recuerdo, está entre 12 y 16 EV, que está a la vuelta del nivel de una DSLR moderna.
La principal diferencia es que tenemos un control de apertura extremadamente natural que se ajustará a diferentes partes de la imagen. Efectivamente, nuestros cerebros apilan imágenes automáticamente. Cuando miramos la parte brillante de una escena, nuestras pupilas se contraen y vemos el detalle de la parte brillante. Si cambiamos el foco a la parte más oscura, nuestras pupilas se abren rápidamente y vemos el detalle de la parte oscura. Nuestro cerebro sabe cómo se veía la parte anterior y, por lo tanto, no notamos el cambio en nuestra visión periférica, pero en realidad ya no estamos viendo tantos detalles donde ya no estamos enfocados.
Del mismo modo, incluso para el rango general de la visión humana, hay cámaras especializadas que pueden oscurecerse mucho más que nosotros y aún así ver, particularmente en color, actualmente son demasiado caras para producirlas para el público en general, ya que requieren materiales y construcción de muy alta calidad para obtener el piso de ruido súper bajo. También hay sensores capaces de mirar objetos muy brillantes que serían dolorosos de mirar para las personas.
Un gran problema es que mirar con los ojos es muy diferente a capturar una imagen: una imagen debe incluir toda la información que el observador puede ver, pero la visión normal es un proceso activo que implica el movimiento de los ojos, el reenfoque y la dilatación de las pupilas según a los objetos que estamos mirando. Por lo tanto, si desea capturar "lo que ve el ojo", necesita, en esencia, capturar el punto de vista con todos los ajustes que el ojo pueda usar.
Su pregunta es sobre el rango dinámico, pero aparece el mismo problema con el detalle visual y el enfoque. Una imagen 'equivalente a la vida' necesita muchos, muchos más píxeles de los que su ojo puede capturar, ya que la resolución del ojo es muy desigual y mientras mira solo un pequeño punto con su retina media de alta resolución, una imagen necesita más detalles disponibles ya que moverá los ojos. Las películas deben elegir un solo enfoque, mientras que un ser humano puede ver una "imagen única" con más profundidad al volver a enfocar rápidamente los ojos y/o moverlos para obtener una visión binocular adecuada en diferentes rangos previstos (por ejemplo, mirando la superficie de una ventana o a través de ella). ), etc.
Parte de la solución es exactamente eso: usar una sola cámara varias veces rápidamente (o varias cámaras) para capturar una variedad de imágenes en diferentes configuraciones y fusionarlas después, HDR es el ejemplo más evidente: tal como lo hace nuestro ojo, mira activamente en varios lugares diferentes con diferentes "configuraciones", y solo después su cerebro fusiona todo en una imagen o película coherente. Las "imágenes" reales tomadas por nuestros ojos ya son peores que las buenas cámaras, simplemente la combinación mental de ellas es agradable.
Su imagen mental es el producto no solo de la retina, sino de su interacción con todos los demás componentes involucrados en la visión, incluida la pupila y, por supuesto, su cerebro. Lo que puede parecerle una 'imagen única' es, de hecho, el resultado de ajustes de alta velocidad y procesamiento de información, y no una sola instantánea.
Puede encontrar más información sobre este tema aquí .
Es completamente posible hacer un sensor de luz con propiedades logarítmicas; dicho sensor tendría un rango dinámico increíble a expensas de una resolución limitada para una exposición particular. Obtener ambos requiere un ADC de alta resolución. Para la tomografía computarizada, normalmente se usa 24 bits lineales, y luego se toma el logaritmo después del ajuste de compensación para crear la imagen de la tomografía computarizada.
Un sensor que controle la exposición (tiempo de integración, piense en la velocidad de obturación) puede funcionar mejor, y si permite cambios en la eficiencia de recolección de luz (piense en el número f), obtendrá una flexibilidad aún mayor.
El rango dinámico final generalmente está limitado por el ruido de lectura (cuando lee la carga acumulada habrá algún error) en comparación con la señal más grande que puede admitir la electrónica. Como dije, 24 bits son comunes en imágenes médicas y eso es mejor que 1 parte en 10 millones. Ese es un rango dinámico mucho más alto que el de la retina para una exposición dada. Pero no se usa comúnmente en cámaras convencionales porque el ojo no puede apreciar esos detalles en la imagen, y la resolución se logra a expensas de la velocidad.
mivilar
TFuto