¿Por qué se considera importante la baja aberración cromática en la era digital?

He leído muchas reseñas de lentes. Parece que la baja aberración cromática se considera una propiedad importante de las lentes.

Sin embargo, el cine es hoy un dinosaurio muerto. Prácticamente todo el mundo utiliza cámaras digitales y, de hecho, muchos objetivos (p. ej., Canon EF-S) se adaptan únicamente a las cámaras digitales.

Con las cámaras digitales, almacenar la fotografía en formato RAW permite hacer correcciones de lente para los datos capturados por el sensor. Tampoco parece imposible que el fabricante de la cámara incluya estas correcciones de lente en la canalización de creación de JPG. Por supuesto, esto requeriría una base de datos de lentes en la cámara, preferiblemente una que pueda actualizarse, de modo que las DSLR antiguas puedan admitir correcciones para lentes nuevos.

Entonces, ¿por qué la aberración cromática de las lentes se considera una propiedad importante? Me parece que las características que son más difíciles de corregir, como la mala nitidez, serían mucho más importantes.

En el extremo: ¿por qué las cámaras necesitan lentes de vidrio? Hay cámaras estenopeicas que funcionan bien. Además, ¿por qué necesitamos un sensor con muchos MPix? Tenemos cámaras de un solo píxel disponibles news.mit.edu/2017/…
@aaaaaa En realidad, algunos satélites meteorológicos utilizan cámaras de un solo píxel (escanean la Tierra girando), por lo que también tienen algún uso.
No es una base de datos de lentes en la cámara, sino coeficientes de corrección almacenados en el firmware de la lente....
Además, por mucho que los fabricantes intenten hacer que sus lentes solo se ajusten a su sistema de cámara, la adaptabilidad futura de los vidrios siempre es una ventaja... y los errores que necesitan corrección electrónica lo complican todo :)

Respuestas (5)

imagen ideal - sin aberraciones:

ingrese la descripción de la imagen aquí

Aberración cromática simulada:

ingrese la descripción de la imagen aquí

corregir la aberración cromática ajustando las posiciones de los canales RGB (en un ejemplo más realista, esto también implicaría estirar las imágenes, perdiendo aún más calidad)

ingrese la descripción de la imagen aquí

conclusión : la aberración cromática no es solo canales de color desalineados, esto sería fácil. cada canal individual está borroso y este defecto no se puede corregir completamente en digital.

Creo que este ejemplo se abstrae más allá de cualquier utilidad. CA real y la corrección de CA real no funcionan como sus imágenes.
@ths por favor explique. el desenfoque se exagera deliberadamente para demostrar que la aberración cromática no es solo una franja de color. de hecho, incluso aparece en fotos en blanco y negro, sin ningún color.
no solo es exagerado, es simulado. y no ha demostrado que su simulación coincida con la realidad.

Puede corregir la aberración cromática computacionalmente realineando las capas roja/verde/azul. Sin embargo, al igual que la corrección de la distorsión geométrica, esas correcciones generalmente no se realizan por múltiplos enteros de píxeles y, por lo tanto, tienen que distribuir la luz en un píxel de origen a al menos dos píxeles de destino. Esto provoca una pérdida de nitidez. Si intenta contrarrestar esto reajustando después, amplificará el ruido y será propenso a los halos.

Hasta ahora, esto no suena peor que lo que ya hace la corrección de distorsión y básicamente puede combinar las acciones correctivas de corrección de distorsión y corrección de aberración cromática antes de volver a muestrear a una cuadrícula rectangular para obtener menos desenfoque acumulativo que si hiciera un nuevo muestreo de forma independiente.

Hasta ahora, muy mal.

El siguiente problema es que la aberración cromática viene en dos sabores. Lo que acabo de hablar ahora solo trata sobre la aberración cromática lateral que tiende a ser más fuerte cuanto más te alejas del centro. También hay una aberración cromática longitudinal cuya principal consecuencia son las franjas moradas: si fotografía las ramas de un árbol contra un fondo de cielo azul o nublado, los sensores azules detectan cantidades significativas de luz ultravioleta y casi ultravioleta. La aberración cromática longitudinal significa que esta luz normalmente se dobla más fuerte que otras luces, poniendo su plano de enfoque delante del sensor. Esto conduce a halos morados poco nítidos alrededor de las ramas de amboslados asumiendo que las ramas están enfocadas. Si están desenfocados, los componentes azulados pueden estar realmente enfocados, dando una ligera franja roja (rara vez se ve eso, ya que requiere que el enfoque sea demasiado corto en primer lugar). La cantidad de esa falta de nitidez púrpura que aparece depende de la distribución de longitudes de onda que golpean el sensor azul. En comparación, las luces LED y fluorescentes en interiores serán inofensivas, la luz incandescente generalmente es al menos más fría (con respecto a la temperatura del color en lugar de la terminología del pintor) que la luz solar.

Lo que nos lleva de nuevo a la aberración lateral: no es solo el sensor azul el que es receptivo a varias longitudes de onda diferentes: todos los sensores detectan un rango completo de longitudes de onda con diferentes sensibilidades, y la aberración cromática golpea todas esas longitudes de onda de manera diferente, causando que la señal de cada El sensor no solo debe moverse, sino también extenderse de acuerdo con la distribución de las longitudes de onda que lo golpean. ¿Qué distribución sería esa? Las diferentes configuraciones de balance de blancos adivinan las distribuciones de longitud de onda, pero esa suposición se centra en obtener el equilibrio correcto entre los tres colores primarios.

Adivinar la cantidad correcta de desenfoque significa obtener el balance correcto de más de tres colores primarios, y ese balance cambia mucho más en la escena que el balance de blancos básico.

Entonces, si bien puede garantizar estadísticamente más o menos que su franja en su mayoría tiene un promedio de gris en todas las direcciones, un borde nítido en blanco y negro, cuando se mira de cerca, aún se resolverá en un pequeño arco iris debido a diferentes ( y solo estadísticamente predecible) cantidades de falta de nitidez.

Las correcciones de lente de las aberraciones cromáticas no funcionan solo con un plano de información, sino que son construcciones tridimensionales que se pueden calcular para llevar un continuo de longitudes de onda principalmente al mismo punto en el mismo plano de enfoque. Este tipo de corrección no es posible con los datos reducidos de 3 bandas de un solo plano de enfoque porque simplemente no contiene la misma cantidad de información.

Hay un montón de cosas, incluyendo la aberración cromática, el balance de blancos, la temperatura del color, la distorsión de barril/pincusión, coma, ....... que se pueden corregir en el software. Pero aún es, y siempre será, mejor corregirlo en la cámara, para que no tengas que hacer tantas correcciones en el procesamiento posterior. Aunque estas correcciones se pueden hacer en la publicación, cada corrección introduce un poco de resolución/pérdida de detalles y, de hecho, puede introducir artefactos adicionales o modificaciones no deseadas. Por lo tanto, entregar la mejor imagen posible al sensor siempre será la mejor opción en general.

Si en lugar de los tres sensores (RGB) en cada píxel tuviera (digamos) 100 sensores, cada uno sensible a un rango de longitudes de onda de 1/100 del espectro visible, entonces tendría suficientes datos para corregir la aberración cromática digitalmente. Con solo tres sensores, no puede saber (por ejemplo) si una fuente de luz es roja o naranja, por lo que no sabe cuánto moverla para corregir la aberración.

Esto puede ser lo que dice @ user82045 en el último párrafo.

El trabajo de la lente de la cámara es proyectar una imagen en miniatura del mundo exterior en la superficie plana de la película o sensor de imagen digital. Los ópticos se esfuerzan por fabricar lentes que produzcan una imagen fiel, pero, por desgracia, están plagados de siete defectos de imagen principales que llamamos aberraciones. Debería estudiar estos siete 1. Esférico 2. Coma 3. Astigmatismo 4. Curvatura del campo 5. Distorsión 6. Difracción / Interferencia. 7. Aberración cromática.

Aberración cromática: los rayos de luz atraviesan la lente. La curva (figura) de la lente y la densidad del vidrio afectan su trayectoria de viaje. Se les hace desviarse (refracción, en latín, doblarse hacia adentro). Podemos rastrear estas trayectorias de rayos, y cuando lo hacemos, el rastro revela un cono de luz que alcanza un vértice a cierta distancia aguas abajo de la lente. La distancia medida, de la lente al vértice, es la distancia focal de la lente. Cuanto mayor sea la distancia focal, mayor será la imagen (ampliación). Un examen cuidadoso de un trazado de rayos revela que la luz violeta se enfoca primero, seguida de verde, luego naranja y, por último, roja.

Por lo tanto, cada color tiene una distancia focal independiente y cada uno proyecta un tamaño de imagen diferente. La imagen roja es la más grande y la imagen violeta la más pequeña. Cuando vemos esta imagen, vemos franjas de color causadas por la superposición de diferentes tamaños de imagen.

El primero en intentar mitigar la aberración cromática fue John Dollond, quien en 1757 demostró una lente compuesta hecha intercalando una lente positiva fuerte hecha de vidrio de corona con una lente negativa débil hecha de vidrio flint. Esta combinación reduce significativamente la aberración cromática. Este diseño se llama lente acromática (latín, sin error de color).

La aberración cromática es una plaga independientemente. Degrada todos los sistemas ópticos. Puede ser mitigado, pero hasta la fecha, nunca eliminado.