¿Por qué este retrato no se toma con una nitidez de f/29?

Estoy confundido en cuanto a por qué esta imagen no es nítida. Este es un retrato tomado en F/29 ISO100 1/250 con una lente de 17-85 mm enfocada a 38 mm. La distancia al sujeto era de 1,2 m. Mi aplicación DOF me dice que mi DOF debería haber sido ~82.98cm o aproximadamente 1M.

Estoy confundido en cuanto a por qué esta imagen no es tan nítida como debería ser. Para esta captura de pantalla, la he ampliado al 200%. ¿Es tan borroso al 200% normal?

EDITAR: algunas personas tienen preguntas sobre el DOF en esta toma, así que aquí hay información que se puede obtener de cualquier calculadora de DOF en línea. Mi estimación de 82,8 cm fue de una aplicación y 1,2 millones fue de la información EXIF, usando esta herramienta en línea , el DOF en F28 sería:

 Subject distance   1.2 m

 **Depth of field** 
 Near limit     0.84 m
 Far limit      2.13 m
 Total          1.29 m

 In front of subject        0.36 m  (28%)
 Behind subject             0.93 m  (72%)

 Hyperfocal distance         2.7 m
 Circle of confusion       0.019 mm

Esto también es correcto porque esa es la distancia real a la que me encontraba de la cámara: 1,2 m. Entonces, para que esta toma esté desenfocada, tendría que estar a medio metro de la cámara, que no es lo que recuerdo. Posiblemente el desenfoque observado en esta foto no se deba a que el sujeto esté desenfocado.

retrato F/29 ISO100 1/250

la difracción juega un papel en esta apertura
Definitivamente relacionado, si no un duplicado: ¿Qué es un "límite de difracción"? .
¿La lente estaba enfocada a 38 mm o 38 cm? mm parece poco probable.
Como mencioné, la distancia focal era de 38 mm. La distancia del sujeto era de 1,2 m.
En ninguna parte de su descripción de su configuración ha dicho a qué distancia se enfocó su lente. Tenga en cuenta que esto no tiene nada que ver con la distancia focal en la que se configuró su lente de zoom. Es posible que haya tenido la lente enfocada al infinito por lo que sabemos. De acuerdo, tal vez no infinito, pero simplemente perder el enfoque es un candidato probable.
"Enfocado en" y "distancia focal" son dos conceptos diferentes. Más aquí .
También es importante tener en cuenta el tamaño del medio (o sensor) que está utilizando. Una cosa es estar en f / 29 en un sensor de tamaño APS-C, otra estar en un sensor de fotograma completo y otra muy distinta estar usando una cámara de gran formato (por poco probable que sea para esta pregunta).
No edite las respuestas en la pregunta misma. (Ver meta.photo.stackexchange.com/questions/1601/… ). Seleccionar una respuesta con la marca de verificación es suficiente. Si ninguna respuesta cubre por completo lo que ha aprendido, siéntase libre de agregar la suya propia y luego aceptarla .
si está enfocado en el punto, entonces la apertura no importa para ese punto. pero ¿dónde estaba el foco en esto? MF o AF? una pila de enfoque mostraría esto mejor.
Le sugiero que realice un par de experimentos cambiando SOLO la apertura; así que duplique esta toma y luego cambie la apertura a f/16. Use el enfoque manual para ambos para que el punto de enfoque definitivamente no cambie. Eso le mostrará cuán dramático es el efecto de difracción para esa lente / sensor. Además, a menos que me esté perdiendo algo, hacer zoom a *200*% significará que su imagen está siendo interpolada por software, lo que siempre reducirá la nitidez. Nunca mires píxeles más allá del 100 % :)
"~ 82,98 cm, o alrededor de 1 m". No, 82,98 cm es aproximadamente 0,8298 m. Te estás perdiendo alrededor del 17% de esa distancia. Tal vez eso esté dentro de la tolerancia de la cámara, pero personalmente no consideraría que los dos valores sean cercanos.
@corsiKa No, distancia del sujeto 1,2 m; Profundidad de campo: Límite cercano: 0,84 m; Límite lejano: 2,13 m; Total : 1,29 m Frente al sujeto : 0,36 m (28 %) Detrás del sujeto : 0,93 m (72 %) Distancia hiperfocal : 2,7 m Círculo de confusión : 0,019 mm

Respuestas (3)

Como se mencionó en las otras respuestas, la difracción ha provocado falta de nitidez. Para poner esto a prueba, uno puede intentar enfocar la imagen usando deconvolución usando la función de dispersión de puntos que corresponde a F/29. Para la difracción, tenemos (hasta una normalización general)

PAG(s) = {J 1 [ π rs /( λF ) ] / [ π rs /( λF ) ] } 2

donde J 1 es la función de Bessel de primer tipo de orden 1 ,
s es la distancia en la imagen medida en píxeles,
r es el tamaño de un píxel (normalmente alrededor de 4,2*10^(-6) metros para sensores de cultivos),
λ es la longitud de onda de la luz y
F el número F, en este caso 29.

Esto es cierto para la luz monocromática, para aproximar la función de dispersión de puntos para los canales de color que podemos promediar en algún rango apropiado de longitudes de onda. Además, se debe integrar P(s) sobre el área del píxel especificado por s.

Si compilamos funciones de dispersión de 3 puntos para los 3 canales de color de esta manera, podemos hacer más nítida la imagen transformándola en un espacio de color lineal y aplicando un algoritmo de deconvolución y luego volviéndola a transformar en sRGB. Obtuve el siguiente resultado:

imagen nítida

Por lo tanto, la cara se ha agudizado significativamente utilizando solo los datos sobre el número F y la suposición sobre el tamaño del píxel. Los artefactos de bandas son visibles en la parte oscura de la imagen, esto se debe a la posterización después de transformarse de nuevo a sRGB.

Según lo solicitado, agregaré algunos detalles más sobre los programas utilizados. Usé ImageJ e ImageMagick , también usé Mathematica para calcular la función de dispersión de puntos, pero también se puede hacer dentro de ImageJ. Comenzaré explicando cómo realizo la deconvolución con ImageJ cuando ya tengo la función de dispersión de puntos. Para realizar la deconvolución, debe instalar un complemento para ImageJ, utilicé este complemento para este caso, pero también hay otros complementos disponibles, por ejemplo, el complemento DeconvolutionLab .

Primero, debe convertir a un espacio de color lineal. Usé ImageMagick para convertir la imagen desenfocada (input.jpg) a un espacio de color lineal usando el comando:

convert input.jpg -colorspace RGB output.tif

Luego, con ImageJ, abre el archivo output.tif. Luego, desde las opciones del menú, selecciona "imagen", luego "color" y luego "Spit Channels". Luego, desde el menú, seleccione "complementos" y luego "desconvolución iterativa paralela" y luego deconvolución interactiva 2d".

Luego obtiene la ventana de deconvolución, luego selecciona la imagen y "PSF" significa la función de dispersión de puntos, allí selecciona el archivo de imagen que contiene la función de dispersión de puntos. Para el método, elijo "WPL", que se basa en el filtro de Wiener, que suele funcionar razonablemente bien para imágenes con poco ruido. En las opciones para WPL, marque "normalizar PSF", y para el filtro de paso bajo cambie el valor a 0.2, por defecto es 1, pero un valor más bajo es mejor para imágenes con poco ruido (si lo elige más grande, obtendrá una imagen menos nítida). Las otras opciones, el límite se puede elegir para que sea reflexivo, el cambio de tamaño se puede configurar en "siguiente potencia de 2", la salida se puede configurar en 32 bits, la precisión se puede configurar en el doble. Elegí que el número máximo de iteraciones sea 15,

A continuación, ejecute el programa haciendo clic en "desconvolución". Luego obtiene un archivo de imagen de 32 bits como salida. Por lo general, los valores de los píxeles son bastante similares a los de la imagen original, pero puede tener algunos píxeles que excedan el máximo para el formato de imagen original. Entonces, en este caso, comenzamos con imágenes de 8 bits, pero en la imagen deconvolucionada, puede tener valores de gris que excedan 255, lo que hace que toda la imagen se vuelva demasiado oscura. Esto debe solucionarse recortando estos píxeles a 255, lo que puede hacer seleccionando en el menú "proceso" y luego "Matemáticas" y luego "Máx". El valor Máximo se utilizará para recortar los valores de gris que excedan ese valor. Tenga en cuenta que esto se hará en la imagen en la que hizo clic por última vez. También puede ver qué archivo es el "archivo actual" seleccionando "

Luego, una vez que haya desconvolucionado los 3 componentes de color, puede combinarlos seleccionando en el menú "imagen", luego "color" y luego "Combinar canales". Luego obtiene una imagen compuesta que puede convertir a RGB de 8 bits usando el comando "Apilar a RGB" que encontrará allí.

Luego guarda esa imagen, llamémosla im.tif. Finalmente, debe convertir esto a sRGB, puede hacerlo con ImageMagick usando el comando:

convert im.tif -set colorspace RGB -colorspace sRGB output.tif

La pregunta que queda es entonces cómo obtener la función de dispersión de puntos. En la práctica, si hubiera tomado una fotografía como la que se analiza aquí, simplemente podría haber tomado una fotografía de una fuente puntual, por ejemplo, una estrella en F/29, y usarla como su función de dispersión puntual. Alternativamente, puede observar los límites de alto contraste y extraer la función de dispersión de puntos de la forma en que los valores de gris cambian de un valor a otro a través del límite. Pero entonces estás tratando de enfocar la imagen lo mejor que puedas.

En este caso, el objetivo era compilar las funciones de dispersión de puntos para el canal de color según lo que esperaría que fuera para F/29, desconvolucionar la imagen con eso y ver si el resultado se ve lo suficientemente mejorado. Utilicé Mathematica para hacer algunos cálculos y, con un programa de álgebra computacional tan avanzado, es bastante fácil realizar todo tipo de manipulaciones, incluido el promedio en un intervalo de longitud de onda y la integración en áreas de píxeles para hacer que el PSF sea más realista.

Pero ImageJ también le permite crear una nueva imagen que puede usar como función de dispersión de puntos. Si hace clic en "Archivo" y luego en "Nuevo", puede crear una imagen de 32 bits de tamaño, digamos, 64 por 64 llena de negro. Luego puede programar una fórmula para los valores de gris seleccionando "proceso", luego "Matemáticas" y luego "Macro". Para obtener la función de dispersión de puntos para este caso que involucra la función de Bessel aquí, puede usar el hecho de que está bien descrita por los primeros términos de la expansión de la serie. La página de MathWorld a la que me vinculé le brinda expansiones de esta serie, por lo tanto, J 1 (x) 2 /x 2 con x = π rs /( λF ) puede reemplazarse por una función de la forma A + B s 2 + C s 4. Esta aproximación dejará de ser válida si s es demasiado grande. Ahora sabemos que el PSF tiende a cero, por ejemplo, a una distancia de unos 5 o 6 píxeles se puede poner a cero. Suponiendo que el polinomio aún es pequeño en estos valores, puede escribir la macro como:

if(d<7) v = A + B  * pow(d,2) +  B * pow(d,4)

Luego crea 3 imágenes para, digamos, lambda = 650 nm, 500 nm y 400 nm, o cualquier otro valor que crea apropiado para representar la difracción en los 3 canales de color. Luego puede hacer el promedio en algunas longitudes de onda diferentes creando imágenes para diferentes lambda y luego seleccionando "proceso", luego "calculadora de imagen", y allí selecciona "agregar". Luego puede agregar otra imagen a este resultado y cuando haya terminado de agregar, puede dividir para obtener el promedio seleccionando "proceso", luego "matemáticas" y luego "dividir".

Eso es un poco asombroso. Me pregunto cuánto tiempo pasará hasta que las cámaras tengan esto incorporado en su arsenal de corrección automática y este tipo de cosas se apliquen de manera rutinaria.
+10 (aunque realmente no puedo hacer +10) por sumar las matemáticas. Es genial que lo hayas agregado. ¿Puede dar alguna cita para esto? Quiero probar esto yo mismo. ¡Cuanto más detalladas sean las matemáticas, mejor!
Eso es realmente bastante asombroso. ¿En qué software hiciste esto? Esto parece que podría ser increíblemente útil para la fotografía macro.
@mattdm La deconvolución requiere bastante potencia computacional, pero algunos algoritmos como la deconvolución de Richardson-Lucy se pueden implementar más fácilmente en el hardware que otros. Además, el software de la cámara que se usa para procesar sus archivos sin procesar en sus computadoras podría incluir una deconvolución que está específicamente optimizada para lidiar con el desenfoque real que se obtiene debido al desenfoque y la difracción.
@CorruptedMyStack Agregaré algunos detalles más en la respuesta. Debería poder hacer un trabajo mucho mejor si tiene el archivo sin formato. Puede buscar el tamaño del sensor y, a partir de ahí, calcular el tamaño del píxel. Pero también puede omitir los cálculos y medir directamente la función de dispersión de puntos tomando fotografías de algún objeto similar a un punto y luego simplemente extraer la función de dispersión de puntos de eso. En caso de difracción, la deconvolución se realiza mejor con los archivos sin procesar, a diferencia de otros casos, ahora tiene franjas de color que no deben corregirse antes de llevar a cabo la deconvolución.
@Whelkaholism Usé el programa ImageJ y un complemento para este programa para hacer la desconvolución. Calculé la función de dispersión de puntos usando Mathematica, pero también se puede hacer usando un software gratuito. Trataré de explicar con más detalle en la respuesta.
@CountIblis Parece un software bastante impresionante. ¿Puede agregar a su respuesta los pasos específicos que tomó para pasar de la foto en la pregunta a la de su respuesta, incluido el complemento exacto que usó?
@CountIblis o ¿Alguien más puede formatear la ecuación en látex editando la respuesta?
los ojos se ponen vidriosos Gracias, pero mis matemáticas no son lo suficientemente buenas para seguir eso :) Si tuviera más tiempo, estaría tentado de intentar escribir algo en lo que simplemente conecte las variables y un JPEG, pero lamentablemente eso no va a suceder. por un tiempo.

Has sobrepasado el límite de difracción . Los rayos de luz que pasan a través de un pequeño orificio divergen e interfieren entre sí y surge un patrón: una especie de banda donde las diferentes frecuencias/ubicaciones pueden hacer que los rayos separados se sumen o se anulen entre sí. Cuanto más pequeña se vuelve la apertura, más grande se vuelve esta divergencia/interferencia. Este patrón se llama disco de Airy. Cuando el diámetro del pico del disco de Airy es mayor que el tamaño de un píxel y los discos de Airy de cada píxel comienzan a fusionarse, obtienes suavidad, por lo que cuanto mayor sea el número de píxeles de tu sensor y más pequeño sea tu sensor, antes Lo veré cuando te detengas.

Por lo general, eres más agudo en un "medio feliz". El "medio feliz" de su equipo cambiará según la densidad/tamaño de píxeles y el diseño de la lente. Con sensores de tamaño APS-C, que inteligentemente detecto que está utilizando a partir de la referencia de lente 17-85, probablemente no quiera pasarse de f/11 sin una muy buena razón y la voluntad de renunciar a algo de nitidez. Los límites de difracción teóricos probablemente estarán en el rango f/5.6-f/8. También querrá averiguar dónde está el "punto óptimo" de su lente: muchos lentes funcionan mejor detenidos 1 o 2 pasos desde la apertura total. Por ejemplo, el "punto óptimo" del EF 50 mm f/1.8 II está en el rango f/4-5.6.

También diría que juzgar la nitidez con un aumento del 200% es solo pedir que todas sus lentes se vean como carne de perro. Esa no es una ampliación realista en términos de distancias de visualización que tendría de una impresión típica, y es una lente rara que resistirá ese tipo de prueba, incluso cuando se usa en su punto óptimo. Deja de espiar píxeles. Empiece a mirar la impresión.

Consulte también: http://www.cambridgeincolour.com/tutorials/difraction-photography.htm

O bien, si está juzgando cómo se vería la impresión, entonces: haga zoom en la imagen de modo que aparezca en la pantalla aproximadamente del mismo tamaño que tendría en la impresión, y mire la pantalla desde aproximadamente la misma distancia que lo haría con la impresión. Eso le dará una idea mucho mejor de cómo se verá el resultado final, aunque no es un método perfecto. @CorruptedMyStack

Por difracción. f/29 es demasiado para esperar una imagen nítida. Intenta disparar lo mismo en f/8 y verás la diferencia.