Profundidad de campo equivalente a la lente [duplicado]

Esta pregunta se transfiere directamente de Physics SE, porque los muchachos creen que este es el lugar adecuado para ella.

En la fotografía digital, existe el principio de equivalencia de lentes, según el cual, cuando disparas con una cámara que tiene un sensor más pequeño que un sensor de cuadro completo (que tiene las mismas dimensiones que una película fotográfica clásica), efectivamente reduce su campo de visión (relativo a disparar con la misma óptica y un sensor de fotograma completo). El recorte resultante de la imagen óptica se asocia con decir que está fotografiando un sensor de fotograma completo, pero una lente con una distancia focal mayor.

Entonces, en términos de la imagen resultante, se debe pensar que la lente tiene una distancia focal de ff (la distancia focal real) multiplicada por el factor de recorte CC asociado con el sensor que se está utilizando (C≥1). todo esto está muy bien intuitivamente, pero luego viene la parte 'rara'.

Se dice que si piensa que su lente tiene una distancia focal fC, entonces también debe pensar en el número f de la cámara como multiplicado por C también. Esto significa que si aumenta su número f (que es proporcional a la apertura numérica), también aumenta la profundidad de campo de la cámara, y seguramente, para un sensor más pequeño, produce una mayor profundidad de campo (para el mismo campo de visión), incluso cuando su número f físico real es el mismo en ambos casos.

¿Cómo pueden dos sistemas ópticos con el mismo f-number\NA tener diferentes profundidades de campo?

Me doy cuenta de que algunos de ustedes podrían decir que está relacionado con el tamaño de píxel de las cámaras, pero es al revés: el sistema con píxeles más pequeños (lo que significa menos tolerancia para la propagación de la PSF) tiene la mayor profundidad de campo. Esto se demuestra mejor en los teléfonos inteligentes de hoy en día, donde para el mismo número f que las cámaras de fotograma completo, las profundidades de campo son mundos diferentes.

¿Cuál es la explicación física de este fenómeno? Mi mejor suposición es que para los sistemas con sensores más pequeños, uno debe colocar la cámara más lejos del objeto para capturar el mismo campo de visión, de modo que los rayos de luz viajen una mayor distancia y, por lo tanto, se vuelvan más paralelos antes de ser recogidos por la óptica, pero me gustaria saberlo con seguridad.

Tienes la sección del medio al revés. Si desea que el DoF sea el mismo, debe mover el número f hacia el otro lado. Una lente FF de 100 mm a f/4 es equivalente a una lente micro cuatro tercios (factor de recorte 2X) de 50 mm a f/2, no a f/8.
Por otro lado, si desea que la exposición sea la misma, use 50 mm en f/4 y obtenga una profundidad de campo más profunda.

Respuestas (6)

Dentro del contexto de la fotografía creativa ( que es como deben entenderse todas las preguntas aquí ), la profundidad de campo (DoF) se define en función de la borrosidad perceptible por el espectador.¹ Cualquier círculo borroso en una imagen en un tamaño de visualización específico y a una distancia lo suficientemente pequeña ser percibido como un punto por un espectador con una agudeza visual definida se considera dentro del DoF. Cualquier círculo borroso lo suficientemente grande como para que el mismo espectador lo perciba como más grande que un punto en el mismo tamaño de visualización y distancia se considera que está fuera del DoF.

Con ese contexto en mente, unas palabras sobre qué es y qué no es la profundidad de campo:

En cierto modo, la profundidad de campo es una ilusión. Sólo hay un plano de enfoque. Todo lo que está delante o detrás del punto de enfoque está fuera de foco en un grado u otro. Lo que llamamos DoF es el área donde las cosas se ven, a nuestros ojos, como si estuvieran enfocadas . Esto se basa en la capacidad del ojo humano para resolver ciertas diferencias mínimas a una distancia determinada. Si el desenfoque ligeramente desenfocado es más pequeño que la capacidad de nuestro ojo para resolver el detalle, entonces parece estar enfocado. Cuando amplía una parte de una imagen haciéndola más grande o acercándose a ella, permite que su ojo vea detalles que antes estaban demasiado juntos para que sus ojos los vieran como partes separadas de la imagen.

Dado que las cosas se vuelven gradualmente más borrosas cuanto más lejos están del punto de enfoque, a medida que aumenta gradualmente la imagen, la profundidad de campo percibida se vuelve más estrecha a medida que los puntos cercanos y lejanos donde sus ojos pueden resolver los detalles finos se acercan al plano de enfoque.

No existe una propiedad física intrínseca que haga que todo dentro de una distancia específica sea 'nítido' y todo lo que esté fuera de esa distancia sea 'borroso'. No existe una línea mágica dentro de la cual todo sea igualmente nítido y fuera de la cual todo sea igualmente borroso. Está la distancia de enfoque que es la 'menos borrosa' y está todo lo demás que se vuelve cada vez más borroso a medida que uno se aleja del punto de enfoque. Dentro del contexto de la fotografía creativa ( que es como deben entenderse todas las preguntas aquí), la pregunta a responder no es "¿Está borroso?" La pregunta que debe responderse es: "¿Está lo suficientemente borroso como para que un espectador con una agudeza visual específica que lo mire con cierto aumento desde cierta distancia pueda decir que está borroso?" O para decirlo de la forma en que la mayoría de la gente en el campo fotográfico lo dice, "¿Es aceptablemente nítido?"

De hecho, puede tomar exactamente la misma foto e imprimirla en dos tamaños diferentes, verlos desde la misma distancia y tendrán diferentes profundidades de campo. Es una transición gradual de nítido a borroso. La cantidad de aumento de la imagen virtual proyectada por la lente en el sensor a medida que la registra el sensor digital determina el tamaño exacto de la borrosidad (medida en el sensor) que podemos percibir cuando la vemos. Hay varias variables que afectan a qué tan lejos del punto de enfoque las cosas comienzan a volverse notablemente borrosas para nuestros ojos.

El desenfoque se vuelve perceptible a distancias más pequeñas desde el punto de enfoque (y, por lo tanto, el DoF percibido es más pequeño) si:

  • Use una distancia focal más larga/ángulo de visión más estrecho
  • Utilice una distancia al sujeto más corta
  • Usa una apertura más amplia
  • Usa un tamaño de pantalla más grande
  • Ver la imagen mostrada desde una distancia más cercana
  • tener una mejor visión

El desenfoque aumenta más gradualmente a mayores distancias desde el punto de enfoque (y, por lo tanto, se percibe que el DoF es mayor) si:

  • Use una distancia focal más corta/ángulo de visión más amplio
  • Use una distancia de sujeto más larga
  • Usa una apertura más estrecha
  • Utilice un tamaño de pantalla más pequeño
  • Ver la imagen mostrada desde una distancia mayor
  • Tener una visión más débil

Además, si el sistema de imágenes tiene una difracción limitada o una resolución limitada, de modo que todo lo que sea más pequeño que un tamaño específico sea igualmente borroso, esto afectará la DoF percibida. Cuando nada se ve como 'nítido', cualquier cosa con la misma cantidad de desenfoque se ve como dentro del DoF.

Para calcular correctamente la profundidad de campo , se deben tener en cuenta todos estos factores. Muchas calculadoras de DoF hacen suposiciones (a menudo tácitas) sobre algunos de ellos. La mayoría de las calculadoras DoF, como DOF Master , asumen un tamaño de pantalla de 8x10 visto desde una distancia de 10 pulgadas por una persona con una visión de 20/20.

Dado que la profundidad de campo depende del tamaño y la distancia de visualización, así como de la agudeza visual del espectador, es difícil que un cálculo de DoF indique la profundidad de campo si no sabe cuál será el tamaño de visualización de la foto. ser. Lo mismo ocurre con las lentes que se pueden usar con diferentes cámaras que tienen diferentes tamaños de sensor. La escala DoF para la misma lente será diferente para una cámara APS-C que para una cámara Full Frame si planeamos mostrar imágenes de ambas al mismo tamaño y distancia.

Asumir que el círculo de confusión estándar utilizado para una imagen producida con un sensor de 36x24 mm, mostrada a 8x10 y vista a 10 pulgadas por una persona con visión 20/20 predecirá con precisión la DoF percibida para la mayoría de las imágenes es demasiado amplio en el entorno actual. La revolución de la fotografía digital prácticamente ha eliminado cualquier idea de un tamaño de pantalla estándar y distancia de visualización. Para que los cálculos de profundidad de campo sean precisos, deben basarse en todas las variables enumeradas anteriormente, incluido el tamaño de la pantalla y la distancia de visualización, así como la distancia focal, el número f y el ángulo de visión determinados por el tamaño del sensor (que afecta directamente la relación de ampliación necesaria para mostrar una imagen en un tamaño específico). que es 'aceptablemente agudo' cuando se ve a escala para que quepa completamente en un monitor, será diferente al mismo archivo de imagen visto al 100 % (1 píxel de imagen equivale a un píxel de pantalla). Ver una imagen de 24MP en un monitor HD de 23" (1920x1080) al 100 % es como mirar una pequeña parte de una impresión de 60x40".

Si desea tener en cuenta los diferentes tamaños y distancias de visualización, puede usar la Calculadora de profundidad de campo flexible de Cambridge en color y hacer clic en Mostrar avanzado para ingresar esas variables.

Ahora, veamos la idea de equivalencia verdadera:

No hay tal cosa.

  • Cuando cambiamos el tamaño del sensor de la cámara y la distancia focal de la lente, no cambiamos la longitud de onda de la luz visible. La luz no escala en las mismas proporciones que nuestras lentes/cámaras. Específicamente con respecto a la pregunta, el mismo número f en un teléfono inteligente con una distancia focal de 3,3 mm que produce el mismo FoV que una cámara FF con lente de 25 mm es 7,2 veces más estrecho. Si estamos usando f/1.8 la lente FF tiene una apertura de 13.9 mm de ancho. El smartphone tiene una apertura de 1,83 mm de ancho. Sin embargo, el tamaño de las ondas de luz que intentan pasar a través de ese agujero de 1,83 mm NO son 7,2 veces más pequeñas que las ondas de luz que pasan a través de ese agujero de 13,9 mm. Los efectos de la difracción tendrán un impacto sustancial en la imagen proyectada en el sensor más pequeño del teléfono inteligente en comparación con la imagen proyectada en el sensor FF porque un porcentaje mucho mayor de los rayos de luz que atraviesan la apertura más pequeña del teléfono inteligente se dispersarán al interactuar con los bordes de la superficie. del diafragma de apertura. Los rayos de luz viajan en ondas, no en línea recta como nos gusta dibujarlos en los diagramas de rayos.
  • No podemos cambiar la posición de la cámara sin cambiar también la perspectiva que depende únicamente de la posición de la cámara y las posiciones relativas de todo en el campo de visión. Para obtener la misma foto, el centro óptico de la lente de la cámara debe estar en la misma ubicación para ambas cámaras. Para obtener una foto 'equivalente' debemos usar diferentes distancias focales que estén en las mismas proporciones que las medidas lineales de los sensores.
  • Cuando cambiamos el número f para compensar los cambios combinados en el aumento y la distancia focal, también cambiamos la exposición. Para mantener la exposición constante con el mismo ISO y tiempo de obturación, no podemos cambiar el número f en absoluto. Si cambiamos el tiempo de obturación para compensar la diferencia en el número f, cualquier escena que incluya objetos en movimiento (o cualquier imagen tomada con la cámara en movimiento) ya no se verá igual. No olvides que un número f es una relación adimensional entre la distancia focal de una lente y el diámetro de la pupila de entrada .. También tenga en cuenta que cualquier apertura mayor que f/13.6 con la lente de 25 mm para la cámara FF se verá menos afectada por la difracción que la lente de 3.3 mm a f/1.8 en el teléfono inteligente. Y eso es incluso antes de que comencemos a considerar la diferencia en el tamaño de los píxeles entre las dos cámaras.

La profundidad de campo tiene que ver con los ángulos y si el ángulo más estrecho que el espectador puede discriminar es mayor o menor que el ángulo entre los detalles discretos más pequeños en una fotografía tal como se ven.

A menos que me esté perdiendo algo, no has respondido a mi pregunta. De cualquier manera, el DOF verdadero existe, y tiene una definición física bien definida, que es muy independiente del observador (no entraré aquí). No hay ilusión en un teléfono inteligente y una DSLR de cuadro completo que tienen el mismo f # (que supuestamente determina su DOF), pero dado el mismo FOV, los dos producirán un DOF muy diferente.

Dentro del contexto de la fotografía creativa ( que es como deben entenderse todas las preguntas aquí ), la 'definición física bien definida' solo sería aplicable si la imagen se amplía lo suficiente como para que el espectador pueda discriminar píxeles individuales en la imagen. En el caso del hardware actual, eso requeriría ampliaciones y distancias de visualización mucho más allá de lo habitual.

A una distancia de visualización de un pie, una persona con una visión de 20/15 puede resolver solo alrededor de 290 ppp. A las 8 pulgadas es de 440 ppp. Por lo tanto, la imagen de una cámara como la Nikon D810 tendría que ampliarse a 25x17 pulgadas y aún así verse desde una distancia de solo 12 pulgadas antes de que el círculo de confusión se reduzca al mismo tamaño que el tamaño de píxel de la cámara. Para mostrar esa imagen a máxima resolución, se necesitaría un monitor de 30 pulgadas con una resolución de 7360x4912 (es decir, un tamaño de píxel de 290 ppi). Los monitores típicos de 30 pulgadas tienen resoluciones de solo alrededor de 1920x1080, que es alrededor de 75-80 ppp.Entonces, incluso mirando la cosa con una lupa, no podríamos discriminar detalles más pequeños que aproximadamente 4 píxeles de ancho (en el archivo de imagen original de 7360 píxeles de ancho antes de que se redujera para mostrarse a 1920 píxeles de ancho). Pero, ¿quién mira un monitor de 30 pulgadas a solo un pie de distancia? Cuando retrocedemos a una distancia de visualización más típica de dos a tres pies, el círculo de confusión crece aún más y aumenta la DoF percibida.


¹ De los comentarios:

La profundidad de campo es cualquier cosa menos subjetiva. Se puede cuantificar utilizando funciones de dispersión de puntos y el criterio de Reighley para resolución óptica.

Edité la respuesta para dejar más claro que dentro del contexto de la fotografía creativa, que es de lo que trata todo este sitio, la percepción de desenfoque por parte del espectador es el factor determinante en la definición de DoF. Cualquier definición de DoF que incluya diferencias demasiado pequeñas para ser percibidas por el espectador es discutible dentro del contexto de la fotografía creativa. Incluso si un sistema óptico y/o medio de grabación es capaz de una resolución mucho más alta de lo que el espectador puede percibir, esos detalles son irrelevantes cuando se habla de DoF dentro del contexto de la fotografía creativa.

Las funciones de dispersión de puntos y los criterios de Reighley son útiles para definir los límites absolutos dentro de los cuales un sistema óptico puede discriminar detalles. Pero deben tener en cuenta todos los factores limitantes en un sistema óptico.

En el contexto de un ser humano que ve una fotografía, el factor más limitante en todo el sistema suele ser la capacidad del ser humano para percibir la diferencia entre pequeñas cantidades de desenfoque y puntos.

A menos que me esté perdiendo algo, no has respondido a mi pregunta. De cualquier manera, el DOF verdadero existe, y tiene una definición física bien definida, que es muy independiente del observador (no entraré aquí). No hay ilusión en un teléfono inteligente y una DSLR de cuadro completo que tienen el mismo f # (que supuestamente determina su DOF), pero dado el mismo FOV, los dos producirán un DOF muy diferente.
@YuvalWeissler Sí, lo hizo. Probablemente no entendiste su respuesta detallada. Usé los términos técnicos con mi breve duplicado de Michael.
@ Yuval Weissler: Lamento informar que la profundidad de campo es subjetiva. Sin embargo, la industria suele utilizar: Distancia cercana P/1+PDf/F^2 Distancia lejana P/1-PDf/F^2 P= punto enfocado --- D = diámetro del círculo de confusión --- f = f- número --- F = distancia focal
La profundidad de campo es cualquier cosa menos subjetiva. Se puede cuantificar utilizando funciones de dispersión de puntos y el criterio de Reighley para resolución óptica.
@YuvalWeissler He editado la respuesta para aclarar que en el contexto de la fotografía creativa, que es de lo que trata todo este sitio, la percepción de desenfoque por parte del espectador es el factor determinante en la definición de DoF. Cualquier definición de DoF que incluya diferencias demasiado pequeñas para ser percibidas por el espectador es discutible dentro del contexto de la fotografía creativa. Incluso si un sistema óptico y/o medio de grabación es capaz de una resolución mucho más alta de lo que el espectador puede percibir, esos detalles son irrelevantes cuando se habla de DoF dentro del contexto de la fotografía creativa.

ellos no

Para cualquier sistema de lentes dado, nada cambia a excepción del tamaño de la imagen debido al sensor reducido. La distancia hiperfocal sigue siendo la misma. El círculo de confusión sigue siendo el mismo.

Prueba: haga dos impresiones de la misma escena con el mismo tamaño de imagen (para compensar el tamaño reducido del campo del sensor) y las diferencias serán insignificantes.

Tu percepción de las dos imágenes no compensadas es lo que te confunde.

La profundidad aparente del plano de enfoque parece reducida debido al mayor tamaño de la impresión/pantalla. Los puntos fuera de foco se pueden observar y discriminar más fácilmente a medida que se amplían y se vuelven más evidentes.

El tamaño del círculo puede permanecer igual en el plano de la imagen; sin embargo, el formato más pequeño requiere más aumento para obtener la imagen mostrada del mismo tamaño. Por lo tanto, el tamaño del círculo para el formato más pequeño es más estricto. Si el factor de recorte (ampliación) es 1,5, el formato más pequeño requiere un círculo más pequeño en el plano de la imagen. Esto será 1/1.5 X 100 = 66%. En otras palabras, el requisito del formato más pequeño es el 66% del más grande en cuanto al tamaño del círculo.
Correcto, un sensor más pequeño NO es lo mismo. . El círculo de desenfoque puede permanecer igual en un sensor recortado (con la misma lente y las mismas distancias), pero el CoC como límite se calcula a partir de la diagonal del sensor, por lo que el CoC como límite NO permanece igual en un sensor recortado. Por lo tanto, Hyperfocal y DOF NO siguen siendo los mismos en un sensor recortado (porque, por supuesto, el sensor más pequeño requiere más aumento para compararse de manera similar).
Cuando se compara la diagonal de una cámara FF con la diagonal de un teléfono inteligente con un sensor de 1/3"-1/3,6", el CoC cambia en un factor de 7-8 más o menos.

¿Cómo pueden dos sistemas ópticos con el mismo f-number\NA tener diferentes profundidades de campo?

Me doy cuenta de que algunos de ustedes podrían decir que está relacionado con el tamaño de píxel de las cámaras, pero es al revés: el sistema con píxeles más pequeños (lo que significa menos tolerancia para la propagación de la PSF) tiene la mayor profundidad de campo. Esto se demuestra mejor en los teléfonos inteligentes de hoy en día, donde para el mismo número f que las cámaras de fotograma completo, las profundidades de campo son mundos diferentes.

¿Cuál es la explicación física de este fenómeno?

TL; DR: El tamaño del círculo de confusión en el sensor de imagen se reduce cuadráticamente con el factor de recorte, a diferencia de la longitud focal de la lente y la reducción lineal diagonal del sensor con el factor de recorte.


Dado que esta pregunta surgió a través de Physics.SE, voy a dar la respuesta orientada a la ecuación a su pregunta.

El artículo de profundidad de campo de Wikipedia nos proporciona ecuaciones útiles para los límites de profundidad de campo cercano y lejano, D n y DF , respectivamente. Para los propósitos de nuestro trabajo, cualquier ecuación funcionará (obtendremos la misma respuesta); Voy a usar la ecuación para el límite cercano de la profundidad de campo:

Ecuación de profundidad de campo cercana

dónde

  • ƒ es la distancia focal de la lente;
  • N es el número f de la lente;
  • s es la distancia al sujeto (el centro desde la pupila de entrada de la lente hasta el plano de enfoque);
  • c es el diámetro del círculo de confusión en el plano de la imagen (es decir, el sensor), que es una función de la nitidez aceptable mínima deseada de una imagen vista en un cierto tamaño desde una distancia elegida. Para un formato de fotograma completo de 35 mm, este número suele estar entre d /1500 – d /1730 (donde d es la diagonal del sensor), lo que corresponde a una resolución de unas 5 líneas por mm en una impresión de 30 cm de diagonal.

Comparando dos sistemas de cámara diferentes relacionados por el factor de escala/recorte k ( se elige k porque c ya se está utilizando), ƒ 2 = ƒ 1 / k ; ƒ 1 es la distancia focal de referencia (p. ej., formato de fotograma completo de 35 mm) y ƒ 2 es el formato escalado (p. ej., APS-C, en cuyo caso k = 1,5 (Nikon) o 1,6 (Canon)).

Ahora, su pregunta espera que dos sistemas de cámara con números f iguales N 1 = N 2 , lógicamente deberían producir profundidades de campo iguales, y se pregunta por qué no son iguales. Además, la distancia del sujeto para cada cámara es igual, lo que significa que estamos fotografiando la misma escena con la misma distancia de enfoque del sujeto; de lo contrario, no estamos comparando manzanas con manzanas.

Entonces, tomando dos copias del límite cercano de la ecuación de profundidad de campo, D n 1 y D n 2 , sustituyendo ƒ 2 = ƒ 1 / k , e igualándolas entre sí,

Igualar profundidades de campo cercanas

Rendimientos de álgebra

Ecuación para el círculo de confusión del sensor recortado

Mirando el segundo término racional a la derecha, para distancias no macro, s >> ƒ 1 . Por ejemplo, con una lente de 50 mm, un retrato bastante cercano a 1 m es 20 veces más grande que la distancia focal de la lente. Y para una cámara con sensor de recorte (mirando el denominador), para obtener el mismo campo de visión, la diferencia es aún mayor. Por lo tanto, para distancias no macro, este segundo término completo se aproxima a la unidad tanto para aumentar el factor de recorte k como para aumentar la relación entre la distancia del sujeto y la distancia focal s /ƒ.

Por lo tanto, c 2c 1 / k ².

Entonces, para números f fijos entre dos sistemas de cámara que toman la misma imagen con el mismo encuadre del mismo sujeto y enfoque, para que las profundidades de campo sean idénticas, a medida que disminuye la distancia focal y la diagonal del sensor por el factor de recorte k , debes disminuir el diámetro del círculo de confusión en k ².

Al hacer esto, rápidamente chocará con los límites:

  1. Otra medida que no fue escalada por el factor de cultivo en los sistemas comparados es la longitud de onda de la luz. Un límite inferior estricto para el diámetro del círculo de confusión es el diámetro del disco de Airy producido por la difracción de la luz a través de una abertura circular. El tamaño del disco de Airy es una función de la longitud de onda de la luz y el número f. La longitud de onda de la luz es, por supuesto, independiente del sistema de cámara, y el número f ha sido fijado por las limitaciones de este escenario.

    Por ejemplo, un CoC de d /1730 para una cámara de fotograma completo de 35 mm es de 0,025 mm. El iPhone 7 tiene un factor de recorte de alrededor de 7,21 para su pequeño sensor. Entonces, para cumplir con las restricciones de este escenario, su CoC tendría que ser 7,21² = 52 veces más pequeño , a 0,48 µm. Al elegir una apertura de ƒ/1.8 (la apertura del iPhone 7), el disco Airy producido por la luz violeta es de alrededor de 922 nm, o el doble de la restricción de diámetro CoC de este escenario.

  2. Por supuesto, las restricciones de ingeniería también impiden escalar fácilmente. Los tamaños de píxeles del sensor no pueden reducirse de forma factible según el factor de recorte. Por ejemplo, el ancho de píxel del sensor de la Nikon D810 mencionado anteriormente es de 4,88 µm, aproximadamente 5 veces más pequeño que el tamaño de CoC "típico" de 35 mm de d /1730.

    El ancho de píxel del sensor de 1,12 µm del iPhone es 2,3 veces más grande que el diámetro de CoC "requerido" para este escenario. Y también tenga en cuenta que la comparación no es idéntica: el D810 tiene 36 megapíxeles, frente a los 12 MP del iPhone 7.

    Entonces, incluso sacrificando la resolución para compensar el factor de escala CoC, el iPhone 7 tiene una difracción limitada (por el disco Airy) y aún no resuelve los requisitos del escenario de comparación.

Son estos límites inferiores, tanto de la física como de la ingeniería fundamentales, los que mantienen alta la profundidad de campo a medida que reduce los sensores de la cámara.

"El tamaño del disco Airy es una función de la longitud de onda de la luz y el número f". En realidad, es una función de la longitud de onda de la luz y el diámetro real del diafragma físico (así como la forma de la abertura cuando no es perfectamente circular), en lugar del diámetro de la pupila de entrada utilizada junto con la distancia focal. para determinar el número f. Como la luz es refractada por una lente, las longitudes de onda no cambian, solo cambia la densidad de las ondas de luz.
Esta respuesta va de la manera que estaba buscando, así que gracias de inmediato :) Entonces, por lo que deduzco, su respuesta apunta a mi sospecha de que el DOF es diferente para los dos sistemas (con el mismo f#) debido a la diferencia distancias del sujeto, ¿correcto?
@MichaelClark usando el número f es una aproximación aproximada decente. Precisamente, el seno del ángulo resoluble mínimo es igual a ~1,22 veces la longitud de onda/diámetro de apertura: sen 𝜃 = 1,22 λ / d . 1.22 es el primer cero de J_<sub>1</sub>, la función de Bessel de primer tipo. Pero sen 𝜃 es solo la relación entre la distancia espacial de resolución justa y la distancia desde la apertura. Si usa la distancia focal de la lente ƒ como la distancia a la apertura como un sustituto aproximado, entonces _x / ƒ = 1.22 λ / d --> x = 1.22 λ * ƒ/_d_. Pero ƒ/_d_ es solo un número f. Por tanto, x = 1,22 λN.
@YuvalWeissler Si entiendo bien su pregunta, entonces no. Dos cámaras con el mismo campo de visión (digamos, fotograma completo de 35 mm con lente de 75 mm y recorte de 35 mm 1.5 (Nikon) con lente de 50 mm), ambas tomando la misma imagen del mismo sujeto, encuadradas de manera idéntica, estarán a la misma distancia del sujeto . Es la distancia entre la lente y el sensor la que se acorta cuando reduce el sistema pero mantiene la misma distancia del sujeto.
@YuvalWeissler Por ejemplo, el iPhone 7 tiene una distancia focal de 2,87 mm, que en su sensor tiene el mismo ángulo de visión que una lente de 32 mm en un sensor de cuadro completo de 35 mm. Con ambas cámaras, pararse en el mismo lugar tomando una foto de, digamos, la Torre Eiffel, producirá la misma perspectiva, el mismo campo de visión, etc. El iPhone no tiene que acercarse. Dado que el CoC del iPhone 7 es el factor limitante, usaría un CoC enorme en la DSLR para producir una imagen de profundidad de campo "equivalente".
Olvidaste mencionar el f#. En su ejemplo, ¿ambos sistemas tienen el mismo f#?
Por supuesto. El número f del iPhone es 1.8. Así que configuramos la lente de la DSLR a ƒ/1.8 también. Para el comentario anterior donde mencioné dos DSLR diferentes, nuevamente, solo configuramos la apertura en el mismo valor.
Si la apertura máxima del iPhone es f/1.8, el número f equivalente para la cámara FF es de alrededor de f/13. Ahí es donde radica la mayor diferencia: las lentes para la cámara FF usadas en aperturas mucho más amplias que f/13 (como f/8 o incluso f/1.8) significa que los sistemas tienen mucha menos limitación de difracción que el iPhone, incluso cuando las diferencias en pixel pitch se tienen en cuenta. No existe tal cosa como la verdadera equivalencia en la fotografía.
@MichaelClark de hecho. El cultivo al cuadrado en mi respuesta produce un CoC ridículamente pequeño solo debido al estricto número f igual del "experimento". En la práctica, puede "quitar" uno de esos factores de recorte y aplicarlo para obtener un número f equivalente y obtener comparaciones mucho más sensatas. Básicamente, las restricciones artificiales del escenario inundan el sistema de la única forma en que puede manifestarse. Pero incluso cuando se tiene en cuenta el número f equivalente, el punto de todos (como en su respuesta) aún se aplica: el "principio de equivalencia" no es tan equivalente cuando abre la cortina.

Una explicación simple: el desenfoque que obtienes fuera del plano de enfoque está directamente relacionado con el tamaño absoluto de la pupila de entrada de tu lente. Entonces, cuando reduce el tamaño de cada elemento de su cámara (sensor y lente), también reduce el tamaño de la pupila y, por lo tanto, aumenta el DoF. Si desea un DoF constante, debe mantener constante el tamaño de la pupila. Pero dado que el tamaño de la pupila generalmente se expresa como número f, es decir, proporcionalmente a la distancia focal (f/2.8 significa que "el tamaño de la pupila es igual a la distancia focal dividida por 2.8). Entonces, para mantener un tamaño de pupila constante mientras se reduce la distancia focal, necesita aumentar el número f.

Obviamente, no siempre se puede reducir el número f. Para obtener el equivalente de una lente f/1.4 en un marco completo con un iPhone, por ejemplo, necesitaría una lente f/0.2, y no creo que nadie haya construido una lente así). Entonces, básicamente, no puede obtener el equivalente a una lente de fotograma completo f/1.4 en un teléfono inteligente.

En resumen, si necesita aumentar/reducir el número f tanto como aumenta/reduce la distancia focal para mantener constante la profundidad de campo.

La profundidad de campo está entrelazada con el grado de aumento necesario para ampliar la imagen real (dimensiones del chip de imagen) a un tamaño adecuado para su visualización. Con esto en mente, la mayoría de las tablas de profundidad de campo asumen que el resultado final será una impresión de 8X10 pulgadas. Ahora, el venerado tamaño de película de 35 mm es de 24 mm de alto por 36 mm de largo. Para hacer un 8X10 de este formato se requiere una magnificación (ampliación) de 8.5X. El formato digital compacto también se basa en un tamaño de película popular en la década de 1990. Este formato APS-C (Advanced Photo System – Classic) mide 16 mm de alto por 24 mm de largo. Para comparar, dividimos las dos medidas diagonales. Así 43,3 ÷ 28,8 = 1,5. Este valor es el factor de recorte o aumento. Para hacer la misma imagen final de 8X10, la ampliación (grado de ampliación es 8,5 X 1,5 = 12,75X. En otras palabras, se requiere más ampliación si el formato es más pequeño,

Así que ahora abordamos cómo se calcula la profundidad de campo:

La lente de la cámara ve una vista como si estuviera formada por innumerables puntos de luz. Un punto es algo tan pequeño que no tiene una dimensión perceptible. La lente maneja cada punto y los proyecta como un pequeño círculo. Estos son los innumerables círculos de confusión que componen una imagen óptica. Bajo un microscopio, estos círculos aparecen como indistintos y superpuestos, de ahí el nombre de "círculos de confusión". Percibimos una imagen nítida si estos círculos son demasiado pequeños para ser percibidos como discos. Por ejemplo, las fotos de los periódicos parecen poco nítidas porque los puntos de tinta que las componen son demasiado grandes.

Entonces, ¿qué se necesita para convertir estos círculos en adimensionales? La industria de la fotografía generalmente acepta que un círculo de confusión se percibirá como un punto cuando su diámetro es de ½ mm o menos visto desde 500 mm. Eso da como resultado 3,4 minutos de arco. El argumento clave es que los círculos deben ser tan pequeños que parecen adimensionales. Esto es bastante complejo porque esta circunstancia entrelaza la distancia de visualización. Además, entrelaza el contraste de la imagen, el nivel de iluminación de visualización y la agudeza del observador. En otras palabras, la nitidez de la imagen es subjetiva "en el ojo del espectador".

Ahora suponga que está haciendo un 8X10 a partir de un formato de fotograma completo de 35 mm de 24 mm por 36 mm. Como se indicó, el aumento mínimo es 8.5X. ¿Qué tan pequeños deben ser los círculos de confusión en el plano de la imagen? Respuesta 0,5 mm ÷ 8,5 = 0,06 mm. Para hacer una imagen comparable a partir de un digital compacto de 16 mm por 24 mm, el tamaño del círculo debe ser de 0,5 mm ÷ 12,75 = 0,04 mm. Lo que hemos aprendido es que el tamaño del círculo para el digital compacto, tal como lo proyecta la lente, debe ser el 66 % del tamaño del cuadro completo (1/1,5 X 100 = 66 %).

¿Cómo se las arregla la industria a la hora de calcular las tablas de profundidad de campo? La industria utiliza una fracción de la distancia focal. La mayoría de las tablas de profundidad de campo se calculan utilizando 1/1000 de la distancia focal. Este método, como regla general, tiene en cuenta aproximadamente la ampliación que probablemente se utilizará para hacer la impresión final y una estimación aproximada de la distancia de visualización. Ahora, para trabajos críticos, el estándar Leica es 1/1500 de la distancia focal, el estándar Kodak es 1/1750 de la distancia focal.

Usando el estándar 1/1000, monte una lente de 50 mm y la profundidad de campo se calculará en función de un tamaño de círculo de 50 ÷ 1000 = 0,05 mm. ¿Cuál será el tamaño del círculo para un 8X10? Respuesta 0,05 X 8,5 = 0,43 mm (la imagen aparece nítida. Para el compacto digital montamos un 30 mm. Usando 1/1000 como tamaño del círculo, 30 ÷ 1000 = 0,03 mm. ¿Cuál será el tamaño del círculo para un 8X10? Respuesta 0,03 X 12,75 = 0,38 mm (la imagen aparece nítida. Recuerde que 0,5 mm es el límite para una distancia de visualización de 500 mm.

¡No sé ustedes, pero yo veo esto como un galimatías!

La equivalencia de lentes no es un principio. Es un término de marketing. De alguna manera equivale al campo de visión, pero tampoco es un principio. Es solo el nombre de una característica particular de una configuración óptica.

La confusión detrás de la pregunta es que entremezcla los términos psicométricos con términos de la física newtoniana, por ejemplo, "distancia focal" de la física newtoniana y el término psicométrico "profundidad de campo". En un contexto particular con un propósito particular, puede ser posible mapear las características de profundidad de campo a la información y luego aplicar la teoría de la información de una manera consistente con la física newtoniana. Pero solo después de establecer criterios para juzgar la calidad de los fotones capturados de una escena en particular como señal a ruido.

La práctica de la fotografía es fuertemente empírica. Eso no eleva la Regla de los Tercios al nivel de principio científico... no es la Tercera Ley de la Termodinámica.