¿Cómo se relacionan la profundidad de campo y el círculo de confusión con el tamaño de píxel en el sensor?

He estado leyendo acerca de la profundidad de campo y presumo tener una comprensión suficiente de lo que significa y cómo se relaciona con las propiedades de la lente, la apertura de la lente, la distancia focal, el tamaño del formato del sensor y probablemente incluso las dimensiones de impresión en caso de que se esté tomando la imagen. impreso. Tengo una pregunta sobre cómo/si la profundidad de campo depende de la dimensión de un píxel. Permítanme elaborar:

Dados dos sensores con diferentes tamaños de píxeles: x y 4x, el último sensor integra más luz por píxel que el primero; sin embargo, podría tener una resolución más baja si las dimensiones del sensor permanecen fijas. La teoría sugiere que la profundidad de campo está determinada por esos círculos de confusión que están muy cerca de ser un punto de enfoque, y esto quizás también signifique que estos CoC muy pequeños caen dentro del área de integración del mismo píxel. Ahora, cuando un CoC se vuelve más grande que un píxel (como también en el caso de la borrosidad por difracción), hay cierta dispersión de intensidades entre los píxeles vecinos y esto claramente conduciría a la borrosidad. Sin embargo, si uno estuviera usando el píxel de tamaño 4X, incluso con un CoC un poco más grande, la intensidad aún se integraría en la misma área de píxeles y, por lo tanto, tal vez estaría enfocada. ¿Es esta la suposición correcta? Y de ser así, ¿Hay algún análisis de la dependencia del área de píxeles de la profundidad de campo? Además, la profundidad de campo es, en cierto sentido, independiente del medio de integración, como ocurre claramente también en los dispositivos de película analógica, por lo tanto, ¿existe una compensación o una diferencia en la profundidad de campo entre las cámaras de película y las digitales?

Indíqueme las referencias correctas para esta pregunta. Corríjame si parece haber un problema fundamental con las suposiciones hechas anteriormente.

De hecho, podemos llevar los ejemplos de lo teórico a lo práctico: la Sony Alpha 7R ii y la 7S ii son modelos de cámara de fotograma completo nuevos en la segunda mitad de 2015, con 42 y 12 megapíxeles respectivamente. Son tamaños de píxeles de aproximadamente 20 µm² y 70 µm², casi 4 veces en un ejemplo actual del mundo real.
La imagen de la lente puede contener problemas de profundidad de campo y difracción, pero esta imagen de la lente es lo que es, y es todo lo que tenemos. El tamaño de píxel simplemente determina la resolución de muestreo digital para reproducir esta imagen de lente analógica. El tamaño de píxel NO es lo mismo que la resolución de imagen de la lente. Cuanto más pequeño es el píxel, mayor es la resolución de muestreo digital y mejor reproducción de la imagen de esa lente. Más es mejor, no puede ser demasiado. Reproducir la difracción que existe, o el círculo de confusión que existe, es solo una mejor reproducción, mejor que no reproducirla, y no un problema en sí mismo.

Respuestas (3)

Para comprender cómo el paso de píxeles de una cámara puede afectar la profundidad de campo (DoF) , primero debe comprender qué es DoF y qué no es.

Independientemente de la apertura de una lente, solo habrá una distancia que estará enfocada. Es decir, solo habrá una distancia en la que una fuente puntual de luz se enfocará en un solo punto en el medio de grabación. Las fuentes puntuales de luz a otras distancias se proyectarán en el plano del sensor (o película) como un círculo borroso o círculo de confusión (CoC). Si este CoC es lo suficientemente pequeño para ser percibido como un punto por la visión humana en un tamaño y distancia de visualización específicos, se dice que está dentro del DoF. Los límites de DoF cambian según la apertura, la distancia focal y la distancia de enfoque, así como el tamaño de visualización y la distancia de visualización de la imagen. Puede imprimir dos copias del mismo archivo de imagen y si una persona con la misma agudeza visual muestra una con el doble de tamaño que la otra a la misma distancia de visualización, la impresión más pequeña parecerá tener más DoF que la más grande ( suponiendo que la resolución del archivo de imagen en sí no es el factor limitante ). No existe una barrera mágica en la que todo lo de un lado esté perfectamente enfocado y todo lo que esté fuera de esa línea esté borroso. Más bien, como la distancia desde el verdadero punto de enfoqueaumenta, también lo hace el tamaño del círculo de desenfoque y gradualmente comenzamos a percibir que los objetos no son absolutamente nítidos.

Su comprensión fundamental de cómo se crea una imagen a partir de los datos de un sensor con una máscara de Bayer delante (la gran mayoría de las cámaras digitales) no es del todo precisa. No existe una correlación directa entre un solo sensor (pozo de píxel) en un sensor de Bayer y un solo píxel en una imagen producida a partir de los datos proporcionados por ese sensor. Los números para cada color de cada píxel en la imagen producida se interpolan a partir de los datos producidos por múltiples sensores adyacentes.

También asume, incorrectamente en la mayoría de los casos de uso, que un desenfoque de dos píxeles será detectable en distancias y tamaños de visualización típicos. no será Un círculo típico de confusión para las cámaras FF es de 0,03 mm (30 µm). Un sensor FF típico de 20 MP tiene píxeles de alrededor de 6,5 µm de ancho. Incluso teniendo en cuenta la cuadrícula de 2x2 de píxeles enmascarados RGGB utilizados para producir 4 píxeles RGB en la imagen producida, el ancho de 13 µm de una celda de 2x2 sigue siendo menos de la mitad del ancho del CoC de 0,03 mm necesario para una impresión de 8x10 vista a 10-12 pulgadas por una persona con visión 20/20. La mayoría de las cámaras APS-C tienen píxeles que miden un poco más de 4 µm de ancho. Por lo tanto, el CoC recomendado para un sensor APS-C de alrededor de 0,019 mm sigue siendo más del doble de ancho que las celdas 2x2 en un sensor APS-C típico.

Si el sensor teórico en su pregunta con píxeles 4 veces más grandes es lo suficientemente grande como para limitar la resolución percibida de la imagen, entonces todo en la imagen con un CoC más pequeño que los límites de resolución del sensor parecerá estar igualmente enfocado a expensas de aparecer igualmente pixelados/borrosos. Esto ocurriría cuando el CoC necesario para un tamaño de pantalla y una distancia de visualización determinados es inferior al doble del ancho de la distancia entre píxeles del sensor de la cámara. Sin embargo, no sería un límite estricto, sino el punto en el que gradualmente empezamos a percibir que la imagen está formada por píxeles individuales que nuestros ojos pueden discriminar.

Gracias por tu respuesta. Claramente, no había considerado el hecho de que el mosaico y la interpolación posterior desconectan los valores de píxeles de las intensidades de luz reales que caen sobre el sensor. Además, fue interesante notar el hecho de que un desenfoque de dos píxeles sería imperceptible.
Si uno conectara esto con la fotografía limitada por difracción, donde se usa una descripción analítica similar de la luz que se agrega en un píxel del sensor, ¿cómo debería uno entender lo que está sucediendo allí? Porque solo cuando un solo rayo de luz se propaga a "un tamaño mayor que un píxel" comenzamos a observar los efectos del desenfoque por difracción. ¿En qué se traduce esto en términos de tamaños reales de píxeles?
Las aperturas limitadas por difracción para cámaras digitales generalmente se calculan con la suposición de que las condiciones de visualización son más críticas que las que se suponen al calcular círculos de confusión. Específicamente, se supone que la imagen se está viendo al 100% en un monitor. Para la mayoría de los sensores enmascarados de Bayer, la resolución "real" en términos de líneas por pulgada que se puede resolver a partir de un gráfico de prueba después de la demostración es de aproximadamente √2 x ancho de píxel. Por lo tanto, un sensor Bayer de 20MP puede resolver tan bien como un sensor monocromático de 10MP en términos de contraste de líneas en blanco y negro si la lente está a la altura.

Creo que tu razonamiento es correcto.

El problema proviene de personas que mezclan términos abstractos con sus experiencias sin comprender realmente el significado de los términos.

círculo de confusión (CoC) (en alemán: "Unschärfekreis")

es uno de estos términos. La traducción literal del alemán significa: "círculo de falta de nitidez", que en mi humilde opinión es una mejor descripción (y la razón por la que lo he incluido). Asi que. ¿De qué se trata esto?

Como fotógrafo , es fácil saber si una imagen está enfocada o no: simplemente mírela y vea si está enfocada. Pero su esposa (o sus hijos o sus clientes) pueden tener una opinión muy diferente sobre esta imagen.

Como científico , desea hechos concretos que se apliquen a todos: una herramienta que le indique si una imagen está enfocada o desenfocada sin importar las circunstancias.

Lo que debemos entender es lo siguiente:

CoC no es un valor que de alguna manera se calcula o fija, se asume caso por caso.

Como tal, el CoC pone un número preciso a la opinión del fotógrafo. Para el científico es una muleta para convertir las "cosas esponjosas" en un número preciso. Con este número preciso, el científico puede usar las fórmulas ópticas y calcular la profundidad de campo para situaciones específicas.

Cuando estudiamos óptica geométrica, aprendemos que la lente forma una imagen nítida de un objeto a una distancia dada aguas abajo de la lente; los objetos a diferentes distancias no tendrán una imagen tan nítida porque sus imágenes a las distancias de la lente serán diferentes. En otras palabras, un objeto en el infinito (∞), se enfoca más cerca de la lente que un objeto cercano. Sin embargo, la observación práctica revela que los objetos que se encuentran delante y detrás del punto enfocado a menudo aparecen nítidos. Por lo tanto, tenemos una zona hacia adelante y hacia atrás del punto enfocado que se percibe como un enfoque satisfactorio. Esta es la zona de profundidad de campo.

Ahora la lente toma imágenes de cada punto de los distintos sujetos y los representa como pequeños círculos en el plano focal. El término para estos es "círculos de confusión". Llamados así porque se superponen y se entremezclan y bajo el microscopio aparecen como círculos indistintos con el borde festoneado. Percibimos que una imagen, o parte de una imagen, es nítida cuando estos círculos de confusión son tan pequeños que no se observan como círculos, es decir, aparecen como puntos sin forma inhabilitable.

Los círculos diminutos aparecen como puntos cuando se ven desde una distancia de unas 3000 veces su diámetro. Una moneda de 1 pulgada vista desde 3000 pulgadas aparece como un punto (25,4 mm vista desde 76 metros). Este criterio resulta ser demasiado estricto para ver fotografías. Esto se debe al rendimiento de la lente y la relación de contraste típica de las imágenes gráficas. El estándar ampliamente adoptado es un círculo con un diámetro de 1/1000 de la distancia de visualización. Este es el material de las tablas de profundidad de campo y el cálculo. Eso equivale a 1/100 de pulgada (0,25 mm) visto desde 10 pulgadas (250 mm). En otras palabras, un tamaño de círculo de 2/100 pulgadas = ½ mm visto desde 500 mm.

Debido a que las cámaras de hoy producen imágenes minúsculas, debemos ampliarlas para obtener una imagen útil. Por lo general, vemos imágenes desde una distancia aproximadamente igual a su medida diagonal. Por lo tanto, los cálculos de profundidad de campo suelen tener todo esto en cuenta al generalizar que el tamaño del círculo permisible en el plano focal es 1/1000 de la distancia focal. Las imágenes técnicas a menudo requieren estándares más estrictos. Kodak adaptó 1/1750 de la distancia focal. Nuevamente, la mayoría de las tablas y gráficos usan 1/1000. Por lo tanto, para una lente de 50 mm, las tablas de profundidad de campo utilizan un tamaño de círculo de 0,05 mm. Considere una impresión de 8 x 12 o una imagen mostrada de un marco completo. El aumento será de aproximadamente 10X. La distancia de visualización habitual es de unas 20 pulgadas. Con un tamaño de círculo de 0,05 en el plano focal, el tamaño del círculo en la impresión (pantalla) será de 0,05 x 10 = 0,5 (1/2 mm).

Esta es la materia de la profundidad de campo. Las matemáticas tienen en cuenta el alcance de la visión humana, el contraste de la imagen, el grado de aumento y la distancia de visualización. Nuevamente, el estándar que se usa con más frecuencia es 1/1000 de la distancia focal. Estos valores son válidos para el tamaño de los fotositos.

Más galimatías de Alan Marcus

¿Puede dar más detalles sobre cómo esto podría relacionarse con el tamaño de los sitios de fotos?
Para ver una imagen nítida/clara a la distancia de lectura, el requisito es un píxel de 0,5 mm = 3,4 minutos de arco. Más grande se ve como poco nítido. Un fotosito que mida 6,5 ​​um = 0,0065 mm o un círculo de confusión puede soportar una ampliación de 40x. Ampliamos un cuadro completo 40x, la imagen mide 960 mm por 1449 mm o aproximadamente 40 por 60 pulgadas. Todavía se ve nítido a una distancia de lectura normal. Sin embargo, una imagen tan grande generalmente se ve desde una distancia igual a su diagonal, que es de 72 pulgadas (1,8 metros). A esa distancia, el tamaño del píxel/círculo de confusión se reduce a 1,75 mm. Nadie dijo que esto es fácil.
Gracias por tu respuesta. Por lo que entiendo de aquí, la profundidad de campo aparente depende de la distancia de visualización en lugar de fijarse en un punto determinado de la imagen con un CoC determinado. Por lo tanto, en ausencia de límites de resolución, debería poder mirar más profundamente en la imagen solo para encontrar que el DoF se vuelve más estrecho porque los CoC correspondientes más cercanos al plano focal real ya no son imperceptibles.
P=distancia de enfoque Pd= punto distante claramente definido Pn punto cercano claramente definido D=diámetro del círculo f=f/número F=distancia focal Pn = P/1+PDf/F^2 Pd = P/1-PDf/F^ 2
DOF depende del diámetro aceptable del disco de imagen. Los requisitos son buenos para algunas materias, no tanto para otras. Estamos tomando el contraste y la mundanidad del tema. Se espera que las imágenes grandes se vean desde una distancia mayor. A veces, las pantallas grandes deben soportar un examen minucioso. La mayoría de las tablas 1/1000 de distancia focal -- estándar técnico Kodak 1/1500 - estándar técnico Leica 1/1500. Obra supercrítica 1/2000. Este método entrelaza la distancia de visualización y la distancia focal.