He estado leyendo acerca de la profundidad de campo y presumo tener una comprensión suficiente de lo que significa y cómo se relaciona con las propiedades de la lente, la apertura de la lente, la distancia focal, el tamaño del formato del sensor y probablemente incluso las dimensiones de impresión en caso de que se esté tomando la imagen. impreso. Tengo una pregunta sobre cómo/si la profundidad de campo depende de la dimensión de un píxel. Permítanme elaborar:
Dados dos sensores con diferentes tamaños de píxeles: x y 4x, el último sensor integra más luz por píxel que el primero; sin embargo, podría tener una resolución más baja si las dimensiones del sensor permanecen fijas. La teoría sugiere que la profundidad de campo está determinada por esos círculos de confusión que están muy cerca de ser un punto de enfoque, y esto quizás también signifique que estos CoC muy pequeños caen dentro del área de integración del mismo píxel. Ahora, cuando un CoC se vuelve más grande que un píxel (como también en el caso de la borrosidad por difracción), hay cierta dispersión de intensidades entre los píxeles vecinos y esto claramente conduciría a la borrosidad. Sin embargo, si uno estuviera usando el píxel de tamaño 4X, incluso con un CoC un poco más grande, la intensidad aún se integraría en la misma área de píxeles y, por lo tanto, tal vez estaría enfocada. ¿Es esta la suposición correcta? Y de ser así, ¿Hay algún análisis de la dependencia del área de píxeles de la profundidad de campo? Además, la profundidad de campo es, en cierto sentido, independiente del medio de integración, como ocurre claramente también en los dispositivos de película analógica, por lo tanto, ¿existe una compensación o una diferencia en la profundidad de campo entre las cámaras de película y las digitales?
Indíqueme las referencias correctas para esta pregunta. Corríjame si parece haber un problema fundamental con las suposiciones hechas anteriormente.
Para comprender cómo el paso de píxeles de una cámara puede afectar la profundidad de campo (DoF) , primero debe comprender qué es DoF y qué no es.
Independientemente de la apertura de una lente, solo habrá una distancia que estará enfocada. Es decir, solo habrá una distancia en la que una fuente puntual de luz se enfocará en un solo punto en el medio de grabación. Las fuentes puntuales de luz a otras distancias se proyectarán en el plano del sensor (o película) como un círculo borroso o círculo de confusión (CoC). Si este CoC es lo suficientemente pequeño para ser percibido como un punto por la visión humana en un tamaño y distancia de visualización específicos, se dice que está dentro del DoF. Los límites de DoF cambian según la apertura, la distancia focal y la distancia de enfoque, así como el tamaño de visualización y la distancia de visualización de la imagen. Puede imprimir dos copias del mismo archivo de imagen y si una persona con la misma agudeza visual muestra una con el doble de tamaño que la otra a la misma distancia de visualización, la impresión más pequeña parecerá tener más DoF que la más grande ( suponiendo que la resolución del archivo de imagen en sí no es el factor limitante ). No existe una barrera mágica en la que todo lo de un lado esté perfectamente enfocado y todo lo que esté fuera de esa línea esté borroso. Más bien, como la distancia desde el verdadero punto de enfoqueaumenta, también lo hace el tamaño del círculo de desenfoque y gradualmente comenzamos a percibir que los objetos no son absolutamente nítidos.
Su comprensión fundamental de cómo se crea una imagen a partir de los datos de un sensor con una máscara de Bayer delante (la gran mayoría de las cámaras digitales) no es del todo precisa. No existe una correlación directa entre un solo sensor (pozo de píxel) en un sensor de Bayer y un solo píxel en una imagen producida a partir de los datos proporcionados por ese sensor. Los números para cada color de cada píxel en la imagen producida se interpolan a partir de los datos producidos por múltiples sensores adyacentes.
También asume, incorrectamente en la mayoría de los casos de uso, que un desenfoque de dos píxeles será detectable en distancias y tamaños de visualización típicos. no será Un círculo típico de confusión para las cámaras FF es de 0,03 mm (30 µm). Un sensor FF típico de 20 MP tiene píxeles de alrededor de 6,5 µm de ancho. Incluso teniendo en cuenta la cuadrícula de 2x2 de píxeles enmascarados RGGB utilizados para producir 4 píxeles RGB en la imagen producida, el ancho de 13 µm de una celda de 2x2 sigue siendo menos de la mitad del ancho del CoC de 0,03 mm necesario para una impresión de 8x10 vista a 10-12 pulgadas por una persona con visión 20/20. La mayoría de las cámaras APS-C tienen píxeles que miden un poco más de 4 µm de ancho. Por lo tanto, el CoC recomendado para un sensor APS-C de alrededor de 0,019 mm sigue siendo más del doble de ancho que las celdas 2x2 en un sensor APS-C típico.
Si el sensor teórico en su pregunta con píxeles 4 veces más grandes es lo suficientemente grande como para limitar la resolución percibida de la imagen, entonces todo en la imagen con un CoC más pequeño que los límites de resolución del sensor parecerá estar igualmente enfocado a expensas de aparecer igualmente pixelados/borrosos. Esto ocurriría cuando el CoC necesario para un tamaño de pantalla y una distancia de visualización determinados es inferior al doble del ancho de la distancia entre píxeles del sensor de la cámara. Sin embargo, no sería un límite estricto, sino el punto en el que gradualmente empezamos a percibir que la imagen está formada por píxeles individuales que nuestros ojos pueden discriminar.
Creo que tu razonamiento es correcto.
El problema proviene de personas que mezclan términos abstractos con sus experiencias sin comprender realmente el significado de los términos.
círculo de confusión (CoC) (en alemán: "Unschärfekreis")
es uno de estos términos. La traducción literal del alemán significa: "círculo de falta de nitidez", que en mi humilde opinión es una mejor descripción (y la razón por la que lo he incluido). Asi que. ¿De qué se trata esto?
Como fotógrafo , es fácil saber si una imagen está enfocada o no: simplemente mírela y vea si está enfocada. Pero su esposa (o sus hijos o sus clientes) pueden tener una opinión muy diferente sobre esta imagen.
Como científico , desea hechos concretos que se apliquen a todos: una herramienta que le indique si una imagen está enfocada o desenfocada sin importar las circunstancias.
Lo que debemos entender es lo siguiente:
CoC no es un valor que de alguna manera se calcula o fija, se asume caso por caso.
Como tal, el CoC pone un número preciso a la opinión del fotógrafo. Para el científico es una muleta para convertir las "cosas esponjosas" en un número preciso. Con este número preciso, el científico puede usar las fórmulas ópticas y calcular la profundidad de campo para situaciones específicas.
Cuando estudiamos óptica geométrica, aprendemos que la lente forma una imagen nítida de un objeto a una distancia dada aguas abajo de la lente; los objetos a diferentes distancias no tendrán una imagen tan nítida porque sus imágenes a las distancias de la lente serán diferentes. En otras palabras, un objeto en el infinito (∞), se enfoca más cerca de la lente que un objeto cercano. Sin embargo, la observación práctica revela que los objetos que se encuentran delante y detrás del punto enfocado a menudo aparecen nítidos. Por lo tanto, tenemos una zona hacia adelante y hacia atrás del punto enfocado que se percibe como un enfoque satisfactorio. Esta es la zona de profundidad de campo.
Ahora la lente toma imágenes de cada punto de los distintos sujetos y los representa como pequeños círculos en el plano focal. El término para estos es "círculos de confusión". Llamados así porque se superponen y se entremezclan y bajo el microscopio aparecen como círculos indistintos con el borde festoneado. Percibimos que una imagen, o parte de una imagen, es nítida cuando estos círculos de confusión son tan pequeños que no se observan como círculos, es decir, aparecen como puntos sin forma inhabilitable.
Los círculos diminutos aparecen como puntos cuando se ven desde una distancia de unas 3000 veces su diámetro. Una moneda de 1 pulgada vista desde 3000 pulgadas aparece como un punto (25,4 mm vista desde 76 metros). Este criterio resulta ser demasiado estricto para ver fotografías. Esto se debe al rendimiento de la lente y la relación de contraste típica de las imágenes gráficas. El estándar ampliamente adoptado es un círculo con un diámetro de 1/1000 de la distancia de visualización. Este es el material de las tablas de profundidad de campo y el cálculo. Eso equivale a 1/100 de pulgada (0,25 mm) visto desde 10 pulgadas (250 mm). En otras palabras, un tamaño de círculo de 2/100 pulgadas = ½ mm visto desde 500 mm.
Debido a que las cámaras de hoy producen imágenes minúsculas, debemos ampliarlas para obtener una imagen útil. Por lo general, vemos imágenes desde una distancia aproximadamente igual a su medida diagonal. Por lo tanto, los cálculos de profundidad de campo suelen tener todo esto en cuenta al generalizar que el tamaño del círculo permisible en el plano focal es 1/1000 de la distancia focal. Las imágenes técnicas a menudo requieren estándares más estrictos. Kodak adaptó 1/1750 de la distancia focal. Nuevamente, la mayoría de las tablas y gráficos usan 1/1000. Por lo tanto, para una lente de 50 mm, las tablas de profundidad de campo utilizan un tamaño de círculo de 0,05 mm. Considere una impresión de 8 x 12 o una imagen mostrada de un marco completo. El aumento será de aproximadamente 10X. La distancia de visualización habitual es de unas 20 pulgadas. Con un tamaño de círculo de 0,05 en el plano focal, el tamaño del círculo en la impresión (pantalla) será de 0,05 x 10 = 0,5 (1/2 mm).
Esta es la materia de la profundidad de campo. Las matemáticas tienen en cuenta el alcance de la visión humana, el contraste de la imagen, el grado de aumento y la distancia de visualización. Nuevamente, el estándar que se usa con más frecuencia es 1/1000 de la distancia focal. Estos valores son válidos para el tamaño de los fotositos.
Más galimatías de Alan Marcus
mattdm
WayneF