¿El equivalente de gran angular en el sensor de recorte distorsiona la imagen?

Veo muchas publicaciones tanto en este foro como en otros lugares que discuten el uso de un gran angular en un sensor de cultivos. Por ejemplo, discuten cómo una lente de 14 mm es de 14 mm en una película de 35 mm o de fotograma completo, pero con un sensor de recorte de 1.6x es un efectivo de 28 mm. Mi pregunta es, ¿tiene un sensor de recorte de 14 mm la misma imagen que un sensor de fotograma completo de 28 mm? ¿O "efectivo" incluye alguna otra connotación? Leí que un 14 mm puede crear distorsión en un cuadro completo y algunas viñetas, por lo que la gente parece decir que usarlo en un recorte elimina algunos de esos problemas de borde. Mi confusión es cómo la lente realmente capta la imagen adicional. Al leer el blog de Kenrockwell, aprendí que el gran angular mantiene las líneas rectas, mientras que el ojo de pez en realidad las distorsiona.

Entonces, con esto como lo entiendo, todavía estoy un poco confundido sobre cómo una lente que se curva para obtener un mayor ángulo de visión será lo mismo que una versión recortada de una lente menos curva. ¿O "efectivo" solo se refiere a los objetos a los lados pero no a la distorsión de la imagen? O, si es diferente, ¿es tan pequeño que para la fotografía no importa? Una descripción técnica sería bienvenida siempre que se tenga una comprensión básica de la situación.

¡Gracias!

Editar: para ser más claro después de los comentarios,

Estoy hablando específicamente de la proyección 2d resultante final desde el espacio 3d. He leído las dos respuestas anteriores. el primero está más cerca de lo que estoy hablando. Sin embargo, todavía es confuso para mí. Tengo experiencia con el modelado 3D y matrices de proyección, lo que podría confundirme con esto. Pero, por ejemplo, no entiendo las imágenes que tienen una lente de 50 mm que se dibuja a partir del sensor, por lo que muestra un fov diferente para el recorte y el fotograma completo. Si la lente es la misma, toma la misma cantidad de información del mundo, lo que hace que un rayo de un cierto grado de la última lente se proyecte en un espacio más pequeño, no hay proyección del sensor, por lo que trazar la línea desde la sensor no tiene sentido para mí. La distancia del sensor a la parte trasera de la lente debe tener algún impacto en la luz proyectada, pero no se representa en las imágenes. Además, nuevamente desde esa primera respuesta, dice que recortar es lo mismo que hacer zoom, pero por lo que entiendo de cómo funciona la perspectiva, es diferente, ya que un gran angular proyectará líneas de manera diferente que un pequeño fov al mismo tamaño, por lo que recortar el centro de un gran angular y hacer zoom en algo es muy diferente. Esto se recrea fácilmente en una aplicación opengl con una matriz de proyección fov variable, me imagino que en la clase de pintura la gente también aprende esto. Un ojo de pez sería un buen ejemplo, ya que si recortar fuera lo mismo que hacer zoom, una lente de ojo de pez mantendría el centro exactamente como una lente normal y luego un degradado ponderado hacia el exterior crearía rápidamente una perspectiva distorsionada, pero por lo que veo , es parejo. Para mí, esas imágenes solo se ven como si se compararan recortadas con fotograma completo en lo que respecta a las proyecciones ortogonales.

Estás mezclando varias preguntas en una de tal manera que se vuelve difícil obtener lo que no entiendes. Lea esta respuesta anterior primero para comprender qué "hace" un sensor de recorte en una lente. Aquí hay otra respuesta que aborda las diferencias entre los sensores de fotograma completo y de recorte. Si algo no está claro después de eso, edite su pregunta en consecuencia. Trate de plantear una pregunta a la vez.
Parece que ha estado leyendo fragmentos sobre la distancia focal, la distorsión, etc., pero aún no sabe cómo se relaciona todo. Parece que está haciendo al menos tres preguntas diferentes sobre el campo de visión en diferentes sensores, los efectos de usar una lente normal/de fotograma completo en un sensor de recorte y la distorsión de la lente frente a la distorsión de la perspectiva. Trate de eliminar todo lo que ha leído y simplemente pregunte, en términos simples, sobre lo que no entiende. En este caso, proporcionar menos información facilitará la respuesta a su pregunta.
Edité mi pregunta. Para agregar a mi pregunta, estoy bastante seguro de que no entiendo por qué la primera respuesta que Bart me señaló se considera correcta. Comienza con la premisa de reducir un problema dimensional 3D a 2D, que no es la realidad ya que el mundo es 3D, lo que parece importar cuando se habla de proyecciones en perspectiva y no de proyección ortogonal.
Creo que es importante entender el primer enlace antes de pasar a otra pregunta. Claro que el mundo es 3D, pero una fotografía no lo es. Entonces, en fotografía, creo que es seguro reducir los problemas 3D a 2D. Intente comprender ese primer enlace, edite su pregunta y agregue algún formato para que sea posible leer su pregunta. En este sitio no es necesario agregar una edición después de la original, solo puede cambiar la pregunta original.
Consulte también photo.stackexchange.com/q/11338/15871 Suponiendo que el círculo de imagen emitido por una lente es más grande que el sensor en el que lo proyecta, el tamaño del sensor determina qué campo de visión captura el sensor. El sensor más pequeño solo registra el centro del círculo de la imagen, el sensor más grande registra más.

Respuestas (2)

Aquí está la respuesta corta: una lente gran angular en un sensor de recorte sesga la imagen exactamente de la misma manera que lo hace en el centro del cuadro en un sensor de cuadro completo . A su vez, esto significa que el uso de una lente gran angular (distancia focal pequeña) en un sensor de recorte produce la misma distorsión de perspectiva que el uso de una lente más estrecha (distancia focal más grande) en un sensor de fotograma completo, con el aumento de la distancia focal directamente correspondiente a la reducción del tamaño del cuadro.

Pero no crees que esto sea correcto, así que profundicemos más. :)

Creo que esto está bien cubierto por las respuestas existentes, pero creo que tiene algunos conceptos erróneos básicos que son demasiado grandes para cubrir en los comentarios, así que lo intentaré aquí. Nota para otros lectores: si está confundido acerca de este tema pero no necesariamente tiene exactamente el mismo proceso de pensamiento por el que pasa esta pregunta, realmente sugiero comenzar con uno de los enlaces que proporciono a continuación (o que se proporcionan en los comentarios al pregunta anterior). Pero si siente que está confundido por las mismas cosas exactas, siga leyendo.

Primero, ¿mi cámara con sensor de recorte realmente convierte mis lentes en una distancia focal más larga? es un buen lugar para comenzar. Sé que todavía no lo crees, pero parte de la premisa de que mi respuesta es correcta y luego averiguaremos por qué .

A continuación, consideremos la distorsión de gran angular y qué la causa. Echa un vistazo a la pregunta ¿Qué significa realmente que los teleobjetivos "aplanan" las escenas? y particularmente la hermosa animación de la tetera de Wikipedia:

de wikipedia

Esta es una "distorsión de gran angular", literalmente, solo una cuestión de perspectiva. No se pierda que en este ejemplo, la cámara se mueve hacia atrás para mantener el mismo encuadre.

Pero , las lentes a menudo muestran otros tipos de distorsión. Este es un problema no relacionado debido a la construcción de la lente, donde la imagen proyectada no es el ideal rectilíneo. Consulte ¿Qué son las distorsiones de barril y de cojín y cómo se corrigen? Esto suele ser particularmente prominente en lentes de gran angular porque las lentes de gran angular son físicamente difíciles de diseñar. Eso es parte de por qué existen las lentes de ojo de pez: básicamente abandonan el ideal de una proyección rectilínea y usan otras proyecciones con nombres como "ángulo equisólido". Pero lo importante es que esto es diferente de la "distorsión de gran angular". De hecho, el centro de esa proyección podría tener un aspecto más natural que los bordes (ver¿Por qué mi adaptador de ojo de pez no produce distorsión de ojo de pez en mi DSLR APS-C? ), pero en general es una pista falsa.

Entonces, ahora es el momento de entrar en ¿Qué es el "ángulo de visión" en fotografía? . Veo que le preocupa que el modelo 2D que muestro no represente la realidad 3D. Esa es una preocupación bastante justa, pero el punto clave es que esto no es un mapeo de 3D a 2D (como lo es una fotografía, o la parte superior de la animación anterior). Simplemente está tomando la vista superior, como en la segunda parte de la animación. Esto corresponde directamente a la situación 3D. (Si eso no tiene sentido para usted, dígame por qué no y lo aclararemos).

Otra preocupación que tiene con la respuesta del ángulo de visión es la forma en que ignoré la distancia desde la parte posterior de la lente hasta el sensor. Las lentes de las cámaras modernas son complicadas, compuestas de muchos elementos de lentes diferentes, pero se reducen matemáticamente al modelo de un solo punto (al menos para esta pregunta). Más en ¿Qué es exactamente la distancia focal cuando también hay una distancia focal de brida? y ¿Cuál es el punto de referencia a partir del cual se calcula la distancia focal de una lente?

tu tambien dices

Si la lente es la misma, toma la misma cantidad de información del mundo, lo que hace que un rayo de un cierto grado de la última lente se proyecte en un espacio más pequeño, no hay proyección del sensor, por lo que trazar la línea desde la el sensor no tiene sentido para mi

Traté de cubrir esto en la respuesta del ángulo de visión, y no estoy seguro de qué no estaba claro, así que lo repetiré. Cada lente tiene un círculo de imagen que es más grande que el sensor (o, más exactamente, aquellos que no muestran negro en las esquinas y los bordes; consulta ¿Cómo produce una lente circular tomas rectangulares? ). Ese círculo de imagen es la "cantidad de información" que la lente toma del mundo. Sin embargo, la cámara solo "toma" la parte que realmente toca el sensor, por lo que el campo de visión de la foto real solo considera esa parte. Por eso dibujamos el cono desde el borde. Si te ayuda, también puedes dibujar algunos de los otros rayos y considerar lo que les sucede. (En este modelo, permanecen en línea recta a medida que atraviesan la lente).

También dices Mi confusión es cómo la lente realmente está captando la imagen adicional . Bueno, así es como: la lente siempre toma la misma cantidad y proyecta la misma cantidad, pero estamos grabando un rectángulo más grande o más pequeño.

Finalmente, ciertamente podría configurar una demostración de esto en OpenGL que mostraría exactamente lo que estoy diciendo. Si estás mostrando algo diferente, es porque tu modelo está cambiando algo que no se corresponde con lo que sucede cuando cambiamos las distancias focales o el tamaño del sensor en una cámara. Averigua qué es eso y corrígelo.


Ah, y un apéndice: tu ejemplo inicial de matemáticas tiene un error. Una lente de 14 mm en un sensor de 1,6 aumentos tiene un campo de visión equivalente a una lente de 22,4 mm (normalmente redondeada, porque las distancias focales reales no son tan precisas) en una cámara con sensor de fotograma completo. (Eso es porque 14 mm × 1,6 = 22,4 mm, para deletrearlo). Eso significa que para el mismo encuadre, te paras en el mismo lugar con una lente de 14 mm en APS-C o una lente de 22 mm en fotograma completo, por lo que la perspectiva es lo mismo Alternativamente, si tiene una lente de 14 mm en ambas cámaras, puede pararse en el mismo lugar y luego recortar el resultado de cuadro completo en 1.6 × (linealmente) y obtener efectivamente la misma foto .

El ejemplo de 14 mm → 28 mm que das coincidiría, por supuesto, con un sensor de recorte de 2 aumentos, como Micro Four Thirds.

¡Esto fue genial! La imagen en perspectiva que muestra, junto con la referencia del cubo, era exactamente lo que me confundió. También entiendo su ejemplo 2d como diagramación y no mapeo, lo cual tiene sentido. La principal confusión que tuve, viniendo de 3d en la computadora, es que para obtener la misma información en la pantalla con un FOV diferente, debes acercar o alejar la cámara del objeto, que es lo que me confundió. cambiando la perspectiva. Eso, en combinación con el hecho de que los ángulos exteriores distorsionan más la imagen, a diferencia del ojo de pez, me confundió con la posición del sensor.
y por sesgo, me refiero a que los objetos más alejados del lado del fov se 'atraen' para que se vean más largos
Para cualquier persona nueva en esto, como yo, mucha confusión para mí proviene de la terminología. Como el ejemplo que di, 14 = 28, es porque en línea encontré a alguien que decía eso (ahora asumo que estaba encontrando la lente más parecida). Lo más confuso es el uso de 1.6x, que para mí es confuso, ya que no es 1.6 veces el sensor de cuadro completo, es una división de lo que es el sensor completo de 35 mm.
@ user1938107 Sí, hay mucha terminología confusa y mucha charla confusa al respecto en línea. Veo lo que dices acerca de que es confuso usar 1.6× en lugar de 0.625×, pero es porque normalmente usamos lentes diseñados para fotograma completo en cámaras con sensor de recorte, y muy rara vez hacemos lo contrario.

La perspectiva está determinada por una cosa y solo una cosa: la distancia del sujeto . Período.

Si tomó una imagen con una lente gran angular rectilínea como la de 17 mm, que produce un ángulo de visión diagonal de 104° en una cámara de cuadro completo/35 mm y recortó la imagen resultante para que solo se vea el centro 3,08333°, tenga exactamente la misma perspectiva que si hubiera tomado la foto con una lente de 800 mm que ofrece un ángulo de visión diagonal de 3,08333°.

¿Por qué no usamos todos lentes de gran angular para cada toma que tomamos y luego recortamos la imagen para "acercarnos" a la cantidad de imagen que queremos usar? Principalmente la densidad de píxeles (o el tamaño de los granos en una emulsión de película). Si usamos la D800 de 36MP de muy alta resolución en el ejemplo anterior, cuando recortamos todo menos el centro de la imagen tomada con una lente de 17 mm para dar un ángulo de visión de 800 mm, solo estaríamos usando el centro 0.01625MP. Es decir, ¡estaríamos usando el centro 156x104 píxeles! ¡Solo estaríamos usando 1/2214 del área de superficie del sensor!

Creo que el área de confusión radica en comprender cómo una imagen proyectada por una lente rectilínea difiere de una imagen proyectada por una lente ojo de pez, incluso si ambas tienen la misma distancia focal. La lente de ojo de pez no intenta corregir la distorsión geométrica que las lentes rectilíneas intentan corregir (y en la mayoría de los casos lo logran en gran medida).

No voté negativo, pero tengo una pregunta. Incluso si el sensor tuviera una densidad de píxeles teóricamente perfecta, ¿no es la lente en sí misma un factor limitante en el mundo real?
@mattdm Por supuesto, la resolución de la lente eventualmente sería un factor limitante, pero en la mayoría de los escenarios actuales del mundo real, el sensor aún llega primero. Y las mismas leyes de la física que otorgan a los sensores de fotograma completo una ventaja en términos de captación de luz también se aplicarían al recortar de forma tan severa. Este también fue el caso con respecto al grano de la película y las variaciones en la "planitud" de la película durante la era pre-digital de la película. Pero dado que esta pregunta parece ser más teórica que práctica, el punto sigue siendo que la distancia del sujeto es lo que determina la perspectiva.
este fue realmente el eslabón perdido en lo que fue mi malentendido
¿Hay alguna razón por la cual las lentes de ojo de pez pueden acercarse, o de memoria incluso superponerse en el rango de 8-10 mm, pero no veo a muchos discutiendo esto? es esa distorsión la que tiene mucho sentido para mí y me confundí con la distancia y el fov con el ángulo descentrado
Puede hacer una práctica lente de ojo de pez incluso más larga que 8-10 mm. Canon fabrica un ojo de pez de 14 mm y un primo rectilíneo de 14 mm. También fabrican un objetivo con zoom de ojo de pez de 8-15 mm y un objetivo con zoom rectilíneo de 11-24 mm. Todos estos son para sensores de tamaño completo. También fabrican un par de lentes de zoom rectilíneos para sensores de tamaño APS-C que tienen 10 mm en el extremo ancho,