¿Cómo puede importar una cámara de alta resolución cuando la salida es de baja resolución?

La pregunta está inspirada en esta pregunta que muestra estas imágenes .
La respuesta aceptada sugiere que estas imágenes fueron tomadas con una cámara de vista de 8x10 y se confirmó el uso de una cámara de 8x10 en los comentarios.

Mi pregunta es: ¿Cómo puedes saberlo?


Cuando se ven en la página web, estas imágenes tienen un tamaño de 496x620 = 0,37 megapíxeles (o 720x900 = 0,65 megapíxeles si hace clic en "vista completa").
Por lo tanto, cualquier cámara con una resolución superior a 0,37 Mpx debería poder capturar estas imágenes, es decir, prácticamente todos los teléfonos inteligentes y cámaras web del mercado.

Conozco los sensores de Bayer . Pero el efecto en el peor de los casos de un sensor de Bayer debería ser reducir la resolución en un factor de cuatro: si reduce la escala de la imagen en un factor de dos en cada dirección, cada píxel de salida contendrá datos de al menos un sensor de entrada para cada uno de ellos. los canales R/G/B.
La reducción de escala por factor 4 aún significa que cualquier cámara con una resolución de más de 1,5 Mpx (en lugar de los 0,37 Mpx de la salida) debería poder capturar estas imágenes. Todavía estamos hablando de casi todos los teléfonos inteligentes y la mayoría de las cámaras web del mercado.

Sé acerca de la profundidad de color . Pero JPG, el formato que usamos para ver estas imágenes, es 8x3=24 bits. Y de acuerdo con los puntajes de DxOMark, hay varias cámaras, incluidas la Sony NEX 7 y la Nikon D3200, que son capaces de capturar 24 bits de color.
Entonces, incluso si una cámara web de $ 10 no puede capturar los matices de estas imágenes, una NEX 7 o D3200 debería poder hacerlo.

Sé que la mayoría de las lentes tienen una resolución más baja de lo que son capaces de hacer la mayoría de los sensores. A modo de ejemplo, el Nikkor 85mm f/1.4G es el objetivo más nítido de Nikon según DxOMark y, en el mejor de los casos, ofrece una resolución equivalente a 19 Mpx en una cámara de 24 Mpx (la Nikon D3X de fotograma completo), mientras que el objetivo menos nítido tiene una equivalente en el mejor de los casos a 8Mpx en la misma cámara.
Pero la peor lente en su base de datos todavía da un orden de magnitud más de resolución que el formato de salida de estos ejemplos.

Sé sobre el rango dinámico. Pero estas imágenes controlan la iluminación para que no arruinen las luces ni pierdan las sombras. Siempre que esté en condiciones de hacerlo, el rango dinámico no importa; se asignará al rango de salida 0-255 de JPG de todos modos.
En cualquier caso, DxOMark dice que varias cámaras con sensores de fotograma completo o más pequeños tienen un mejor rango dinámico que las mejores cámaras de formato medio.


Eso es lo que sé, y no hay nada en estos fragmentos de teoría que pueda decirme cómo es posible distinguir una cámara de 8x10 de una Sony NEX 7 cuando ves el resultado como un JPG de 0,37 Mpx.

Esencialmente, según tengo entendido, debería ser irrelevante cuántos megapíxeles y cuánta profundidad de color puede capturar el sensor, siempre que sea al menos tanto como el formato de salida pueda representar.

Aún así, no dudo del juicio de la respuesta de Stan Rogers. Y nunca he visto nada similar, en términos de nitidez percibida, en cámaras con sensores pequeños.

¿He entendido mal lo que significa resolución?

Supongo que principalmente estoy preguntando sobre la teoría: ¿Cómo puede ser visible una diferencia entre dos resoluciones (medida en píxeles, lp/mm, profundidad de color o lo que sea) en un formato de pantalla que tiene menos resolución que cualquiera de los originales?

O para expresarlo de otra manera: ¿hay algo que me impida, en principio, replicar estas imágenes hasta el píxel usando una Sony NEX 7 y $10,000 en iluminación?

Mientras obtenga todo perfecto en su toma, tampoco hay muchas ventajas en disparar RAW sobre JPEG. ¡La resolución, la profundidad de bits y los datos RAW se tratan de aprovechar al máximo su foto! Foto web pequeña hoy, pantalla retina 4x o impresión de alta calidad mañana.
Lamentablemente solo puedo aceptar una respuesta. Matt Grum presenta un argumento creíble de que un sensor pequeño, además de iluminación y un poco de procesamiento posterior, puede replicar quizás el 95 % de lo que vemos en las imágenes de Martin Schoeller en tamaño web (excluyendo los efectos DoF). Creo que Michael Nielsen presenta un argumento creíble de que es posible que necesite una resolución del sistema APS-C mejor que la típica para llegar al 100 %. Y Stan Rogers explica cómo podemos reconocer una cámara de gran formato incluso en fotos de tamaño web. Te sugiero que los leas todos :)

Respuestas (4)

Se trata del micro contraste. Mire las publicaciones sobre aps-c versus full frame y luego extienda esa diferencia a sensores de formato mediano y grande.

¿Cuándo importan las diferencias entre APS-C y los sensores de fotograma completo y por qué?

Siguiendo las teorías sobre el sobremuestreo, es mejor muestrear a una tasa más alta y luego reducir la muestra que muestrear en el límite de nyquist desde el principio, es decir. si su objetivo final es 640x480 , aún es mejor usar un sensor de 1280x960 que un sensor de 640x480.

No importa cuántos megapíxeles tenga cuando los píxeles vecinos dependen unos de otros, de todos modos, debido a que el círculo de confusión es más grande que sus píxeles en el plano del sensor. Las lentes también tienen una capacidad limitada para resolver. Además, debe considerar la "nitidez" de la lente en comparación con su apertura, y un sensor más grande le permite acercarse y detener un DOF más estrecho, lo que significa que puede capturar aún más detalles: el círculo de confusión es más grande, la lente funciona con menor difusión, etc.

Y luego tienes la "compresión de profundidad" realizada por la distancia focal de la lente que es bastante agresiva en esas tomas, apuntando a un teleobjetivo. El FOV en un sensor pequeño requeriría que retrocedas mucho y abras mucho la apertura para obtener ese DOF estrecho. Sin embargo, al ejecutar los números, con una cámara de cuadro completo podría lograrlo, 210 mm, 2 metros de distancia, F8 daría un DOF de 4 cm y un FOV que toma solo la cara como esas tomas.

Dicho de otra manera: cuanto más grande es el sensor en relación con el sujeto, menos tiene que trabajar la lente sobre los rayos de luz para comprimirlos en un punto estrecho. Esto aumenta la claridad de la toma y se muestra sin importar la distancia de visualización (que es lo que se simula al cambiar el tamaño de la imagen a una resolución más baja).

Después de las discusiones sobre la mejora y retención de detalles a través del cambio de tamaño, aquí hay una comparación de temas similares de gran formato frente a fotograma completo y de gran formato frente a apsc:

Arriba: rostros masculinos con puntas de barba. En la resolución del sitio al que se vincula, la barba se representa con pelos de píxeles, pero todo eso se pierde en el mismo tamaño que el ejemplo de Matt. Ahora las barbas son difusas. Si vemos la imagen de Matt en el mismo tamaño que las fotos de 8x10 en el sitio, podríamos ver una gran diferencia si la cabeza no está enfocada. Incluso un sistema aps-c y un sensor más pequeño podrían producir este resultado (en cuanto a los detalles).

Abajo: si comparamos las pestañas de la cara femenina en un tamaño similar al de la página web que mostró, con un ojo enfocado de una cámara aps-c, y la nitidez no va a recuperar los poros de la piel. Podríamos potenciar la percepción de las pestañas a costa de un halo luminoso a su alrededor.

Ahora vemos una gran diferencia de resolución del "sistema general" , y la cámara apsc + la lente utilizada + vista en la resolución de baja resolución dada no puede representar el mismo detalle que la cámara 8x10 + esa lente + la resolución vista podría. Espero que mi punto sea más claro ahora.

detalles

Otra comparación con aps-c, tocones de barba, después de afilarlos. Aunque stackexchange los redimensiona, todavía podemos percibir una diferencia en la claridad.

apsc

En conclusión, los otros factores sobre los que está preguntando además de la resolución de píxeles son:

  • Resolución total del sistema lp/mm
  • SNR
  • Aumento de la persona al sensor a la pantalla en la que lo ve a la distancia dada desde la que lo ve a la proyección de su ojo en la resolución de la retina: cuanto menor sea el aumento (por debajo de 1: 1) en cualquier parte del sistema, mayor será la demanda por los dos factores anteriores, que a su vez se ven influidos negativamente por la menor área de proyección.

Obtendrá más detalles en una toma macro reducida que sin una toma macro en primer lugar.

Una prueba final de que la resolución antes de la reducción de escala importa. Arriba: 21MP FF Abajo: 15MP Aps-c con la misma distancia focal de lente/apertura.

Dos sensores diff res/tamaño

Ahora reescalado a igual resolución:

Pequeña

Menor

Pequeñísimo

Diminuto

y apliqué un poco de nitidez para recuperar algunos detalles. ¿Que ves? un poco más de detalles de la cámara FF de 21 megapíxeles vista con el mismo tamaño/resolución, lo que sería equivalente a una cámara de 3 megapíxeles. no puede contar las líneas en la imagen modificada, pero la percepción de que son líneas es cierta. Ya sea que quiera esto o no, es su elección creativa, pero comenzando con la resolución más alta (dada por el sistema total) tiene la opción. Si no los quiere, puede desenfocar la imagen antes de cambiar la escala.

Un experimento final para mostrar la diferencia entre un sensor de tamaño pequeño, de baja resolución y un sensor más grande, de mayor resolución, pero reescalado y afilado a la misma resolución, que se muestra en el MISMO TAMAÑO al final, con TODO LO DEMÁS IGUAL. Genial, ¿eh? ¿Cómo hice eso? Mi cámara APS-C que tomo simula un "sensor de recorte" (más pequeño que mi apc-c) al recortar una imagen de la imagen. Luego me acerco al sujeto para llenar un sensor 4 veces más grande con el mismo sujeto. - como los retratos en el sensor de gran formato es básicamente una toma macro - acercándose mucho más de lo que estaría con una cámara aps-c. Misma calidad electrónica, misma lente, misma configuración, misma luz.

Así es como se ve en el sensor pequeño, llamémoslo "mini aps-cc":

sensor pequeño

Aquí vemos el "formato grande" (large full aps-c):

aps-c

Aquí vemos un montón de detalles, ¿verdad? Pero eso no importa después de que la redujimos a una imagen de 0,016 MP y la enfocamos para obtener el mismo contraste en general, ¿verdad?

Comparación de igual tamaño

¡Pero de hecho lo hacemos! Si aún no me crees, me rindo :)

Una nota sobre el patrón de laberinto que muestran estos cultivos: es el artefacto de interpolación de bayer común para la demostración de AHD bayer.
Sin embargo, la percepción de que se trata de un conjunto de líneas es más fiel al original que ver un cuadro gris. Igual que ver los poros en la piel, tal vez no la cantidad exacta como en la vida real, pero estarían allí.
Gracias, interesantes comparaciones. Parece que la nitidez/detalle (o al menos una ilusión de detalle) sobrevive a más reducción de escala de lo que pensaba. Me has dado algo para considerar.
tenga en cuenta que las líneas convergentes son una pesadilla para los algoritmos de interpolación y SABEMOS cómo DEBERÍA verse, no tenemos las mismas suposiciones sobre los detalles en una textura de piel agradable, por lo que incluso si un punto se mueve medio píxel en la cara, todavía se ve increíble. En el ejemplo más pequeño de arriba, todavía percibimos que tiene líneas hasta la segunda vertical.
Michael, una pregunta relacionada: ¿y si el tamaño del sensor es el mismo? ¿Voy a obtener mejores resultados con un sensor APS-C con una resolución nativa de 16 MP, pero reducida a 8 MP, por ejemplo, en lugar de comprar una cámara (hipotética) con un sensor ASP-C de 8 MP?
asumiendo la misma tecnología de generación? Si no, entonces el apsc de 8mp será de, digamos, 2006 y el de 16mp es de 2009 en adelante. Desde 2006 hasta alrededor de 2009, la tecnología del sensor mejoró mucho (más que entre 2009 y 2013), por lo que el nuevo sería mejor a 8mp. En el caso hipotético, donde sería tecnología de la misma generación, es una zona gris, depende de qué tan bien manejen las fuentes de ruido con los píxeles más pequeños. Sin embargo, tenga en cuenta que es solo una ganancia de resolución de 1.4x, y la reducción de tamaño es el mejor método de NR disponible, por lo que apostaría a que la imagen de 16mp sería mejor.
Sin embargo, creo que las imágenes siempre deben sobremuestrearse y reducirse al menos a 1/4 de MP (resolución de 0,5x), por lo que la comparación debe hacerse a 2 MP, donde el sensor de 8 MP también se ha beneficiado de la increíble reducción de resolución. Y luego no estoy tan seguro si ves una diferencia. También debería depender del tipo de imágenes (Poca luz, luz solar, negros)

Más que nada, el obsequio de la cámara de visualización fue una profundidad de campo extremadamente baja que no es paralela al plano de la película. Enfocar los labios y los ojos en varias de las imágenes con la postura del sujeto y el DoF muy bajo (la mayoría de las veces, la frente en la línea de la mandíbula inmediatamente debajo de los ojos es suave) es imposible sin inclinación.

También está la naturaleza de los rangos fuera de foco; es más típico de una representación de tamaño casi real que de un enfoque lejano. La extensión DoF hacia la cámara es casi igual a la extensión hacia el fondo, que es lo que esperaría al acercarse a la reproducción 1:1. A distancias de trabajo más normales, esperaría una distribución de aproximadamente un tercio/dos tercios de nitidez aparente alrededor del plano de enfoque nítido (un tercio de la profundidad de campo delante del plano de enfoque; dos tercios detrás). Eso indica un "sensor" considerablemente más grande que APS-C, de fotograma completo o incluso de formato medio. La experiencia con los formatos 4x5 y 8x10 me dijo que era más probable que fuera un 8x10 (aunque incluso una de las raras cámaras de formato más grande tampoco habría estado fuera de discusión), y pensé que la lente de 210 mm era más probable que, decir,

Como señaló Michael Nielsen, hay mucho "microcontraste" aparente en las imágenes, pero hasta cierto punto puedes falsificarlo en el procesamiento posterior, especialmente si el objetivo es renderizar en tamaños webby. Y supongo que incluso podría falsificar el DoF y el plano focal si fuera diligente en la creación de un mapa de profundidad con un plano focal degradado aplicado contra lo que prácticamente tendría que ser un modelo 3D del sujeto y entendiera la dinámica de enfoque de un 8x10 en alrededor del 50-60% de reproducción de tamaño natural, pero eso sería muchísimo trabajo. La solución económica, tanto para el fotógrafo como para cualquiera que analice la imagen, sería una cámara de visión real de 8x10.

Sin embargo, aumentar el microcontraste en la publicación introduce artefactos, además de que los algoritmos "adivinan" los detalles, por lo que no sería la misma imagen.
@Michael, pero en una reproducción redimensionada, ¿esos podrían no ser evidentes para todos los propósitos? ¿O no?
¿Era "hasta cierto punto" ambiguo?
¿Quiere decir si enfoca primero y luego cambia el tamaño donde se elimina la mejora, a menos que la ventana del filtro de paso alto sea tan grande que introduzca un timbre en el marco? Los detalles en esos retratos son tan increíbles que si examinas un recorte de la piel de 1x50 píxeles, parece una imagen binaria, que puede producir fácilmente anillos de halo con filtros de nitidez.
@MichaelNielsen al hacer una gran reducción de resolución, puede introducir aliasing en una imagen totalmente suave (sin microcontraste en absoluto) y obtener una imagen de aspecto extremadamente nítido sin halos u otros artefactos de nitidez. Si no fuera por el plano de enfoque inclinado, no sería capaz de decir que esas imágenes eran de gran formato mirando los "detalles" aparentes.
Su imagen de ejemplo es demasiado pequeña para mostrar el tipo de detalle del que estamos hablando, y las imágenes de 8x10 en cuestión también pierden su detalle en ese tamaño. La resolución en el sitio original es la correcta para mostrar un grado de detalle que es difícil de lograr con un punto y disparar promedio, teléfono celular y cámara apsc, incluso con procesamiento posterior. Sin embargo, como dije en mi respuesta, no estoy convencido de que no se puedan lograr resultados similares con un FF.
@MichaelNielsen, la pregunta tiene que ver con las imágenes que son demasiado pequeñas para mostrar ese tipo de detalle. Menciona específicamente resoluciones como 496x620 y 720x900. En esos tamaños, ni siquiera puede saber si una imagen está enfocada, y mucho menos cuánto microcontraste tiene. Sí, hay un tamaño en el que la diferencia se hace evidente, ¡pero esa es una pregunta aparte!
sí, estos: daily-i-show.livejournal.com/106914.html que muestra detalles que son difíciles de lograr con un aps-c de 10Mp (mira los ejemplos en mi respuesta). El beneficio de cerca de macro frente a abarrotar demasiados rayos de luz en un área demasiado pequeña, independientemente de la resolución. Los detalles en su ejemplo son fáciles de obtener.
No es solo una cuestión de resolución sino de aumento. su ejemplo tiene una cara de ~ 30 cm de alto que se muestra en mi pantalla como 3 cm y su paso intermedio en el sensor fue de 2,4 cm. Las imágenes de las que hablamos aquí tienen una cara de 30cm mostrada como de 20cm y su paso intermedio en el sensor era de 25cm.
@MichaelNielsen La ampliación es totalmente diferente a la resolución, esta pregunta se hizo específicamente sobre la resolución.
No cuando el OP notaba una diferencia que no podía explicarse solo con la resolución. Entonces TIENES que traer otros conceptos para encontrar la explicación.
Gracias, tiene sentido. Al falsificar DoF, creo que los modelos 3D utilizados en los gráficos por computadora son lo suficientemente avanzados como para que sea principalmente una cuestión de tiempo. ¿Quizás un complemento futuro para Lightroom/Photoshop 10? :)

No, una cámara de alta resolución realmente no importa cuando la salida es de baja resolución, al menos no cuando pasa de megapíxeles de dos dígitos a un cuarto de megapíxel. Toma la siguiente imagen:

Redimensionado para la web, se ve bien a pesar de que la cara del sujeto ni siquiera estaba enfocada. Es obvio cuando se ve al 100% y obvio en la impresión, pero no se puede saber en absoluto cuando se redimensiona al 2% de sus píxeles originales y se agudiza para la web.

Aquí hay otro ejemplo, tome una imagen original masivamente suave, de aproximadamente 8 megapíxeles:

Reduzca la muestra en gran medida a una resolución compatible con la web y aumente la nitidez, ¡y de repente mire todo el microcontraste!

Un sobremuestreo de 2x definitivamente ayudará con la resolución y la fidelidad del color de las imágenes de Bayer. Pero una imagen de la Canon Digital Rebel (300D) original lanzada en 2003 redimensionada a 600x400 es un sobremuestreo de 5x, en cada dirección, lo que significa que cada píxel de la imagen redimensionada ocupa el lugar de los 25 píxeles originales. Muy, muy poco de la calidad de esos 25 píxeles tendrá un impacto en la imagen redimensionada.

El mayor microcontraste que ofrece un sistema de formato más grande simplemente no será visible, el macrocontraste que sí ve se puede compensar con el posprocesamiento, cuando tiene tanta resolución para desechar, los artefactos de nitidez no serán visibles.

Si igualara la profundidad de campo, sería extremadamente difícil notar la diferencia entre una cámara con vista de 10x8 y una compacta cuando se redimensiona a menos de 1 megapíxel.

¿Puedo ver su cara en el mismo tamaño que los retratos?
¡sí, cuando llegue a casa y saque los originales!
Tengo que estar en desacuerdo con la declaración contundente "una cámara de alta resolución realmente no importa cuando la salida es de baja resolución". Las proporciones de sobremuestreo y aumento son importantes en los resultados finales (hasta cierto límite).
está obteniendo buenos detalles en la imagen pequeña exactamente porque sobremuestreó tantas veces. Si hubiera usado solo un sobremuestreo 2x con la misma cantidad de desenfoque, no habría obtenido ninguno de los detalles de la piel. Y te excediste con el afilado, su cabello se ve raro. Además, esta toma parece una imagen típica de gama baja. nada como esas imágenes de las que os hablamos, que retienen más detalles de los que puede producir un sistema APS-C con un objetivo decente.
Gracias por el último ejemplo, parece creíble que algo como las imágenes vinculadas en la pregunta podrían crearse con un sensor APS-C. @MichaelNielsen Pero ese es el tipo de sobremuestreo sobre el que se trata la pregunta, por ejemplo, reducción de escala, digamos una toma APS-C de 16Mpx a <1Mpx de tamaño web. Entonces, en términos de sobremuestreo, ¿puede, por ejemplo, el sobremuestreo de 7x (entrada de 49 píxeles a salida de 1 px) ser visiblemente mejor que el sobremuestreo de 5x? Me inclino por "probablemente no", en su ejemplo con las líneas, no puedo ver mucha/ninguna diferencia más allá del sobremuestreo de 4x.
@MichaelNielsen Pero gracias por tus ejemplos. Quedan algunas diferencias que no puedo explicar, pero no creo que entren en el encabezado de "resolución". Podría estar equivocado, por supuesto :) - Tendré que hacer algunos experimentos por mi cuenta.
recuerda que cuando digo resolución, me refiero a la resolución total del sistema, donde un FF de 1000 px tiene una resolución más alta que 1000 px aps-c, y un MF de 1000 px tiene más que un FF de 1000 px. Es por eso que hay un detalle tan asombroso en esas imágenes que Matt y yo no pudimos reproducir en nuestros ejemplos.
@MichaelNielsen De acuerdo en que los sensores más grandes tienen una resolución del sistema más alta. Según los números de DxOMark, una lente de gama baja en un sensor APS-C de 16 Mpx no brinda más de 4 Mpx de detalle. Pero 4Mpx de detalle todavía es un sobremuestreo de ~3x en tamaño web, por lo que no esperaría mucha diferencia con un MF que podría alcanzar ~6x. Tal vez DxOMark exagera su número de "Mpx perceptivos", creo que se basa en MTF 20 . Por lo tanto, es concebible que una foto MF de tamaño web tenga MTF ~100, mientras que la foto APS-C de tamaño web tenga menos.
recuerde elevar al cuadrado los divisores de resolución al comparar MP. 4Mp es solo el doble de la resolución de 1MP. 16MP es el doble de 4MP (el patrón de Bayer solo podría explicar la primera reducción de 16MP a 4Mp. Y luego está el filtro antialiasing y el COC de la lente con el que lidiar. Rápidamente estamos por debajo de 1MP :) Eche un vistazo a mi nuevo ejemplo Im actualizando mi respuesta con.

Al renderizar una escena con detalles finos en una imagen de baja resolución, es necesario aplicar filtrado espacial para eliminar cualquier contenido cuya frecuencia esté por encima del límite de Nyquist. Al aplicar el filtrado espacial, hay dos objetivos en conflicto:

  1. El contenido cuya frecuencia espacial sea lo suficientemente baja como para mostrarse debe atenuarse lo menos posible.

  2. El contenido cuyas frecuencias espaciales son similares debe atenuarse en cantidades aproximadamente iguales.

Para ver dónde entran en conflicto los objetivos, imagine una escena con un patrón de líneas convergentes. Si el espaciado se acerca un poco al límite de Nyquist para la resolución de destino, pero las líneas siempre están lo suficientemente separadas para mostrarse claramente, a menudo será mejor mostrarlas claramente que difuminarlas. Sin embargo, si la escena contiene un patrón de líneas convergentes que se acercan demasiado para ser distinguibles, hacer que las líneas se vuelvan gradualmente más borrosas a medida que su espacio se acerca al límite de resolución distraería menos que hacer que las líneas aparecieran claramente hasta un punto en el que transición brusca a un gris sólido.

En muchos casos, el tipo óptimo de filtrado para una escena dependerá de su contenido y de qué aspectos son de interés. Capturar una escena en una resolución superior a su formato de salida previsto garantizará que se conserve toda la información que podría desearse en la imagen final. La información tendrá que ser filtrada antes de que la imagen pueda reproducirse en una resolución más baja, pero la captura de alta resolución permitirá adaptar los métodos de filtrado exactos para adaptarse de manera óptima a las necesidades de la escena (y posiblemente usar diferentes métodos para diferentes partes de una escena). Si uno tiene la intención de renderizar una imagen final a 640x480, el beneficio de capturarla a 6400x4800 probablemente no sea mucho mayor que el que ofrece 1600x1200, pero puede haber algunos beneficios al subir a aproximadamente 2,5x.