El Lumia 1020 tiene un sensor de 41MP en un TELÉFONO. Reduce la muestra de la foto a 5 megapíxeles, mejorando la calidad de la foto. Pero, ¿obtendrías una mejor foto usando un sensor nativo de 5MP del mismo tamaño?
En general, dados dos sensores del mismo tamaño, pero uno de ellos con una resolución más alta que el otro, ¿el resultado de reducir la resolución de la imagen de mayor resolución a la de menor resolución sería mejor o peor que la imagen obtenida del sensor de menor resolución? ?
(Puede suponer que se está utilizando un algoritmo de reducción de resolución de imagen de alta calidad. Y sí, una foto de mayor resolución le brinda flexibilidad para recortar, pero para el propósito de esta pregunta, supongamos que no vamos a recortar la foto más adelante).
La reducción de píxeles de 41 a 8mp tiene el impacto de mejorar la precisión de la captura de color y reducir la apariencia del ruido del sensor ya que por cada píxel de salida tienes un puñado de píxeles para calcular el mejor valor. Obviamente, hay una compensación de que tiene menos resolución espacial y se reduce a lo que hace que la imagen sea más agradable al final.
Los sistemas de supermuestreo digital no son nuevos. Las cámaras Super CCD de Fuji (como la S2 Pro 2002 que muestreaba 12 megapíxeles pero emitía 6) fueron ampliamente aplaudidas por la calidad de su reproducción de color/rango tonal en comparación con sus pares de Nikon y Canon.
Según las revisiones, la salida entre Lumia 1020 y iPhone5 tiende a ser comparable con buena iluminación. Pero los dispositivos PureView generan mejores resultados en el tipo de situaciones desafiantes en las que es menos probable que las personas lleven una cámara con un sensor más grande. En la práctica, todo el sistema funciona tan bien o mejor que un sensor nativo de 8mp en un paquete similar.
Las matemáticas y la física involucradas significan que más allá de una cierta densidad de píxeles hay rendimientos decrecientes. Probablemente Nokia esté mucho más en este punto, pero el alcance de la mejora podría estar más relacionado con su procesamiento que con aumentar mucho más la densidad de píxeles.
Creo que la respuesta podría ser "sí, si está bien hecho". La mejor ventaja que le veo es la posibilidad de tener un filtro antialiasing digital mucho más nítido que uno físico .
Déjame explicarte (geeky aquí (1)) en una dimensión. Si desea muestrear algo a, digamos, 100 puntos/mm, el teorema de Nyquist dice que para evitar el alias (normalmente se muestra como muaré en las imágenes), debe cortar todas las frecuencias en la señal de entrada por encima de los 50 puntos/mm. Tenga en cuenta que una vez que se ingresan los datos con alias, se ingresan. No puede distinguirlos de los datos reales, por lo que es imposible eliminarlos.
Ahora bien, hacer un filtro físico que corte por completo las frecuencias por encima de 50 p/mm y deje pasar las frecuencias por debajo es imposible; los filtros tienen que pasar de "aprobado" a "no aprobado" en un rango finito de frecuencias. Los filtros que tienen una transición más rápida (2) son mucho más complejos de hacer (especialmente los ópticos). Digamos que una "banda de transición" razonable es 10 p/mm para un filtro físico.
Por lo tanto, debe comprometerse entre el aliasing y la banda (muaré y nitidez en la imagen). por ejemplo, puede filtrar desde 20 p/mm y tener muy poco muaré pero una pérdida de nitidez; o filtra a 45 p/mm y arriesga un poco de muaré con más nitidez, o pasa el filtro...
Si sobremuestrea a, digamos, 1000 p/mm, simplemente mueve el problema hacia arriba, ¿no? Pero suponga que realmente quiere 50 p/mm. Así que ahora pones un filtro antialiasing físico a 200 p/mm (fácil de hacer, sin aliasing). Y luego puede usar un filtro digital antes de (re)muestrear a 100p/mm --- y este filtro es solo software para que pueda hacerlo mucho más rápido a un precio razonable, especialmente con hardware moderno: digamos que puede hacer la transición en 1 p/mm. Así que al final tienes el equivalente del primer sistema, pero puedes poner el filtro final a 49 p/mm y no tener muaré en absoluto (3).
En el lado negativo, tener más píxeles significa tener más componentes electrónicos, lo que significa que el área total del chip utilizada para la detección es menor en un sensor de mayor megapíxel. Eso podría corregirse en parte con las microlentes, pero generalmente significa que también se espera un golpe en el ruido (alto rendimiento ISO).
(1) mi formación es la electrónica analógica. Esta publicación describe una técnica que se usa ampliamente en la digitalización de señales como audio o biológicas. Perdóname si uso una terminología bastante extraña.
(2) en electrónica llamamos a estos filtros "afilados", no "rápidos". Usé rápido para no cruzar el significado con la nitidez de la imagen.
(3) No tengo idea si Sharp hace todo eso. Solo adivinando.
dpollitt
Saaru Lindestøkke
Kartick Vaddadi