¿El supermuestreo produce buenos resultados?

El Lumia 1020 tiene un sensor de 41MP en un TELÉFONO. Reduce la muestra de la foto a 5 megapíxeles, mejorando la calidad de la foto. Pero, ¿obtendrías una mejor foto usando un sensor nativo de 5MP del mismo tamaño?

En general, dados dos sensores del mismo tamaño, pero uno de ellos con una resolución más alta que el otro, ¿el resultado de reducir la resolución de la imagen de mayor resolución a la de menor resolución sería mejor o peor que la imagen obtenida del sensor de menor resolución? ?

(Puede suponer que se está utilizando un algoritmo de reducción de resolución de imagen de alta calidad. Y sí, una foto de mayor resolución le brinda flexibilidad para recortar, pero para el propósito de esta pregunta, supongamos que no vamos a recortar la foto más adelante).

No, eso no es generalmente aceptado.
Dpollitt, eliminé esa afirmación. Por favor, eche un vistazo de nuevo.

Respuestas (2)

La reducción de píxeles de 41 a 8mp tiene el impacto de mejorar la precisión de la captura de color y reducir la apariencia del ruido del sensor ya que por cada píxel de salida tienes un puñado de píxeles para calcular el mejor valor. Obviamente, hay una compensación de que tiene menos resolución espacial y se reduce a lo que hace que la imagen sea más agradable al final.

Los sistemas de supermuestreo digital no son nuevos. Las cámaras Super CCD de Fuji (como la S2 Pro 2002 que muestreaba 12 megapíxeles pero emitía 6) fueron ampliamente aplaudidas por la calidad de su reproducción de color/rango tonal en comparación con sus pares de Nikon y Canon.

Según las revisiones, la salida entre Lumia 1020 y iPhone5 tiende a ser comparable con buena iluminación. Pero los dispositivos PureView generan mejores resultados en el tipo de situaciones desafiantes en las que es menos probable que las personas lleven una cámara con un sensor más grande. En la práctica, todo el sistema funciona tan bien o mejor que un sensor nativo de 8mp en un paquete similar.

Las matemáticas y la física involucradas significan que más allá de una cierta densidad de píxeles hay rendimientos decrecientes. Probablemente Nokia esté mucho más en este punto, pero el alcance de la mejora podría estar más relacionado con su procesamiento que con aumentar mucho más la densidad de píxeles.

Gracias, James. Su respuesta dice esencialmente que una foto de 41 MP reducida a 5 MP se ve mejor que una foto de 41 MP. Pero a) ¿se ve mejor que un sensor nativo de 5MP del mismo tamaño? No traigamos el iPhone aquí ya que tiene un sensor más pequeño. b) ¿No se puede dejar la imagen de 41 MP tal como está y confiar en que el visor de imágenes reduzca la muestra por nosotros? ¿Las computadoras (incluidos los servidores) no usan un buen algoritmo para reducir las imágenes?
En realidad, ese no es un resumen del todo exacto: mis afirmaciones son que la reducción de resolución de una imagen de alta resolución se usa para tener en cuenta el ruido y que PureView es más complicado que una simple acción de reducción/escalado (sin importar qué tan bueno sea el algoritmo utilizado). Por ejemplo, puede incluir fuentes de información que no forman parte directamente de la imagen, como sensores giroscópicos o de choque.
Entonces... (a) en condiciones óptimas, 5mp probablemente ganaría, pero en el mundo real, las condiciones rara vez son óptimas. (b) Podrían hacerlo, pero solo si tuvieran toda la información disponible para pureview. Dado que todo el sistema, teniendo en cuenta la óptica, solo resuelve alrededor de 5mp, de todos modos, no hay ningún beneficio en generar más.
@JamesSnell Creo que la situación podría ser un poco más complicada de lo que crees. El sensor nativo de 5 megapíxeles también exhibiría mucho menos ruido que la salida sin procesar del sensor de 41 megapíxeles debido a los píxeles más grandes. Además, mientras que la imagen de 41 mp, cuando se reduce a 8 mp, compensa en cierto modo la pérdida de información de color en los sensores normales de Bayer (que es nominalmente 1/3 de la resolución espacial), un buen algoritmo de demostración recupera/interpola mucha de esa información.
Entonces, ¿cuál es el resultado final? ¿Se reduce la resolución de 41 MP a 5 MP mejor o peor que los 5 MP nativos la mayoría de las veces?
@ChinmayKanchi: todo lo que puedo decir es que la evidencia de las comparaciones y las imágenes que he visto tomadas en condiciones similares de productos de la competencia no respaldan su afirmación. Al igual que muchos diseños de sensores de sobremuestreo, PureView no utiliza el patrón de Bayer.
@KartickVaddadi: Si debe presionar por un sí/no, entonces diría que sí, es mejor. La realidad tiene más matices que eso y el procesamiento juega un papel muy importante.
@JamesSnell Del propio sitio web de Nokia: "el sobremuestreo elimina los problemas del patrón de Bayer. Por ejemplo, los sensores convencionales de 8MPix incluyen solo píxeles verdes de 4Mpix, rojos de 2Mpix y azules de 2Mpix, que se interpolan a una imagen R, G, B de 8Mpix. Con el sobremuestreo de píxeles, todos los píxeles convertirse en verdaderos píxeles R, G y B". press.nokia.com/wp-content/uploads/mediaplugin/doc/… . Entonces, parece que las cámaras PureView usan un sensor filtrado Bayer.
Como lo leí hace algún tiempo, no lo hicieron (la fuente era una entrevista, pero no puedo encontrarla ahora). Pero según otra entrevista, puede ver que mientras hay un patrón de Bayer en juego, no es Bayer como se usa en otros lugares. . Fuente: entrevista del blog francés Test Mobile en el MWC 2012 ( test-mobile.fr/actualites/… ) (incluye ejemplo).
De la traducción, el filtro de Bayer se ve exactamente como cualquier otro filtro de Bayer (RGBG en un cuadrado de 2 píxeles por 2 píxeles, repetido en un patrón que asegura que los píxeles del mismo color nunca estén adyacentes). Lo que difiere es el supermuestreo, que es de lo que estaba hablando en mi comentario.

Creo que la respuesta podría ser "sí, si está bien hecho". La mejor ventaja que le veo es la posibilidad de tener un filtro antialiasing digital mucho más nítido que uno físico .

Déjame explicarte (geeky aquí (1)) en una dimensión. Si desea muestrear algo a, digamos, 100 puntos/mm, el teorema de Nyquist dice que para evitar el alias (normalmente se muestra como muaré en las imágenes), debe cortar todas las frecuencias en la señal de entrada por encima de los 50 puntos/mm. Tenga en cuenta que una vez que se ingresan los datos con alias, se ingresan. No puede distinguirlos de los datos reales, por lo que es imposible eliminarlos.

Ahora bien, hacer un filtro físico que corte por completo las frecuencias por encima de 50 p/mm y deje pasar las frecuencias por debajo es imposible; los filtros tienen que pasar de "aprobado" a "no aprobado" en un rango finito de frecuencias. Los filtros que tienen una transición más rápida (2) son mucho más complejos de hacer (especialmente los ópticos). Digamos que una "banda de transición" razonable es 10 p/mm para un filtro físico.

Por lo tanto, debe comprometerse entre el aliasing y la banda (muaré y nitidez en la imagen). por ejemplo, puede filtrar desde 20 p/mm y tener muy poco muaré pero una pérdida de nitidez; o filtra a 45 p/mm y arriesga un poco de muaré con más nitidez, o pasa el filtro...

Si sobremuestrea a, digamos, 1000 p/mm, simplemente mueve el problema hacia arriba, ¿no? Pero suponga que realmente quiere 50 p/mm. Así que ahora pones un filtro antialiasing físico a 200 p/mm (fácil de hacer, sin aliasing). Y luego puede usar un filtro digital antes de (re)muestrear a 100p/mm --- y este filtro es solo software para que pueda hacerlo mucho más rápido a un precio razonable, especialmente con hardware moderno: digamos que puede hacer la transición en 1 p/mm. Así que al final tienes el equivalente del primer sistema, pero puedes poner el filtro final a 49 p/mm y no tener muaré en absoluto (3).

En el lado negativo, tener más píxeles significa tener más componentes electrónicos, lo que significa que el área total del chip utilizada para la detección es menor en un sensor de mayor megapíxel. Eso podría corregirse en parte con las microlentes, pero generalmente significa que también se espera un golpe en el ruido (alto rendimiento ISO).

(1) mi formación es la electrónica analógica. Esta publicación describe una técnica que se usa ampliamente en la digitalización de señales como audio o biológicas. Perdóname si uso una terminología bastante extraña.

(2) en electrónica llamamos a estos filtros "afilados", no "rápidos". Usé rápido para no cruzar el significado con la nitidez de la imagen.

(3) No tengo idea si Sharp hace todo eso. Solo adivinando.