¿Por qué los píxeles efectivos son mayores que la resolución real?

Esta página compara las cámaras Canon EOS 550D y Canon EOS 500D y menciona

18,7 millones de píxeles efectivos

para 550D. Sin embargo, la mejor resolución posible con esta cámara es

5184 * 3456 = 17915904 ~ 17.9 million pixels

¿Qué son los píxeles efectivos y por qué ese número es superior a 17,9 millones en este caso?

También tenga en cuenta que "resolución" tiene dos significados. En las computadoras, lo usamos para referirnos a las dimensiones en píxeles de una pantalla o imagen. Y en un dibujo por computadora o una imagen generada, eso generalmente corresponde a la resolución "real": la cantidad de detalles realmente resueltos en la imagen. Pero en una fotografía, no es necesariamente el caso.
Eso no es lo que está pasando aquí, solo una fuente adicional de confusión.
Mmm. ¿Qué sucede cuando alguien con dislexia intenta escribir 17.8? ¿Podrían realmente entrar en 18.7?

Respuestas (4)

Parte de lo que estamos viendo aquí es (estoy razonablemente seguro) nada más que un simple error tipográfico (o algo por el estilo) por parte de DPReview.com. Según Canon , [PDF, página 225] la cantidad de pozos en el sensor es "Aprox. 18,00 megapíxeles".

Luego, se reducen a aproximadamente 17,9 megapíxeles cuando las entradas del patrón de Bayer se convierten en lo que la mayoría de nosotros consideraríamos píxeles. La diferencia es bastante simple: cada pozo en el sensor solo detecta la cantidad total de luz permitida a través de un filtro de color, pero un píxel como normalmente lo espera en la salida (por ejemplo, un archivo JPEG o TIFF) tiene tres colores para cada píxel. . A primera vista, podría parecer que eso significaría que un archivo tendría solo alrededor de un tercio de los píxeles que hay sensores en la entrada. Obviamente, ese no es el caso. Aquí hay (una vista simplificada de) cómo funcionan las cosas:

patrón de Bayer simplificado

Cada letra representa un pozo en el sensor. Cada cuadro representa un píxel tricolor tal como aparecerá en el archivo de salida.

En la parte "interior" del sensor, cada píxel de salida depende de la entrada de cuatro pozos de sensor, pero cada pozo de sensor se usa como entrada para cuatro píxeles de salida diferentes, por lo que el número de entradas y el número de salidas sigue siendo el mismo.

Sin embargo, alrededor de los bordes, tenemos pozos de sensores que solo contribuyen a dos píxeles en lugar de cuatro. En las esquinas, cada pozo de sensor solo contribuye a un píxel de salida.

Eso significa que la cantidad total de píxeles de salida es menor que la cantidad de pozos de sensores. Específicamente, el resultado es más pequeño en una fila y una columna en comparación con la entrada (por ejemplo, en el ejemplo, tenemos un sensor de 8x3, pero 7x2 píxeles de salida).

+1 especialmente para el diagrama. Pero todavía estoy desconcertado, porque esto explicaría la ausencia de 2 (5184-1 + 3456-1) = alrededor de 17K píxeles, que simplemente se perderían en el redondeo al calcular 18,0 - 17,9 = 0,1 millones de píxeles. Parecería que se deben eliminar al menos tres veces más píxeles del límite (porque cualquier valor inferior a 50K debería redondearse a 0,0M). Tal vez la demostración esté usando un vecindario más grande que los de 2 x 2 que se muestran aquí: ¿tal vez esté usando un vecindario de 7 x 7?
@whuber: De improviso, no estoy seguro de poder dar cuenta directamente del resto. Ciertamente, es posible usar más sensores para producir un solo píxel de salida, pero no tengo ninguna forma real de saber si es lo que está haciendo Canon en este caso. Un archivo sin procesar de la cámara daría la cantidad exacta de pozos de sensor, pero aún no diría exactamente cómo Canon está pasando de la entrada X a la salida Y.
En buenos algoritmos de demostración (por ejemplo, dirigidos por homogeneidad adaptativa), cada sensor contribuye a más de cuatro píxeles de salida, por lo que se pierde más de una fila o columna. Es bastante fácil obtener la salida sin demostración de dcraw y comparar las dimensiones de la imagen con la salida del DPP de Canon para obtener una respuesta definitiva. Lo intentaré cuando tenga tiempo.
@Matt Grum: Correcto, mirando hacia atrás, mi comentario anterior está bastante mal redactado. Lo que estaba tratando de decir es que hay varios algoritmos que podrían (y lo harán) perder/descartar ~ 3 filas/columnas de píxeles, pero el recuento de píxeles por sí solo no le dirá cuál de los que están usando. Sin embargo, el uso de un algoritmo más sofisticado que utiliza más sensores por píxel de salida es prácticamente un hecho.

Hay dos razones por las que los píxeles efectivos son menores que la cantidad real de píxeles del sensor (elementos sensores o sensores). Primero, los sensores de Bayer están compuestos de "píxeles" que tienen filtros de color sobre ellos, lo que permite que haya más luz del mismo color que el filtrar a través de la luz de diferentes colores. Por lo general, los llamamos filtros rojo, verde y azul organizados en pares de filas en forma de:

RGRGRGRG
GBGBGBGB

Un solo "píxel", como la mayoría de nosotros lo conocemos, el píxel de estilo RGB de una pantalla de computadora, se genera a partir de un sensor Bayer mediante la combinación de cuatro sensores, un cuarteto RGBG:

          R G 
(sensor)       -->  RGB (computer)
          G B

Dado que se usa una cuadrícula de 2x2 de cuatro sensores RGBG para generar un solo píxel de computadora RGB, no siempre hay suficientes píxeles a lo largo del borde de un sensor para crear un píxel completo. Un borde "extra" de píxeles suele estar presente en los sensores de Bayer para adaptarse a esto. También puede estar presente un borde adicional de píxeles simplemente para compensar el diseño completo de un sensor, servir como píxeles de calibración y acomodar componentes adicionales del sensor que generalmente incluyen filtros IR y UV, filtros anti-aliasing, etc. que pueden obstruir un toda la cantidad de luz llegue a la periferia exterior del sensor.

Finalmente, los sensores de Bayer deben ser "demostrados" para producir una imagen RGB normal de los píxeles de la computadora. Hay una variedad de formas diferentes de demostrar un sensor Bayer, sin embargo, la mayoría de los algoritmos intentan maximizar la cantidad de píxeles RGB que se pueden extraer al combinar píxeles RGB de cada posible conjunto superpuesto de cuartetos RGBG 2x2:

Demostración de Bayer

Para un sensor con un total de 36 sensores de un solo color, se puede extraer un total de 24 píxeles RGB. Observe la naturaleza superpuesta del algoritmo de demostración al ver el GIF animado de arriba. También tenga en cuenta cómo durante el tercer y cuarto paso, las filas superior e inferior no se utilizaron. Esto demuestra cómo es posible que los píxeles del borde de un sensor no siempre se utilicen al hacer una demostración de una matriz de sensores de Bayer.

En cuanto a la página de DPReview, creo que pueden tener información incorrecta. Creo que la cantidad total de sensores (píxeles) en el sensor Canon 550D Bayer es de 18,0 mp, mientras que los píxeles efectivos, o la cantidad de píxeles de computadora RGB que se pueden generar a partir de esa base de 18 mp, es 5184x3456 o 17 915 904 (17,9 mp). La diferencia se reduciría a esos píxeles de borde que no pueden formar un cuarteto completo, y posiblemente algunos píxeles de borde adicionales para compensar el diseño de los filtros y el hardware de montaje que van frente al sensor.

Acabo de darme cuenta de que conté mal los sentidos en mi imagen animada. En los dos primeros pasos, no combina 8 sensores... combina 28 sensores en 8 píxeles. En los dos últimos pasos, combina 14 sensores en 4 píxeles. Lo siento por la discrepancia. Intentaré arreglarlo pronto.

No sé por qué DPReview usa el término "efectivo", pero hay un par de razones para la discrepancia entre la cantidad de fotositos (píxeles) en el chip y el tamaño en píxeles de las imágenes resultantes.

Algunos sensores de cámara tienen una tira de píxeles enmascarados a cada lado. Estos píxeles son idénticos a la mayor parte de los píxeles del sensor, excepto que no reciben luz. Se utilizan para detectar interferencias y restarlas de la señal producida por los píxeles sensibles a la luz.

En segundo lugar, los [buenos] algoritmos de demostración utilizan muchas "operaciones de vecindad", lo que significa que el valor de un píxel depende en cierta medida del valor de sus píxeles vecinos. Los píxeles en el borde extremo de la imagen no tienen vecinos, por lo que contribuyen a otros píxeles pero no aumentan las dimensiones de la imagen.

También es posible que la cámara recorte el sensor por otras razones (p. ej., el círculo de la imagen de la lente no cubre del todo el sensor), aunque dudo que este sea el caso con la 550D.

¿Se utilizan los píxeles del borde para eliminar la interferencia o simplemente para establecer el punto negro?
Supongo que ambos, si no hubiera ninguna interferencia (incluida la respuesta térmica), el punto negro sería 0
Descripción de DPReview . Me parece que va y viene entre dos conceptos opuestos, y no veo que realmente defina el término, excepto implícitamente. Creo que su respuesta ayuda un poco, pero aún me deja preguntándome por qué los píxeles "efectivos" serían más que sitios de fotos reales, aunque la página de vista previa ofrece algunas posibilidades. Eficaz: ¿se utiliza para efectuar datos de imagen? ¿O la fecha de la imagen en última instancia tan afectada? (nota: verbo de efecto con una e: crear existencia). Todavía me pregunto qué significan.
DP Review probablemente usa píxeles efectivos porque Canon usa el mismo término cuando describe sus sensores. Pero en el caso de Canon, la cantidad de píxeles efectivos es igual a las dimensiones (sin corregir la distorsión de la lente) de los archivos JPEG de la cámara y SIEMPRE es menor que la cantidad de sitios de fotos reales en la superficie de un sensor. Creo que en este caso alguien en DP Review simplemente escribió el número equivocado.

Lamento decepcionarte, pero ninguna de esas explicaciones es cierta. En cada sensor hay una región fuera del área de imagen que también contiene fotositos. Algunos de estos están apagados, algunos están completamente encendidos y algunos se usan para otros fines de monitoreo. Estos se utilizan para establecer los niveles de amplificador y balance de blancos, como un "conjunto de control" frente a los que realizan la imagen real.

Si toma los datos RAW del sensor de cualquiera de las cámaras Powershot compatibles con CHDK y utiliza dcraw para convertirlos, puede obtener la imagen completa del sensor, incluidas estas regiones 100 % negras y 100 % blancas.

Sin embargo, lo interesante es que la resolución del tamaño de imagen RAW en la cámara siempre es mayor que los resultados JPG en la cámara. La razón es que los métodos de interpolación más simples y rápidos que se usan en la cámara para pasar de RAW a JPG requieren sitios de fotos RGB circundantes para determinar el color final de cada píxel. Los sitios de fotos de bordes y esquinas no tienen estas referencias de color circundantes en todos los lados para hacerlo. Hacer el proceso más tarde, aunque en una computadora con un mejor software de interpolación RAW, le permitirá recuperar un poco más de resolución de tamaño de imagen que la que se puede obtener de un JPG en la cámara.

pd Los revisores de DPReview y los autores de artículos nunca deben ser tomados como un evangelio por nadie. Encontré tantos agujeros en sus pruebas y ejemplos flagrantes en los que los evaluadores ni siquiera sabían cómo usar cámaras, que descarté sus consejos hace muchos años.

A pesar de su comentario de que "ninguna de esas explicaciones es cierta", otras respuestas ya cubren esto.