¿Los sensores de fotograma completo tienen una mayor exposición? [duplicar]

Estaba leyendo un artículo sobre la comparación de APS-C con sensores de fotograma completo. En este artículo, se mencionó que los sensores de fotograma completo pueden tener "sitios de fotos" individuales más grandes y, por lo tanto, pueden capturar más luz.

Aquí está la cita...

No es la cantidad de píxeles lo que realmente cuenta: los modelos APS-C como la EOS 7D y la EOS 550D de Canon tienen casi la misma cantidad de fotositos, gracias a su número de 18 millones de píxeles, pero el tamaño de los fotositos es crucial para la calidad de la imagen.

Los sensores de luz individuales más grandes capturan más luz, y esto significa que se crea menos ruido electrónico. Esto se nota más a medida que aumenta la configuración ISO; este ruido crea un patrón de mosaico de colores que se nota especialmente en las áreas de sombra.

¿Es esto cierto? Si controlo variables como la apertura en relación con el sensor, ¿obtendría una mayor exposición un sensor de fotograma completo?

Esta no es realmente la misma pregunta que la pregunta de la que se supone que es un duplicado.

Respuestas (4)

El sensor de fotograma completo no será más brillante en las mismas condiciones de exposición (misma luz en la escena, misma distancia focal y número f, mismo tiempo de exposición, etc.). Recogerá más luz, pero también la esparcirá sobre un área proporcionalmente más grande. El brillo , que se define como la cantidad de energía luminosa por unidad de área , será el mismo. La ventaja de los píxeles más grandes no será el aumento del brillo, sino la reducción del ruido (debido al promedio de la naturaleza aleatoria de la luz, lo que llamamos ruido de disparo, en un área más grande) y un mayor rango dinámico si los píxeles son más grandes. el sensor FF (debido a una mayor capacidad de pozo completo para una oblea de silicio del mismo espesor).

Bien y concisamente dicho!
Gracias. Comenzó como una respuesta a un comentario a la respuesta de Mick. Después de publicar el comentario (ya que lo eliminé), me di cuenta de que probablemente era más una respuesta que un comentario.

La exposición es por unidad de área ; consulte ¿Por qué la iluminancia permanece igual para un f-stop dado, incluso cuando cambia la distancia focal? . Eso significa que si mide la exposición para una velocidad de obturación y apertura determinadas en una mitad del cuadro, será igual en la otra. Entonces, eso es lo que importa para la configuración de exposición.

Pero los sensores de fotograma completo tienen una ventaja inherente con poca luz.

Aquí hay una forma de verlo: los sensores digitales son de 36 × 24 mm para fotograma completo o 24 × 16 mm para APS-C. Cuando toma una imagen con la exposición correcta, cada milímetro cuadrado de cada sensor obtiene la misma cantidad de brillo. Si desea imprimir en, digamos, 12 × 18" (mezclando imperial y métrico), debe ampliar 12,7 × desde el sensor de fotograma completo, o 19,05 × desde el APS-C. Un mm cuadrado desde el sensor de fotograma completo. el marco de la cámara se convierte en 1,27 × 1,27 centímetros, o 1,61 cm². ¡Un mm cuadrado de la cámara con sensor más pequeño se convierte en 3,63 cm²! Eso significa que en la impresión final, la misma cantidad de luz se distribuye en 2,25 veces el área.

Por supuesto, no imprimimos la letra más pequeña mucho más oscura. En su lugar, amplificamos efectivamente el brillo a medida que ampliamos . Estirar la misma cantidad de luz en un área más grande inherentemente da peores resultados. Cuando hay mucha señal, mucha luz, esto generalmente no importa, pero cuando hay poca luz y hay mucho ruido, sí importa.

Esta es generalmente la razón por la que se considera que las cámaras con sensores de fotograma completo tienen una ventaja única en el ruido ISO sobre APS-C. ("Una parada" es 2x, por supuesto.) En una cámara digital, ISO es amplificación, y para un tamaño de impresión determinado de imágenes con el mismo ISO, las imágenes de cuadro completo se amplifican literalmente solo la mitad.

El problema con el tamaño de los fotositos es diferente, técnico, no está realmente relacionado con el tamaño del sensor y está en gran parte obsoleto con la tecnología moderna. Consulte ¿Importan los megapíxeles con la tecnología de sensores moderna? para más. Incluso con una tecnología infinitamente buena, no se puede superar la realidad física de lo anterior. Más grande es siempre más ligero. Sin embargo, en la mayoría de los casos prácticos, puede llegar al punto en que más pequeño es lo suficientemente bueno . (De lo contrario, todos llevaríamos alrededor de cámaras digitales de gran formato de 8 × 10 "...).

El trabajo del sitio de fotos es recolectar impactos de fotones durante la exposición. Los fotositos contienen un fotodiodo y un área de almacenamiento para retener la carga a medida que se acumula durante la exposición. Cuantos más fotones inciden, mayor es la carga. Cuando se completa la exposición, la carga se traslada al almacenamiento. El software marcha los cargos, fila por fila transfiriendo los cargos a un registro de transferencia. Aquí se leen las cargas y se convierten a voltaje. Debido a que los voltajes son débiles, se amplifican a un nivel útil. A continuación, el voltaje se convierte en una señal digital.

La cantidad de amplificación que se aplica es un factor clave. Los niveles bajos de carga requieren más amplificación. Esta será una función del nivel de luz durante la exposición y se entrelazará con la configuración ISO. Si se aplica una amplificación alta, se inducirá algo de estática no deseada. Esto equivale a subir el volumen de una radio. En otras palabras, la estática viaja a cuestas de la buena señal. En la imagen digital, la estática se manifiesta como ruido. El ruido es una granularidad similar al grano en el proceso de formación de imágenes de película convencional.

Evita el ruido elevado manteniendo el ISO moderado y consiguiendo la exposición correcta. Si bien es cierto que los sensores de imagen más pequeños tienen fotositos más pequeños, el chip de imágenes continúa evolucionando. Las diferencias entre el sensor FX de tamaño completo y el sensor compacto APS-C se vuelven menos notables.

PS Los chips más grandes tienen fotositos más grandes, por lo que recogen más impactos de fotones durante la exposición. La carga en el fotosito es más alta, por lo que se necesita menos amplificación y, por lo tanto, menos ruido.

esta respuesta es demasiado detallada y amplia. y realmente responde la pregunta.

Si consideramos la fotografía de película, para exponer correctamente cualquier película en particular, la película debe absorber el mismo número de fotones por unidad de área para cualquier escena en particular. Esto significa que una cámara de fotograma completo de 35 mm necesitará recibir el doble de fotones que una cámara de medio fotograma para lograr los mismos resultados en condiciones idénticas. Tenga en cuenta que esto no significa que la escena que está fotografiando deba ser el doble de brillante.

Lo mismo debe ser cierto para los sensores digitales que tienen la misma sensibilidad (que es un análogo directo de la velocidad de la película). Por supuesto, cuántos de los fotones son realmente "utilizados" por el sensor es otra cuestión. Por lo tanto, se necesitará mucha más luz (es decir, fotones) para un sensor de fotograma completo que para un sensor APS-C con la misma sensibilidad. Sin embargo, las condiciones de iluminación de la escena que estás fotografiando serán las mismas.

¿Los sensores de fotograma completo tienen mejor exposición con poca luz que aps-c?
@ScottF ¿Mejor de qué manera? En su pregunta, efectivamente pregunta sobre la sensibilidad (exposición) y nada más. ¿De verdad quieres saber sobre el ruido?
Con poca luz la exposición sería mayor.
Si por exposición te refieres al número f del efecto combinado , el tiempo de exposición y la sensibilidad, entonces serían lo mismo. La cantidad de fotones que caen sobre el sensor (o la película) es irrelevante en lo que respecta a la exposición correcta.
quiero decir que la imagen resultante será más brillante. He leído en varias fuentes que los sensores de fotograma completo tienen un mejor rendimiento con poca luz. tú y yo podemos interpretar eso como queramos.
Esta pregunta da la respuesta que está buscando, aunque con cierta extensión. La respuesta corta es sí".
@ Mick: es probable que se mejore la calidad con sitios de fotos más grandes. Los fotositos más grandes tienen una mayor probabilidad de recibir más impactos de fotones, por lo que el nivel de la carga es mayor. Las cargas más altas requieren menos amplificación, lo que se traduce en un ruido reducido. Los chips de imagen más pequeños de hoy ofrecen una mayor calidad en comparación con los chips más grandes de ayer. Los filtros RGB bloquean mejor que 2/3 de la luz. La tecnología más nueva tiene algunos sitios sin filtrar; el software elige qué color grabar. ¡Las cámaras se encogieron! Cuando yo era un "cachorro", la película 8X10 estaba en, luego 4X5, luego formato medio, luego 35 mm: el tiempo cambia nuestras herramientas.
@AlanMarcus La máscara de Bayer no bloquea más de 2/3 de la luz. La idea de que solo la luz verde atraviesa las partes verdes de la máscara, solo la luz roja atraviesa la parte roja de la máscara, y así sucesivamente, es incorrecta. Incluso si eso fuera cierto, el hecho de que la mitad de la máscara de bayer esté atenuada para la luz verde que se encuentra en el centro del espectro visible significaría que se permite pasar más de 1/3 de la luz. Los archivos RAW almacenan 3 colores por píxel, ¿o solo uno?
Cuando colocamos un filtro rojo frente a una lente mientras grabamos una película en blanco y negro, ¿ solo se deja pasar una banda estrecha de luz roja? No. Solo se permite que el rojo pase a una velocidad mayor que el verde o el azul, pero algunos de los tres aún lo logran. Lo mismo con un filtro azul o verde. Lo mismo con una máscara de Bayer. Lo mismo ocurre con la retina humana.
@ Michael Clark - ¿Cuánta luz crees que bloquea la máscara de Bayer? Me quedo con el hecho de que debe bloquear mejor que 2/3 en cada sitio filtrado. Apuesto a que los filtros utilizados son casi los mismos que el 25 (rojo fuerte) 58 (verde fuerte) 47B (azul fuerte). ¿De qué otra manera se pueden grabar los tres colores primarios como canales separados? ¡Mira los gráficos espectrofotométricos de estos filtros!
La patente no revela el título de los filtros, solo que ajustan los fotositos para que coincidan con la curva de respuesta del ojo humano. Concluyo que son filtros de corte nítido que brindan separación de rojo, verde y azul. Es probable que filtren un pequeño porcentaje de frecuencias no deseadas. No pueden filtrar mucho o habría demasiada interacción y eso sería difícil de manejar.
Dado que la eficiencia cuántica de las cámaras más eficientes se ha medido en un 58-60 %, obviamente pasa más de 1/3 de la luz.
Los colores primarios NO se registran como canales discretos. Mire las curvas de respuesta espectral de sensores específicos. Los píxeles "verdes" también dejan pasar algo de luz roja y azul. Los píxeles "rojos" dejan pasar algo de luz verde y azul. Lo mismo con el azul. Todos los fotones que pasan se cuentan por cada píxel como "un fotón", no como "un fotón rojo" o "un fotón verde". Lo que llamamos "color" no es una sensibilidad a diferentes longitudes de onda de luz. Así es como nuestro cerebro interpreta la diferencia en la respuesta espectral a diferentes longitudes de onda de luz por los tres tipos de bastones en nuestra retina.