¿Qué limita el tamaño de los sensores de imágenes digitales?

He leído información sobre los tamaños de los sensores aquí

http://en.wikipedia.org/wiki/Image_sensor_format

según esto, el ff-CMOS de 35 mm es el sensor de mayores dimensiones utilizado en las cámaras digitales. Tiene muchas ventajas para los sensores más pequeños, debido a su tamaño.

¿Por qué no hay sensores aún más grandes disponibles para forzar estas ventajas? 1,5 FF por ejemplo?

Esa página está desactualizada. Hasselblad lanzó un sensor CMOS de formato medio en marzo.
El artículo menciona específicamente diferentes chips de formato medio que son más grandes que los llamados "fotograma completo" (un nombre inapropiado). es.wikipedia.org/wiki/…
@his ¿Qué sensores CMOS que son más grandes que el cuadro completo menciona?
@fubo ¿Está específicamente interesado en los sensores CMOS (a diferencia de los sensores CCD) o realmente quiere decir "¿qué limita el tamaño de los sensores de imágenes digitales?"
@PhilipKendall actualizado

Respuestas (4)

Puede hacer algunos CCD muy grandes. Un comunicado de prensa más antiguo habla de un CCD que se fabricó para el Observatorio Naval de los EE. UU. de 4" × 4" y 10 560 píxeles × 10 560 píxeles. Eso es 111 megapíxeles en un sensor. Eso no es pequeño.

Un sensor de 111 megapíxeles

(Del comunicado de prensa anterior)

La primera restricción que tiene el sensor es que debe ser una sola oblea de silicio, y ese es un precio fijo. Puede crear CCD diseñados con un CCD de tres bordes (el borde restante es donde puede leer los datos), como:

mosaico CCD

(De http://loel.uclick.org/manual/deimos_ccd/science/overview/EL3160.html )

Estos se utilizan a menudo en telescopios para obtener un área de imagen más grande con solo un aumento menor en el precio. Tenga en cuenta que existe el problema de que cada CCD debe calibrarse por separado de los demás (no hay dos sensores de imagen que tengan exactamente la misma respuesta); esta es una preocupación importante para los usos científicos ( información de calibración para una matriz CCD de este tipo ).

El CCD de mosaico se puede ampliar de manera significativa. PanSTARRS tiene una matriz de sensores de 1,4 gigapíxeles que se compone de una matriz masiva de CCD de 600 × 600 píxeles:

Conjunto CCD de 8x8 de PanSTARRS

Arriba hay una matriz de CCD de 8 × 8, cada una bastante pequeña. Entonces, esto es parte de una matriz más grande de 8 × 8 de estos segmentos, lo que da una matriz general de sensores de 64 × 64. Esto se hizo debido al ahorro de costos, la velocidad (es más rápido leer cuatro mil CCD de 600 × 600 píxeles simultáneamente que leer un CCD más grande), el aislamiento de píxeles saturados y un reemplazo más fácil en caso de defectos.

El LSST utiliza CCD de tres bordes más convencionales para alcanzar su objetivo de 3,2 gigapíxeles. Cada segmento tiene una matriz de 8×2 de sensores de 500×200 píxeles. Todos los mismos factores mencionados para PanSTARR también se aplican aquí. Se espera que tarde 2 segundos en leer 3.200 millones de píxeles (que en realidad es bastante rápido). Usar menos CCD y más grandes significaría que es más lento, no más rápido.

sensores LSST

Por lo tanto, si bien es posible usar varios sensores en conjunto, aún están compuestos por sensores individuales bastante pequeños en lugar de un solo sensor grande (como se hizo con el sensor de 4 × 4 "de USNO). En algunos casos, los CCD son mucho más pequeños. que incluso los que se utilizan en las cámaras de apuntar y disparar.

Mire hacia atrás a esa primera imagen del sensor de 4 × 4 "y luego considere el tamaño de los sensores regulares allí:

sensores en una oblea

Esto tiene alguna información adicional allí para considerar. Existe el rendimiento máximo de cuántos puede poner en una oblea (simplemente no puede caber más) y el desperdicio. Para hacer ese sensor de 4"×4" necesitaban un extremadamenteoblea de silicio de alta calidad. En un cuadro completo regular, los defectos en el cristal están ahí sin importar cuántos sensores coloques en la oblea. Con una oblea de silicio de 8" (del mismo tamaño que la que está en la parte superior; observe que la mitad del diámetro está en el 'borde'), hay fallas dispersas por toda la oblea. Cuantos menos sensores haya en la oblea, mayor será la posibilidad de que haya habrá una falla en el sensor que lo hará inutilizable (el 36 % de desperdicio en una oblea de sensor de fotograma completo frente al 12,6 % de desperdicio en el sensor de 13,2 mm × 8,8 mm). densidad del chip en lugar de hacerlo más grande (y esa investigación de densidad tiene otras aplicaciones, como hacer que las CPU vayan más rápido).

Con un sensor diseñado para un marco de 60 mm × 60 mm, solo puede colocar alrededor de 8 sensores en la oblea y los desechos aumentan. Puede ver la economía de escala en el trabajo allí.

Tenga en cuenta que los 15 o 16 sensores de trabajo fuera de la oblea de fotograma completo cuestan lo mismo que los 213 o más sensores más pequeños... y tienen un precio acorde. La siguiente imagen muestra el problema con los defectos ubicados en los mismos lugares en la oblea para troqueles de varios tamaños.

Rendimiento del sensor

(De http://commons.wikimedia.org/wiki/File:Wafer_die%27s_yield_model_(10-20-40mm)_-_Version_2_-_EN.png )

Si está dispuesto a alejarse de 'una imagen de una sola vez', puede obtener una sola matriz (bueno, tres, una para cada color) de sensores que se mueven a través de la imagen. Estos se encuentran a menudo como respaldos de escaneo para cámaras de gran formato. Allí, el problema es la precisión del equipo más que el tamaño del sensor (la memoria, el almacenamiento de datos, la E/S rápida se vuelven importantes). Hay algunas cámaras que tienen esto como una unidad integrada, como la Seitz 6x17 digital .

Otras lecturas:

111 megapíxeles es pequeño en comparación con el LSST planificado (3,2 gigapíxeles) . Creo que el telescopio operativo más grande actual (en términos de píxeles) es PanSTARRS, con 1,4 gigapíxeles .
@Joe la clave hay un sensor de 4" x 4". si se desplaza hacia abajo hasta la sección "Plano focal LSST" en el enlace provisto, verá una explicación de "189 balsas 3x3" donde cada parte es un CCD de mosaico de 3 bordes. El enfoque de mosaico se puede escalar bastante como lo ha vinculado ... pero no es un solo sensor. PanSTARRS utiliza un enfoque similar: image-sensors-world.blogspot.com/2007/09/… con una serie de CCD ( pan-starrs.ifa.hawaii.edu/public/design-features/images/… ). Para ambos, los sensores son bastante pequeños.

Los sensores CMOS más grandes disponibles comercialmente para fotografía son de "formato medio" y miden alrededor de 44 mm x 33 mm. Los CCD existen en tamaños un poco más grandes, hasta 54 mm x 40 mm. Es posible que se hayan producido sensores más grandes para aplicaciones científicas.

Los sensores se producen proyectando una máscara sobre una gran oblea de silicio utilizando luz ultravioleta. Luego, la oblea se corta en sensores individuales. El límite de tamaño absoluto de un sensor que se podría producir con este método está determinado por el tamaño del círculo de imagen producido por el proyector (aunque puede haber otras preocupaciones con sensores muy grandes, como el uso de energía y la disipación de calor que presentan un problema difícil). límite de tamaño).

El límite práctico del tamaño del sensor se alcanza mucho antes, ya que está determinado por el rendimiento, es decir, cuántos sensores deben descartarse durante la fabricación debido a defectos. Cuando se fabrican muchos sensores pequeños en una sola oblea, un solo defecto hará que se descarte un sensor pero muchos más sean viables, si un sensor ocupa toda la oblea, entonces un solo defecto significará que no se producen sensores. Por lo tanto, el rendimiento disminuye con el cuadrado del tamaño del sensor, lo que hace que los sensores más grandes no sean económicos.

También se aplican economías de escala, los sensores de "fotograma completo" de 36 mm x 24 mm serían más caros si se produjeran en el mismo volumen que los sensores de formato medio.

Buena respuesta: aprecio traer las realidades tanto de la ingeniería como de los negocios.

Hay sensores aún más grandes. Si observa detenidamente la imagen en la esquina superior derecha de esa página, verá que el sensor más grande que existe es el sensor 'Kodak KAF de formato medio' .

Ok, entiendo que no es muy fácil darse cuenta de esto porque fácilmente se puede tomar que el fondo de esa imagen es gris mientras que en realidad la imagen tiene un fondo blanco.

Véalo mejor aquí .

Además de ese sensor, hay otros sensores más grandes que FF. En la misma página, desplácese hasta la Tabla de formatos y tamaños de sensores , haga clic en la columna 'Factor de recorte' para ordenar la tabla y observe los formatos con un factor de recorte inferior a 1. Saque los formatos de película y terminará con los siguientes sensores en este orden:

  • Fase Uno P 65+, IQ160, IQ180
  • Hoja AFi 10
  • Formato medio (Hasselblad H5D-60)
  • CCD Kodak KAF 39000
  • Pentax 645D
  • leica s

Pero cuidado: también hay desventajas para estos sensores: cámaras y lentes grandes y pesados. Mucho más difícil construir una lente para tal sensor (círculo de imagen más grande) y... ...por supuesto... ...precio.

Pero el sensor Kodak es CCD, no CMOS.

Algunas cosas más que pueden limitar lo que es práctico por debajo de lo que se puede fabricar:

  1. peso (del sistema resultante). Un sensor muy grande necesita un círculo de imagen muy grande, lo que significa lentes grandes y una cámara grande.
  2. el consumo de energía. Un sensor grande necesita más potencia que uno pequeño, por lo que la duración de la batería se reduce (a menos que vuelva a aumentar el tamaño y el peso de la cámara para albergar una batería más grande).
  3. velocidad. Se tarda más en leer un sensor más grande que en leer uno más pequeño con la misma densidad de elementos del sensor. Así que tu "velocidad de obturación" baja.
  4. costo (insinuado, pero entra en juego en varios niveles). Por supuesto, un sensor más grande cuesta más que uno pequeño, no solo porque necesita más materias primas, sino que también aumenta la cantidad de productos desechados, cuyo costo debe resumirse en la menor cantidad que se vende.
Me sorprende que nadie más haya mencionado el problema de la velocidad. También vale la pena mencionar que cuanto más grande sea (en pulgadas o cm), más distorsión obtendrá en los bordes. Hay documentos de astronomía que describen cómo describir la proyección de la imagen para que otros puedan entender cómo se distorsiona la imagen para que puedan volver a proyectarla para alinear varias imágenes. Aumentar la escala en píxeles sin aumentar el tamaño físico también es un problema de velocidad, ya que requiere exposiciones más largas para obtener suficiente señal/ruido.
@Joe, ese es un efecto secundario de la lente que coloca frente al sensor que no genera rayos perfectamente paralelos en toda la cara del sensor, no es un problema con el sensor en sí. Puede evitar eso haciendo que sus lentes (y su círculo de imagen) sean mucho más anchos, aumentando el peso, el tamaño y, por lo tanto, el costo de su sistema aún más.