Pregunta de estructura CMOS en capas

Estoy tratando de entender el funcionamiento de un sensor de imagen CMOS. Entiendo que el aumento de la longitud de onda da como resultado una mayor profundidad de penetración en el silicio que se usa a menudo en los sensores de imagen CMOS . Lo que necesito ayuda para comprender es cómo las longitudes de onda (correspondientes a los colores primarios, rojo, verde y azul) se relacionan con la estructura vertical del sensor CMOS.

Después de leer varios artículos y realizar algunos experimentos, soy consciente de que los sensores CMOS son realmente sensibles a las longitudes de onda UV, pero estoy tratando de entender cómo pude obtener una respuesta de color rosa rojizo utilizando una fuente UV incidente.

¿Alguien tiene alguna idea de esto?
¿Sería electronics.stackexchange.com un lugar mejor para esta pregunta?
Lo dudo. La respuesta UV de un sensor CMOS no parece un problema electrónico; es más un tema de óptica.
@DamienIgoe: ¿Cuál es su fuente de luz ultravioleta? Además, creo que este sería un mejor enlace para poner. ¿Lo has leído?
En realidad, no puse ese enlace allí, debe ser una edición. Sin embargo, tanto el enlace editado como su enlace son muy buenas descripciones.
¡ No borres esto ! Creo que esta es una pregunta valiosa. Esa discusión fue sobre preguntas de "hacer mi tarea" que no muestran un esfuerzo de investigación real y están muy localizadas. ¡Esto esta bien!

Respuestas (2)

Un seguimiento de enlaces que se extienden desde los enlaces que @krs013 proporcionó amablemente en su respuesta.

Uno de los factores clave que se menciona en la página 19 de este artículo de Hamamatsu* es la intensidad de la luz incidente en el sensor (mayor intensidad = mayor respuesta). Otro artículo es este artículo más antiguo de los sensores UDT* (de 1982, fechado, pero con una buena base) que sugiere que las diferentes propiedades de absorbancia de luz UV frente a luz visible del silicio y el dióxido de silicio (utilizado en sensores CMOS) como otro factor (algo que estoy ahora voy a investigar).

Ahora, en los experimentos mencionados en mi artículo de apertura (validado y publicado recientemente**), la mayoría de las respuestas en el UV cercano fueron de color rosa rojizo al ver el sol (segundo artículo), ya que estaba tomando medidas a diferentes intensidades de luz incidente. , esto puede explicar la respuesta rojiza aparentemente contraintuitiva a la luz UVA cercana.

*Tenga en cuenta que no tengo afiliación ni con Hamamatsu ni con UDT, pero estoy dando crédito por el trabajo que han realizado en estas referencias.

**Incluyo este enlace a uno de mis artículos publicados solo porque demuestra la creciente respuesta de la cámara al aumento de la radiación UV.

Después de leer la página de wikipedia y este artículo , entiendo un poco mejor tu pregunta. Un sensor CMOS detecta colores al dejar pasar la luz a través de tres capas de detector, cada una con una determinada respuesta espectral y absorción. No creo que cada capa sea específicamente roja, azul y verde, sino que sus respuestas se superponen y que el procesador decodifica esta salida y la asigna a una gama de colores, como lo hacen nuestros ojos. Sin embargo, el diseño es para luz visible y no para radiación UV. La UV probablemente no se detecte ni se filtre de una manera que permita caracterizarla; simplemente se vería como una luz aleatoria de otro color. Entonces, sí, los sensores CMOS detectan la luz ultravioleta, pero probablemente no de una manera útil.

Creo que la discrepancia podría venir de dos maneras. O bien los fotodiodos que constituyen la parte detectora del sensor responden a la radiación UV de forma no intencionada (no sabría si esto es probable), o el filtrado de la luz a medida que pasa a través del sensor no bloquea los rayos UV tan bien en las capas azul y verde (observe el orden en el segundo enlace), por lo que termina todo en rojo. Lo segundo es más probable, pero ambos podrían ser causas. ¡Espero que eso ayude!

Gracias por su respuesta, he podido caracterizar la respuesta UV (tengo un artículo publicado al respecto en Photobiology Photochemistry). Lo que estoy tratando de entender es cómo obtengo consistentemente imágenes dominadas por el rojo. Su segundo enlace parece ser una forma de explicar eso, lo miraré más de cerca cuando llegue a casa del trabajo.
Me imagino que la saturación de rojo se debe a que el UV penetra en las capas azul y verde, lo que se interpreta como luz roja. Aún así, de sensores CMOS sólo sé lo que aprendí hoy, así que no pretendo saberlo mejor que nadie.
Sí, eso es lo que estoy buscando para una posible investigación para descubrir por qué, tengo un par de corazonadas, en parte debido a la energía fotónica de las longitudes de onda UV que se utilizan, pero todavía estoy un poco confuso.
Si yo fuera usted, intentaría investigar cómo responden los fotodiodos a las longitudes de onda UV. No estoy seguro de cómo se comportan, pero tendrá algo que ver con eso.
¡Bote! Encontré un artículo relacionado con eso... bueno, tiene las ecuaciones para determinarlo. Gracias por eso.
@DamienIgoe Si ese artículo proporciona una buena respuesta a su pregunta, considere publicarlo como respuesta aquí. Esta pregunta está visible en Google , por lo que una buena respuesta ayudará a futuros visitantes con la misma pregunta.
No hay problema, voy a añadir lo que he encontrado.