Estoy tratando de entender el funcionamiento de un sensor de imagen CMOS. Entiendo que el aumento de la longitud de onda da como resultado una mayor profundidad de penetración en el silicio que se usa a menudo en los sensores de imagen CMOS . Lo que necesito ayuda para comprender es cómo las longitudes de onda (correspondientes a los colores primarios, rojo, verde y azul) se relacionan con la estructura vertical del sensor CMOS.
Después de leer varios artículos y realizar algunos experimentos, soy consciente de que los sensores CMOS son realmente sensibles a las longitudes de onda UV, pero estoy tratando de entender cómo pude obtener una respuesta de color rosa rojizo utilizando una fuente UV incidente.
Un seguimiento de enlaces que se extienden desde los enlaces que @krs013 proporcionó amablemente en su respuesta.
Uno de los factores clave que se menciona en la página 19 de este artículo de Hamamatsu* es la intensidad de la luz incidente en el sensor (mayor intensidad = mayor respuesta). Otro artículo es este artículo más antiguo de los sensores UDT* (de 1982, fechado, pero con una buena base) que sugiere que las diferentes propiedades de absorbancia de luz UV frente a luz visible del silicio y el dióxido de silicio (utilizado en sensores CMOS) como otro factor (algo que estoy ahora voy a investigar).
Ahora, en los experimentos mencionados en mi artículo de apertura (validado y publicado recientemente**), la mayoría de las respuestas en el UV cercano fueron de color rosa rojizo al ver el sol (segundo artículo), ya que estaba tomando medidas a diferentes intensidades de luz incidente. , esto puede explicar la respuesta rojiza aparentemente contraintuitiva a la luz UVA cercana.
*Tenga en cuenta que no tengo afiliación ni con Hamamatsu ni con UDT, pero estoy dando crédito por el trabajo que han realizado en estas referencias.
**Incluyo este enlace a uno de mis artículos publicados solo porque demuestra la creciente respuesta de la cámara al aumento de la radiación UV.
Después de leer la página de wikipedia y este artículo , entiendo un poco mejor tu pregunta. Un sensor CMOS detecta colores al dejar pasar la luz a través de tres capas de detector, cada una con una determinada respuesta espectral y absorción. No creo que cada capa sea específicamente roja, azul y verde, sino que sus respuestas se superponen y que el procesador decodifica esta salida y la asigna a una gama de colores, como lo hacen nuestros ojos. Sin embargo, el diseño es para luz visible y no para radiación UV. La UV probablemente no se detecte ni se filtre de una manera que permita caracterizarla; simplemente se vería como una luz aleatoria de otro color. Entonces, sí, los sensores CMOS detectan la luz ultravioleta, pero probablemente no de una manera útil.
Creo que la discrepancia podría venir de dos maneras. O bien los fotodiodos que constituyen la parte detectora del sensor responden a la radiación UV de forma no intencionada (no sabría si esto es probable), o el filtrado de la luz a medida que pasa a través del sensor no bloquea los rayos UV tan bien en las capas azul y verde (observe el orden en el segundo enlace), por lo que termina todo en rojo. Lo segundo es más probable, pero ambos podrían ser causas. ¡Espero que eso ayude!
usuario24901
qmecanico
krs013
krs013
usuario24901
Emilio Pisanty