Cómo investigar la teoría del hardware en los sistemas de visión [cerrado]

Estoy tratando de leer sobre la teoría (para hardware) de cómo funciona el hardware en un sistema de visión/cámara desde el sensor de la cámara hasta los píxeles de la pantalla.

No sé qué comenzar a buscar en Google para comprender cómo se relaciona el dominio del tiempo con el dominio espacial y el hardware intermedio (como en los teléfonos celulares). ¿Qué debería estar buscando?

PD: Perdón de antemano por la vaga pregunta, pero busco una dirección.

Realmente depende del sensor y la tecnología. Si realmente quiere sumergirse en esto, una buena manera sería intentar conectar un generador de imágenes CMOS con un microcontrolador.

Respuestas (2)

Esa es una pregunta extremadamente amplia, pero para comenzar, aquí hay algunos temas.

Para las cámaras, querrá investigar

  • corrección de falta de uniformidad
  • eliminación de píxeles muertos
  • control de exposición automático
  • mejora de contraste
  • corrección gamma
  • formateo y transmisión de señales

Para pantallas, querrás

  • recepción y decodificación de señales
  • ajuste de velocidad de fotogramas
  • ajuste de geometría (tamaño de marco)
  • controladores de panel

La visión artificial es un tema muy diferente a obtener una imagen en una pantalla; implica encontrar bordes en los datos de la imagen e inferir la existencia de formas y objetos en la escena para que el software pueda tomar decisiones sobre lo que "ve". Un buen lugar para comenzar es OpenCV.org

La retina humana proporciona detección de gradiente de convolución localizada (sombrero mexicano); La visión artificial utiliza los mismos métodos. Una vez que se detectan los gradientes locales, la retina usa su paralelismo (100 millones de píxeles) para examinar "texturas" locales, de mediana y gran escala; los trastornos a la "textura" se vuelven muy interesantes para los humanos. La forma a partir de la textura y la forma a partir de la oclusión monocular permiten a los humanos derivar un modelo tridimensional del mundo.

La visión artificial aún no tiene este procesamiento de 100 millones de píxeles en paralelo.

Con respecto al proceso de sensor a píxel en pantalla, el sensor utiliza una red de diodos, estos diodos tienen suficiente profundidad de unión para absorber con cierta probabilidad los fotones y recolectar un electrón o dos o miles. DarkCurrent establece el piso de detección. Periódicamente, estos diodos se vacían de sus electrones a medida que los electrones se convierten en voltajes y esos voltajes se convierten en números cuantificados, enviados fuera del chip a varios motores de cómputo. O tu pantalla.