Así que estaba leyendo todo sobre el sistema de múltiples cámaras en el nuevo Huawei P20 Pro, lo que realmente me hizo pensar en cómo podemos usar múltiples cámaras para mejorar la calidad de la imagen, especialmente en una forma tan compacta como un teléfono.
Examiné el filtro de Bayer y noté que cuando cada fotositio recopila la intensidad de uno de los componentes RGB, también descartamos las intensidades de los otros dos componentes RGB. Y entonces tenemos que aproximar las intensidades descartadas usando demosaicing.
En lugar de recurrir a la demostración, ¿qué pasa si creamos un sistema de cámaras que tenga 3 cámaras, cada una responsable de solo una de RGB? No se requiere más demostración. ¿No mejoraría drásticamente la calidad de la imagen final ya que no hay más aproximaciones de color?
¿Sería realmente caro, dado que el P20 Pro ya parece estar bien con 3 cámaras?
Tu idea es muy interesante. Pero hay algunos problemas muy serios.
Seguro que esta lista se puede ampliar, pero espero que esto sea suficiente.
EDITAR: relacionado con el punto 1, si los sensores están en un plano, esto "distorsionará" adicionalmente las imágenes capturadas por ellos. Y esto significará que en primer plano deberías tener 3 sistemas de enfoque diferentes.
La calidad de imagen de los teléfonos inteligentes modernos está limitada por el diminuto tamaño del sensor, la calidad de la lente y la difracción, no por el proceso de demostración.
Por lo tanto, la idea no parece ser útil.
Tenga en cuenta que el P20 mencionado anteriormente presenta una cámara monocromática, lo que presenta el mismo tipo de problemas con el registro de imágenes que las hipotéticas cámaras separadas R, G y B (paralaje, imágenes inconsistentes entre canales). Y el objetivo era aumentar la sensibilidad a la luz baja en lugar de la resolución del color. Porque la resolución del color no es un problema y a nadie le importa.
Muchas cámaras de vídeo ya hacen justo lo que te propones. Pero utilizan un sistema de división de haz entre la lente y los sensores que, básicamente, reduce la cantidad de luz que llega a cada sensor en aproximadamente la misma proporción que cuando se utiliza un filtro enmascarado de Bayer.
El mayor problema de hacerlo con tres lentes diferentes manteniendo un alto grado de precisión es la complejidad y el costo de crear conjuntos de lentes perfectamente combinados. Esto no es irresoluble, pero la solución probablemente sea más costosa y computacionalmente compleja que usar una máscara de Bayer y una demostración.
En lugar de recurrir a la demostración, ¿qué pasa si creamos un sistema de cámaras que tenga 3 cámaras, cada una responsable de solo una de RGB? No se requiere más demostración. ¿No mejoraría drásticamente la calidad de la imagen final ya que no hay más aproximaciones de color?
Cada una de esas tres cámaras necesitaría un filtro de un solo color frente a ella para usar las diferencias comparativas de cada una para producir una imagen de "color". Esto significa que la misma proporción de luz que es absorbida/reflejada por los pequeños filtros en un sensor enmascarado de Bayer aún sería absorbida/reflejada por los grandes filtros de un solo color frente a cada uno de los tres sensores independientes. Sin un filtro de color diferente delante de cada una, todas serían cámaras monocromáticas idénticas que producirían los mismos datos.
Esto es lo que pasa con el "color": no existe el "color" en la naturaleza. La luz solo tiene longitudes de onda. Las fuentes de radiación electromagnética en ambos extremos del espectro visible también tienen longitudes de onda. La única diferencia entre la luz visible y otras formas de radiación electromagnética, como las ondas de radio, es que nuestros ojos reaccionan químicamente a ciertas longitudes de onda de radiación electromagnética y no reaccionan a otras longitudes de onda . Más allá de eso, no hay nada sustancialmente diferente entre "luz" y "ondas de radio" o "rayos X". Nada.
Los conos en nuestras retinas se componen de tres tamaños diferentes, cada uno de los cuales responde mejor a una longitud de onda diferente de radiación electromagnética. En el caso de nuestros conos "rojo" y "verde", hay muy poca diferencia en la respuesta a la mayoría de las longitudes de onda de la luz. Pero al comparar la diferencia y cuál tiene una respuesta más alta, los conos rojo o verde, nuestros cerebros pueden interpolar hasta qué punto y en qué dirección hacia el rojo o hacia el azul, la fuente de luz es más fuerte.
El color es una construcción de nuestro sistema ojo-cerebro que compara la respuesta relativa de los tres conos de diferentes tamaños en nuestras retinas y crea una percepción de "color" basada en las diferentes cantidades que cada conjunto de conos responde a la misma luz. Hay muchos colores que los humanos perciben que no pueden ser creados por una sola longitud de onda de luz. "Magenta", por ejemplo, es lo que crea nuestro cerebro cuando estamos expuestos simultáneamente a la luz roja en un extremo del espectro visible y a la luz azul en el otro extremo del espectro visible.
Esta tecnología existe en forma de cámara de 3ccd/3-chip . Habría algunos problemas al colocar el prisma en el espacio disponible en un teléfono. Creo que terminarías con algo al menos tan grueso como un iPhone gen1, pero podría ser necesario algo más cercano al grosor de una baraja de cartas. Supongo que el mercado podría ser lo suficientemente fuerte como para admitir un dispositivo de este tipo. Hubo suficiente interés para que los pedidos anticipados se agotaran para el hidrógeno de $ 1200 . Sé que casi compro uno.
miguel c
szulat
miguel c
szulat
miguel c
fotocientífico
szulat
szulat