En el pasado, solo teníamos fotos en blanco y negro, luego obtuvimos películas en color para tomar fotos. Entrando en el siglo XXI, las fotos digitales se estaban volviendo populares y la cantidad de píxeles por sí sola está aumentando rápidamente.
Dentro de 30 años, ¿cómo será una foto típica? ¿Tiene muchos más píxeles que las fotos digitales contemporáneas? ¿O tendría otras mejoras con respecto a la tecnología fotográfica actual?
30 años no es mucho para cambiar drásticamente la fotografía, es básicamente lo mismo desde sus inicios. El color es un paso sencillo, lo digital es porque ahora todo es digital. Los hologramas existen pero no son prácticos, no solo porque carecemos de tecnología, sino que no es muy conveniente.
La única mejora que pude ver en 30 años es que la estereografía sería más común, esa tendencia ya comenzó. Diría que más cámaras estarán equipadas con múltiples lentes para construir imágenes estéreo. Probablemente, las pantallas 3D sin gafas estarían disponibles de forma generalizada. Esto puede permitir que la tecnología de casi 100 años finalmente se dispare.
Si está buscando otro avance para usar en su historia, considere cámaras de campo de luz , imágenes 3D de una sola lente o sensores basados en rejillas de difracción sólidas u hologramas que no requieren lentes en absoluto, pero son planos como los ojos de un insecto. .
Los sensores se están acercando al límite cuántico en términos de sensibilidad. Además, los sensores de gama alta añaden muy poco ruido. Veo el gran lado caro de las cosas moviéndose hacia dispositivos más baratos.
Sin embargo, una lente convencional debe ser grande y escalar con el tamaño del sensor. Por lo tanto, los dispositivos muy compactos o planos comenzarán a usar lentes "innovadoras" en sensores un poco más grandes, ya que el tamaño del sensor es el principal limitador de calidad.
Ya hemos visto que el concepto de unos pocos segundos de animación ocupa un lugar propio. Puede convertirse en el estilo de un retrato usar esta idea para dar un acto activo de sonreír al espectador, o lo que sea.
¿Cómo se presentan las imágenes? Una imagen animada requiere una pantalla en lugar de papel tonto. Pero, ¿cuántas fotos imprimimos y colgamos? ¡Los pocos marcos de pared permanentes podrían muy bien ser pantallas completas! Pero incluso hoy en día, la mayoría de las imágenes se comparten en dispositivos y no se convierten en impresiones.
Tal vez, cuando compre un cuadro grande enmarcado del puente Golden Gate para colgarlo en una pared, no será una imagen estática, sino que cambiará con la hora del día, el clima y las estaciones.
Tal vez el marco dedicado que muestra "¡Hola, abuela!" se actualizará automáticamente cada pocos días cuando se le recuerde o se le solicite al niño que "salude a la abuela" antes de la cena.
Entonces, además de una tecnología mejorada en la captura de imágenes, preveo una maduración de la tecnología y los productos para administrar y mostrar esta gran cantidad de datos que se generan.
Si bien habrá más píxeles, mejor enfoque y todo eso, creo que el gran cambio será el final de la fotografía fija.
"¿Por qué no se mueven?", preguntarán los jóvenes al ver fotos antiguas.
La fotografía de campo de luz captura información sobre el campo de luz que emana de una escena; es decir, la intensidad de la luz en una escena y también la dirección en la que viajan los rayos de luz en el espacio.
La fotografía de campo de luz le permite, según las especificaciones del dispositivo que capturó la imagen, mostrar imágenes con una profundidad de campo variable, así como hologramas. Esta tecnología también es la base ( según nVidia 1 , 2 ) para las pantallas de realidad virtual de próxima generación, ya que le permitiría concentrarse en los detalles en los que desea enfocarse, obteniendo una experiencia más realista.
La tecnología tiene una implementación muy limitada en este momento porque es muy costosa tanto en términos de dinero como de almacenamiento de información. Una sola imagen fija puede pesar más de 50 Gb.
Si las cosas van bien, espere que esta tecnología sea un lugar común en 30 años.
Espero ver más profundidad de color. Actualmente tenemos que hacer un posprocesamiento HDR para obtener un resultado decente de una escena con gran contraste (cielo/suelo, interior/exterior, etc.). Más bits de datos de intensidad permitirán dicho procesamiento a partir de una sola imagen.
Sensores ubicuos. Cuando se toma una foto, es una colección de todos los datos ambientales y las fuentes de los sensores en el marco. Los datos de la foto en sí probablemente serán solo una definición de lo que está "en el marco".
Los datos pueden ser tan simples como cuándo, dónde y descripciones de la ventana gráfica.
Tal vez dentro de 30 años seremos capaces de grabar no solo desde una perspectiva, sino grabar todo en un radio determinado. Más tarde podríamos reproducir esa grabación de tal manera que sería posible verla desde cualquier ángulo. Un retrato podría convertirse completamente en 3D, lo que permitiría al observador moverse alrededor del sujeto y verlo de forma interactiva, incluso desde atrás.
Después de todo, la fotografía solo significa "pintar con luz", la holografía es solo el siguiente paso.
Las cámaras regulares de nivel de consumidor podrán capturar y almacenar una gama de colores mucho más amplia que solo el espectro visible, y el software estará disponible para desplazar fácilmente al rojo o al azul sus imágenes, pasando de una imagen del wifi local en el extremo rojo, a través de un mapa de calor, a través de la luz visible, a través de ultravioleta, a una imagen de rayos X en el extremo azul.
Obviamente, los rangos superiores serían mucho más tenues, debido a que la atmósfera absorbe las longitudes de onda más altas, y los rangos inferiores tendrían una resolución más baja, pero la interpolación del software podrá proporcionar una vista razonablemente clara en todas las longitudes de onda.
También habrá mucho más uso del software de procesamiento de imágenes. Las manipulaciones de imágenes simples, como eliminar personas de fondo o crear tomas de acción, serán simples y automatizadas.
Un sonido perfumado táctil animado en 3D "GIF" sería el Santo Grial de la fotografía. Aunque dudo que todavía pueda llamarse simplemente "fotografía".
Códigos micro QR integrados (u otra tecnología de impresión de datos) en una escala/espectro invisible a simple vista. Esas fotos de Harry Potter ahora son reales.
Por lo tanto, las fotos fijas tendrían una amplia gama de datos impresos sobre los pigmentos visibles, lo que permitiría que la tecnología inteligente los leyera y presentara características adicionales en la fotografía. La foto también puede tener su propia dirección IP V.xx y su propio almacenamiento en la nube en línea.
Entonces, las gafas inteligentes animarían la fotografía o agregarían características especiales, como comentarios descargados de la web, calcomanías u otras cosas. Una foto de sus hijos en el espectáculo de fuegos artificiales del festival podría animar los fuegos artificiales en la parte de atrás.
Las fotos inteligentes ahora son como álbumes de recortes colaborativos o publicaciones en redes sociales. Un visitante puede publicar datos en el almacenamiento en la nube vinculado a la foto, y podría ser visible para los visitantes seleccionados. Así que las fotos sobre la chimenea ahora tienen su propio mostrador.
Los datos de voz y video se pueden agregar en el momento de la filmación o más tarde. Las impresoras láser portátiles (casi todos los dispositivos las tienen ahora) podrían grabar códigos invisibles en áreas sensibles de la foto o cargar los datos en el almacenamiento en la nube asociado a esa foto.
Dado que ya hay intentos de hacer que las personas ciegas vean mediante el envío de señales al cerebro, me parece muy posible que en 30 años ya no haya fotos; habrá visiones . Ver una foto significará ver la escena capturada exactamente de la forma en que la vio la persona que la capturó. Requerirá "solo" grabar señales del nervio óptico y luego reproducirlas en el cerebro de otra persona.
Más y más megapíxeles, tal vez incluso cámaras de gigapíxeles.
3d seguro, y modelos de objetos individuales.
El espectro avanzará mucho más allá de HDR para cubrir posible todas las formas de luz.
Las cámaras tendrán muchas mejoras como reconocimiento facial, luz súper baja sin necesidad de una velocidad de obturación de 5 minutos. Todas las características que tenemos hoy serán perfeccionadas.
Se incrustarán toneladas de datos nuevos en EXIF, XMP o como se llame lo nuevo. Piense en todos los sensores en nuestros teléfonos celulares, aún más estarán integrados en nuestras cámaras.
Obviamente, la duración de la batería y las capacidades de almacenamiento limitarán la tasa de crecimiento.
Es probable que tenga una pantalla AR o una imagen 3D extrapolada proyectada. De acuerdo, el original probablemente será algo parecido a lo que es hoy. Una imagen 2D plana, tal vez con más resolución, pero después de eso podremos tomar todas las imágenes asociadas y la información ambiental conocida y extrapolar el modelo High poly con texturas de alta resolución proyectadas en el espacio AR. Y eso no es todo, es probable que pueda mover al sujeto, caminar alrededor de él, etc. porque la imagen que verá se extrapola de todas las imágenes conocidas del sujeto, sus familiares, el entorno, que usted tienen acceso, así como sus comportamientos y todos los motores de física involucrados en el arte 3D... Y aquí está la cuestión, esto también se aplica a todas las imágenes pasadas a las que también tiene acceso.
Ecografías de Bebé.
Aunque la tecnología no involucra luz per se, sino ecografía, la popular ocasión de tomar "fotografías" del niño en el útero ya no requerirá una visita al ecografista. https://en.m.wikipedia.org/wiki/File:3dultrasound_20_weeks.jpg
Las ecografías estarán disponibles a pedido a través de la práctica tecnología de eco y la aplicación del sabor del día integrada directamente en sus teléfonos inteligentes.
Como suele ser la norma con la tecnología emergente, los primeros intentos serán versiones de baja "resolución" de las imágenes que obtienes en las visitas al médico, pero una vez que la popularidad y la gran demanda se vuelven evidentes, esta tecnología avanza rápidamente y las ecofotos superarán con creces a cualquier actual. fotografías de sonograma.
La combinación de técnicas fotográficas tradicionales y la utilización de nuevos conceptos y los resultados de investigaciones médicas recientes desarrollarán formas de "ver" las imágenes de manera mejorada y útil, por ejemplo, mediante la aplicación de técnicas tridimensionales como el trabajo de Lithothane, con descubrimientos recientes de técnicas térmicas y transductores mecánicos ( https://www.nobelprize.org/prizes/medicine/2021/advanced-information/ ) - y posiblemente imprimiendo con una proyección anamórfica - una persona ciega o deficiente visual podría "leer" y "ver" e imagen al tacto
Aparte del salto del blanco y negro al color, las fotos no han cambiado mucho desde que se crearon, solo la tecnología utilizada para tomarlas y el medio en el que se ven.
No esperaría demasiada diferencia en el futuro con respecto a las fotos reales.
Esto dará como resultado:
posibilidades de IA
una extensión de la respuesta de Stig Hemmer: una forma de "reproducir en bucle" un video corto para que parezca fluido o natural. De esta manera, puede tomar una foto que en realidad es un video corto que aparecerá para darle vida a su foto.
"Embellecimiento": todas aquellas personas que odian las fotos de sí mismos: la IA podrá 'limpiar' sus rostros para que se vean mejor, o ajustar la iluminación para deshacerse del efecto 'la cámara agrega 10 libras'.
Edición de fotos, es decir, se puede hacer automáticamente y parecer natural. Por ejemplo, si desea salir de una foto, la IA puede ordenar la iluminación, completar lo que había detrás de usted y hacer que se vea realista.
Zoom y mejora - ¡El cliché de películas a menudo ridiculizado! Puede existir en alguna forma. Sí, sé que no puedes "añadir información". Pero la IA puede hacer una suposición decente de los detalles que faltan o usar combinaciones de los millones de otras fotos (por ejemplo, tomadas de la misma área o persona) para estimar lo que debería estar allí en un grado razonablemente realista.
Creo que el uso de la IA para hacer que las imágenes sean más flexibles se volverá común. Ya tenemos IA que puede tomar algunas imágenes y extrapolar un entorno 3D completo a partir de ellas. Tenemos IA que puede tomar una imagen y "mejorar" la resolución para ver más detalles.
Por lo tanto, las imágenes tomadas dentro de 30 años pueden convertirse en mundos 3D, o ampliarse más, y todo eso además de los sensores mejorados, como campos de luz o resoluciones más altas. La IA podría usarse para fusionar los datos de múltiples sensores, como un gran angular y un lente de zoom, o podría integrar datos a lo largo del tiempo mientras mueve la cámara alrededor de una escena. La IA probablemente facilitará la selección de los momentos perfectos, por lo que la foto que publiques tendrá el momento exacto en que todos sonreían y no parpadeaban (o incluso combinar varios momentos para cada persona en el grupo) o automáticamente te dará la toma perfecta. de un atleta atrapando la pelota. O la IA podría eliminar a los turistas solo para mostrar la atracción turística en sí.
Puede obtener algo de inspiración de https://www.youtube.com/c/K%C3%A1rolyZsolnai : cubre muchos de estos tipos de IA cuando se publican por primera vez, así que tal vez elija algo de allí y extrapolelo al futuro. .
usuario
goufalita
Mindwin
Nolonar
fredsbend
Chepner
greg
Pelinore