¿Cómo será una foto en los próximos 30 años?

En el pasado, solo teníamos fotos en blanco y negro, luego obtuvimos películas en color para tomar fotos. Entrando en el siglo XXI, las fotos digitales se estaban volviendo populares y la cantidad de píxeles por sí sola está aumentando rápidamente.
Dentro de 30 años, ¿cómo será una foto típica? ¿Tiene muchos más píxeles que las fotos digitales contemporáneas? ¿O tendría otras mejoras con respecto a la tecnología fotográfica actual?

La resolución de la película y la sensibilidad a la luz también han aumentado con el tiempo. Los fotógrafos de placas de vidrio de hace un siglo habrían estado encantados de tener acceso a lo que en los últimos años consideraríamos una película "lenta" (ISO bajo). Lo mismo para la película con la sensibilidad a la luz de la película ISO alta. La fotografía digital realmente no cambia nada de eso; todo lo que realmente cambia es el medio de grabación.
"¡Es un HDTV, tiene una resolución más alta que el mundo real!" - Futurama
Esta pregunta es sobre el tema. En mi humilde opinión
Creo que en 30 años, los dispositivos como HoloLens podrían ser una cosa. Con él, básicamente podrías ver tus fotos en cualquier Surface que quieras. Sus paredes, o incluso sus ventanas (juegos de palabras).
Las fotografías tienden a perder color a medida que envejecen. A menudo, las esquinas se doblan o rasgan debido al mal manejo. El mal manejo especialmente atroz puede provocar manchas de huellas dactilares e incluso la disolución total del material químico que forma el color del papel que lo contiene. Ocasionalmente, las fotografías sufren daños por agua, calor o plagas de animales debido a las malas condiciones de almacenamiento. En circunstancias excepcionales, a veces las fotografías se adhieren al cristal del marco que las contiene, lo que provoca daños graves si intenta retirarlas. Oh, te referías a las especificaciones de tecnología de imagen . Lo siento. [/Troll]
"¿Llegando a ser popular?
Ya tenemos cámaras con un 'campo de profundidad' en 3D. Me imagino que estarán disponibles en un dispositivo tipo iPhone en 30 años.
Ya agregamos color hace más de medio siglo, por lo que lo único que queda para hacer fotografías más representativas de la realidad de lo que es actualmente sería pasar a 3D, probablemente hayamos podido hacer fotos en 3D durante más tiempo del que hemos podido. hacer las de color, pero no lo hacemos, así que obviamente no hay interés en ellas y, por lo tanto, es más que marginalmente improbable que comencemos a hacerlo ahora ... conclusión: no habrá cambios, una foto es una foto y es mucho más probable que no se quede así.

Respuestas (17)

30 años no es mucho para cambiar drásticamente la fotografía, es básicamente lo mismo desde sus inicios. El color es un paso sencillo, lo digital es porque ahora todo es digital. Los hologramas existen pero no son prácticos, no solo porque carecemos de tecnología, sino que no es muy conveniente.

La única mejora que pude ver en 30 años es que la estereografía sería más común, esa tendencia ya comenzó. Diría que más cámaras estarán equipadas con múltiples lentes para construir imágenes estéreo. Probablemente, las pantallas 3D sin gafas estarían disponibles de forma generalizada. Esto puede permitir que la tecnología de casi 100 años finalmente se dispare.

Las pantallas 3D sin gafas ya están disponibles para dispositivos móviles: ¡la Nintendo 3DS ya está equipada con esta tecnología!
Nunca lo escuché, ¿podría dar los que te permiten hacer eso?
3DS tiene una capacidad 3D limitada (400x240 por ojo, distancia y ángulo fijos), me preguntaba si hay pantallas 3D para teléfonos móviles o tabletas modernos.
Las capacidades para 3DS son limitadas porque Nintendo decide hacerlo, no porque no tengamos la tecnología para mejorarlo. El hecho de que Nintendo pueda colocarlo en una consola significa que cualquiera puede colocarlo en cualquier cosa, es solo una cuestión de interés.
Por ejemplo, aquí hay una lista de teléfonos inteligentes habilitados para 3D que usan una tecnología similar a la 3DS para funcionar.
Gracias, aprendí algo muy interesante. Fomentar esta tecnología es definitivamente un camino a seguir.
El "nuevo" 3DS también tiene la capacidad de rastrear su rostro, haciendo que el efecto 3D apunte hacia sus ojos para que no tenga que sostenerlo en una posición determinada.
En el tema 3ds, también tiene una cámara 3d (al menos las nuevas).
@JMac Ha tenido un par estereoscópico de cámaras frontales desde su creación. Las imágenes "3D" tomadas con él en realidad se almacenan como dos archivos separados, pero a menos que desee cambiar el ángulo de visión, hay poca diferencia entre eso y los modelos 3D.
@wizzwizz4 Sí, supongo que "cámara 3D" es una simplificación excesiva/un nombre inapropiado.
Pero hemos tenido la capacidad de hacer fotografías en 3D durante unos 75 años, por ejemplo, en.wikipedia.org/wiki/View-Master . La cuestión es que, para la mayoría de los usos, no agregan lo suficiente como para que valga la pena.
@TSar Vale la pena señalar que una parte significativa de los usuarios de 3DS desactivan activamente las funciones 3D porque les molesta.
@ jpmc26 No lo dudo, mi SO lo hace. Pero, de nuevo, para empezar, mucha gente no miente con los efectos 3D, así que...

avances novedosos

Si está buscando otro avance para usar en su historia, considere cámaras de campo de luz , imágenes 3D de una sola lente o sensores basados ​​en rejillas de difracción sólidas u hologramas que no requieren lentes en absoluto, pero son planos como los ojos de un insecto. .

mejoras a las cámaras convencionales

Los sensores se están acercando al límite cuántico en términos de sensibilidad. Además, los sensores de gama alta añaden muy poco ruido. Veo el gran lado caro de las cosas moviéndose hacia dispositivos más baratos.

Sin embargo, una lente convencional debe ser grande y escalar con el tamaño del sensor. Por lo tanto, los dispositivos muy compactos o planos comenzarán a usar lentes "innovadoras" en sensores un poco más grandes, ya que el tamaño del sensor es el principal limitador de calidad.

exhibición y presentación

Ya hemos visto que el concepto de unos pocos segundos de animación ocupa un lugar propio. Puede convertirse en el estilo de un retrato usar esta idea para dar un acto activo de sonreír al espectador, o lo que sea.

¿Cómo se presentan las imágenes? Una imagen animada requiere una pantalla en lugar de papel tonto. Pero, ¿cuántas fotos imprimimos y colgamos? ¡Los pocos marcos de pared permanentes podrían muy bien ser pantallas completas! Pero incluso hoy en día, la mayoría de las imágenes se comparten en dispositivos y no se convierten en impresiones.

Tal vez, cuando compre un cuadro grande enmarcado del puente Golden Gate para colgarlo en una pared, no será una imagen estática, sino que cambiará con la hora del día, el clima y las estaciones.

Tal vez el marco dedicado que muestra "¡Hola, abuela!" se actualizará automáticamente cada pocos días cuando se le recuerde o se le solicite al niño que "salude a la abuela" antes de la cena.

Entonces, además de una tecnología mejorada en la captura de imágenes, preveo una maduración de la tecnología y los productos para administrar y mostrar esta gran cantidad de datos que se generan.

Tengo que amar las cámaras de campo de luz. Todavía no entiendo cómo funciona la profundidad de campo selectiva.
@joe simplemente graba a través de un conjunto de lentes a una resolución mucho más alta que la foto final, luego calcula qué sensores son golpeados por cualquier punto dado en el espacio mientras se compone y promedia esos para producir los valores de píxeles. Esto también le permite simular una apertura más pequeña post-hoc.
@JanDvorak simplemente tener una resolución mucho más alta no hace nada.
Sin embargo, la matriz de lentes sí
Sí, la matriz de lentes no es lo que se describe en el segundo comentario de esta publicación. Crucial al punto es grabar luz desde diferentes direcciones, no "mucho más alta resolución". Creo que necesita un diagrama para explicar; tal vez en una respuesta detallada sobre fotografía si los artículos de wikipedia no son claros.
Con el campo de luz, captura no solo dónde incide la luz en la lente, sino también la dirección de la que proviene la luz cuando incide. Haces esto con un montón de microlentes, cada uno de los cuales produce su propia pequeña foto. Cuando desea hacer una profundidad de campo selectiva, crea una lente virtual (con todos sus elementos) y pasa todos estos rayos a través de la lente virtual, modelando la física exacta que hace que ocurra la profundidad de campo en primer lugar.
Lo bueno de pensarlo de esa manera es que separas la complejidad de capturar un campo de luz de la complejidad de por qué nuestras fotos tienen profundidad de campo en primer lugar (que, en sí mismo, es complicado en mi opinión)
Si piensa en un retrato, con la cara de alguien de cerca y un fondo borroso... las fotos de campo de luz le permitirán ajustar eso después de tomar la imagen, para que pueda elegir enfocarse en el fondo y hacer que el primer plano se vuelva borroso.
@Innovine: ¿Pero por qué querrías que algo fuera borroso? A menos, por supuesto, que pienses que es artístico, y puedes hacerlo con Gimp. (O Photoshop)
@jamesqf Por algunas razones... principalmente artísticas, ya que ayuda a definir el área de interés. DoF no es lo mismo que un desenfoque gaussiano, aunque puede verse lo suficientemente cerca como para engañar a los ojos inexpertos. El grado de desenfoque se basa en la profundidad. ¿Por qué usar Photoshop en esas cosas cuando puedes hacerlo bien en la fuente primero? También está muy limitado en la forma en que enfocaría un fondo desenfocado con Photoshop. Además, en el futuro es probable que veamos mucho más las cosas en 3D, entonces el DoF se puede ajustar en tiempo real dependiendo de dónde mires, siguiendo los ojos de los espectadores.
@Innovine: Creo que no entendiste mi pregunta. Lo que estoy preguntando es por qué. Si su cámara puede grabar esencialmente una profundidad de campo infinita, ¿eligiría tener imágenes falsas con el DOF limitado de las cámaras actuales?
Sin DoF, las personas que miran la imagen se confundirán, estamos programados para DoF, sin él, la imagen se verá plana, como un dibujo. Incluso los buenos pintores simulan DoF en sus pinturas.

Video

Si bien habrá más píxeles, mejor enfoque y todo eso, creo que el gran cambio será el final de la fotografía fija.

"¿Por qué no se mueven?", preguntarán los jóvenes al ver fotos antiguas.

Dependiendo del tipo de fotografía, las imágenes fijas pueden ser muy útiles (especialmente desde el punto de vista de UX) incluso en el futuro. Imagina una web llena de blogs, webs de noticias y anuncios llenos de imágenes en movimiento, me volvería loco en 5 minutos.
A medida que los tiempos cambian, las generaciones mayores siempre han pensado que los más jóvenes están locos como se siente actualmente el mayor, pero ese no suele ser el caso, solo una diferencia en la perspectiva y la educación. Así que siento que esto aún podría ser posible, solo que no del todo, ya que entiendo que aún podría ser un problema objetivo, como demasiada información en una pantalla, pero luego los MMORPG HUD con complementos pueden tender a tener una gran cantidad de información. Uno puede controlar automáticamente la atención cuando sea necesario, en lugar de querer ocultar o cambiar el contenido, probablemente dependiendo de la persona.
@Rolfツ Solo mire cómo cambió el diseño del sitio web desde los años 90 hasta ahora. Adiós a las páginas de geocities con gifs por todas partes y marquesinas y texto parpadeante, etc.
Pero, ¿qué agrega exactamente el movimiento a la mayoría de las fotos, digamos las fotos de sus vacaciones en el Gran Cañón? Y, por supuesto, la mayoría de las cámaras digitales (y teléfonos) hacen video ahora, pero lo uso tan poco que tengo que usar RTFM cuando quiero.
Así como la fotografía no mató a la pintura, el video no matará a la fotografía.
Es posible que tengamos imágenes de Harry Potter en movimiento, pero las imágenes fijas seguirán siendo útiles en muchos casos, especialmente en el arte de las imágenes fijas.
Tenemos videos desde hace muchos años, y aunque ahora puede configurar un video como su imagen de perfil de Facebook, nadie espera que las fotos se muevan todo el tiempo.
@errantlinguist: Dile eso a Garrison Keillor :-)

Fotografía de campo de luz/plenóptica

Demostración de fotografía de campo de luz

La fotografía de campo de luz captura información sobre el campo de luz que emana de una escena; es decir, la intensidad de la luz en una escena y también la dirección en la que viajan los rayos de luz en el espacio.

Cámara de campo de luz en Wikipedia

La fotografía de campo de luz le permite, según las especificaciones del dispositivo que capturó la imagen, mostrar imágenes con una profundidad de campo variable, así como hologramas. Esta tecnología también es la base ( según nVidia 1 , 2 ) para las pantallas de realidad virtual de próxima generación, ya que le permitiría concentrarse en los detalles en los que desea enfocarse, obteniendo una experiencia más realista.

La tecnología tiene una implementación muy limitada en este momento porque es muy costosa tanto en términos de dinero como de almacenamiento de información. Una sola imagen fija puede pesar más de 50 Gb.

Si las cosas van bien, espere que esta tecnología sea un lugar común en 30 años.

Espero ver más profundidad de color. Actualmente tenemos que hacer un posprocesamiento HDR para obtener un resultado decente de una escena con gran contraste (cielo/suelo, interior/exterior, etc.). Más bits de datos de intensidad permitirán dicho procesamiento a partir de una sola imagen.

Supongo que dirías dispositivos de alta profundidad de color más baratos, porque tenemos una máquina capaz de cubrir el número de colores que un humano puede ver 32 veces: 9 bits/canal podrían cubrir fácilmente todos los colores que un humano puede ver. 8 bits es suficiente para la mayoría de los propósitos. Sin embargo, una tasa de bits más alta significa que es posible ajustar el balance de blancos después de tomar la foto sin pérdida perceptible para el ser humano. Hay cámaras que pueden manejar incluso 16 bits, aunque no son lo suficientemente baratas para ser comunes.
@CemKalyoncu Te pierdes el punto. 9 bits/canal cubren fácilmente lo que el ojo humano puede percibir al mismo tiempo . Cuando nuestros ojos se mueven de adentro hacia afuera, cambian rápidamente. La fotografía no puede. Si desea tener una imagen que le permita ver tanto el interior como el exterior, necesita mucho más de 9 bits si lo va a hacer en un instante. Actualmente usamos varias instantáneas y una rutina de fusión HDR, pero solo puede hacerlo en una escena estática.
Ya dije eso: "Sin embargo, una tasa de bits más alta significa que es posible ajustar el balance de blancos después de tomar la foto sin pérdida perceptible para el ser humano". Pero ya hay cámaras que pueden tomar fotos a 16 bits sin necesidad de fusionarse, pero son bastante caras, pero 12 bits/píxel es bastante común entre las máquinas dslr por lo que veo (no tengo una para confirmar), usted solo necesita decirle a la cámara que guarde las imágenes en formato RAW.
@CemKalyoncu Ciertamente ayuda: puede hacer un HDR limitado de la imagen RAW de una buena DSLR. Sin embargo, eso solo te da un par de paradas, y usé 12 paradas para prepararme para un HDR (¡y luego descubrí que me había equivocado al ajustar todas esas tomas y no podía hacerlo de todos modos!) Tenga en cuenta que ajustar el balance de blancos es totalmente diferente de lo que estoy hablando. Algunos bits adicionales ayudan allí, pero no necesitas muchos.

Sensores ubicuos. Cuando se toma una foto, es una colección de todos los datos ambientales y las fuentes de los sensores en el marco. Los datos de la foto en sí probablemente serán solo una definición de lo que está "en el marco".

Los datos pueden ser tan simples como cuándo, dónde y descripciones de la ventana gráfica.

¡Sí! Solo quería agregar esta respuesta yo mismo: el mayor cambio será la ausencia de cámara. Especialmente en interiores. Las fotos artísticas agregarían filtros de procesamiento posterior. Y el marco en sí mismo no tiene que ser rígido: los espectadores pueden acercar/acercar/alejar o desplazarse, según lo deseen.
Probablemente también podrán ajustar la profundidad de campo
@WillNess Sería bueno usar un filtro artístico para jugar a Mario Kart en la foto de alguien.

Holografía

Tal vez dentro de 30 años seremos capaces de grabar no solo desde una perspectiva, sino grabar todo en un radio determinado. Más tarde podríamos reproducir esa grabación de tal manera que sería posible verla desde cualquier ángulo. Un retrato podría convertirse completamente en 3D, lo que permitiría al observador moverse alrededor del sujeto y verlo de forma interactiva, incluso desde atrás.

Después de todo, la fotografía solo significa "pintar con luz", la holografía es solo el siguiente paso.

Las cámaras regulares de nivel de consumidor podrán capturar y almacenar una gama de colores mucho más amplia que solo el espectro visible, y el software estará disponible para desplazar fácilmente al rojo o al azul sus imágenes, pasando de una imagen del wifi local en el extremo rojo, a través de un mapa de calor, a través de la luz visible, a través de ultravioleta, a una imagen de rayos X en el extremo azul.

Obviamente, los rangos superiores serían mucho más tenues, debido a que la atmósfera absorbe las longitudes de onda más altas, y los rangos inferiores tendrían una resolución más baja, pero la interpolación del software podrá proporcionar una vista razonablemente clara en todas las longitudes de onda.

También habrá mucho más uso del software de procesamiento de imágenes. Las manipulaciones de imágenes simples, como eliminar personas de fondo o crear tomas de acción, serán simples y automatizadas.

En realidad, las cámaras para consumidores están construidas con un filtro para evitar que los infrarrojos lleguen a los sensores. La conversión es bastante simple (para los técnicamente expertos :-)), por ejemplo, extremetech.com/electronics/… Para UV, creo que tendrías que usar lentes de cuarzo, ya que el vidrio bloquea la mayoría de los rayos UV.

Un sonido perfumado táctil animado en 3D "GIF" sería el Santo Grial de la fotografía. Aunque dudo que todavía pueda llamarse simplemente "fotografía".

¿Cómo se pronuncia eso?
agarra palomitas de maíz
Observa que el objetivo final de la fotografía es evolucionar hacia simulaciones sensoriales completas. Pero luego no pasó a especular sobre lo que eso podría conducir en el marco de tiempo de 30 años.
@Daniel "Fotografía"

Códigos micro QR integrados (u otra tecnología de impresión de datos) en una escala/espectro invisible a simple vista. Esas fotos de Harry Potter ahora son reales.

Por lo tanto, las fotos fijas tendrían una amplia gama de datos impresos sobre los pigmentos visibles, lo que permitiría que la tecnología inteligente los leyera y presentara características adicionales en la fotografía. La foto también puede tener su propia dirección IP V.xx y su propio almacenamiento en la nube en línea.

Entonces, las gafas inteligentes animarían la fotografía o agregarían características especiales, como comentarios descargados de la web, calcomanías u otras cosas. Una foto de sus hijos en el espectáculo de fuegos artificiales del festival podría animar los fuegos artificiales en la parte de atrás.

Las fotos inteligentes ahora son como álbumes de recortes colaborativos o publicaciones en redes sociales. Un visitante puede publicar datos en el almacenamiento en la nube vinculado a la foto, y podría ser visible para los visitantes seleccionados. Así que las fotos sobre la chimenea ahora tienen su propio mostrador.

Los datos de voz y video se pueden agregar en el momento de la filmación o más tarde. Las impresoras láser portátiles (casi todos los dispositivos las tienen ahora) podrían grabar códigos invisibles en áreas sensibles de la foto o cargar los datos en el almacenamiento en la nube asociado a esa foto.

Dado que ya hay intentos de hacer que las personas ciegas vean mediante el envío de señales al cerebro, me parece muy posible que en 30 años ya no haya fotos; habrá visiones . Ver una foto significará ver la escena capturada exactamente de la forma en que la vio la persona que la capturó. Requerirá "solo" grabar señales del nervio óptico y luego reproducirlas en el cerebro de otra persona.

Aunque, ¿no califica eso, en cierto sentido, como fotografía ? (Cuya definición técnica es el registro de la luz para registrar una imagen, que luego se puede mostrar nuevamente. La fotografía de película registra la luz en una película fotosensible, la fotografía digital registra la luz midiendo los niveles de luz en un sensor digital, su La propuesta registra la luz midiendo los impulsos en el nervio óptico. Mismo principio básico, solo que la implementación realmente difiere.)
Bueno, sea cual sea la definición técnica, creo que lo que describo mejora las formas de lograr uno de los objetivos centrales de la fotografía: permitir que otros vean lo que no han presenciado. En este sentido, esto es en lo que podría convertirse la fotografía.
Y permítanme agregar que la principal diferencia aquí no está en el método de grabación (que técnicamente podría no ser mucho más difícil que los existentes en fotografía) sino en el método de visualización. Es cualitativamente diferente y muy probablemente requerirá de los espectadores un entrenamiento mutuo inicial entre el cerebro y el dispositivo de traducción, como ocurre con las interfaces actuales similares (muy primitivas).
No vemos con nuestros ojos, vemos con el cerebro. Grabar y reproducir el estímulo óptico no le permitirá ver lo que vio la grabadora.
@ths Parece que no me aclaré lo suficiente. Tenía en mente registrar no el estímulo óptico sino la señal que va desde el nervio óptico hasta el cerebro.
Sí, aún así, la imagen es una creación de nuestro cerebro, con solo una apariencia vaga de la realidad. Específicamente, construimos nuestra impresión de una escena a partir de múltiples impresiones con movimientos oculares en el medio, junto con nuestras ideas preconcebidas (piense en ilusiones ópticas).

Más y más megapíxeles, tal vez incluso cámaras de gigapíxeles.

3d seguro, y modelos de objetos individuales.

El espectro avanzará mucho más allá de HDR para cubrir posible todas las formas de luz.

Las cámaras tendrán muchas mejoras como reconocimiento facial, luz súper baja sin necesidad de una velocidad de obturación de 5 minutos. Todas las características que tenemos hoy serán perfeccionadas.

Se incrustarán toneladas de datos nuevos en EXIF, XMP o como se llame lo nuevo. Piense en todos los sensores en nuestros teléfonos celulares, aún más estarán integrados en nuestras cámaras.

Obviamente, la duración de la batería y las capacidades de almacenamiento limitarán la tasa de crecimiento.

Es probable que tenga una pantalla AR o una imagen 3D extrapolada proyectada. De acuerdo, el original probablemente será algo parecido a lo que es hoy. Una imagen 2D plana, tal vez con más resolución, pero después de eso podremos tomar todas las imágenes asociadas y la información ambiental conocida y extrapolar el modelo High poly con texturas de alta resolución proyectadas en el espacio AR. Y eso no es todo, es probable que pueda mover al sujeto, caminar alrededor de él, etc. porque la imagen que verá se extrapola de todas las imágenes conocidas del sujeto, sus familiares, el entorno, que usted tienen acceso, así como sus comportamientos y todos los motores de física involucrados en el arte 3D... Y aquí está la cuestión, esto también se aplica a todas las imágenes pasadas a las que también tiene acceso.

Ecografías de Bebé.

Aunque la tecnología no involucra luz per se, sino ecografía, la popular ocasión de tomar "fotografías" del niño en el útero ya no requerirá una visita al ecografista. https://en.m.wikipedia.org/wiki/File:3dultrasound_20_weeks.jpg

Las ecografías estarán disponibles a pedido a través de la práctica tecnología de eco y la aplicación del sabor del día integrada directamente en sus teléfonos inteligentes.

Como suele ser la norma con la tecnología emergente, los primeros intentos serán versiones de baja "resolución" de las imágenes que obtienes en las visitas al médico, pero una vez que la popularidad y la gran demanda se vuelven evidentes, esta tecnología avanza rápidamente y las ecofotos superarán con creces a cualquier actual. fotografías de sonograma.

La combinación de técnicas fotográficas tradicionales y la utilización de nuevos conceptos y los resultados de investigaciones médicas recientes desarrollarán formas de "ver" las imágenes de manera mejorada y útil, por ejemplo, mediante la aplicación de técnicas tridimensionales como el trabajo de Lithothane, con descubrimientos recientes de técnicas térmicas y transductores mecánicos ( https://www.nobelprize.org/prizes/medicine/2021/advanced-information/ ) - y posiblemente imprimiendo con una proyección anamórfica - una persona ciega o deficiente visual podría "leer" y "ver" e imagen al tacto

Aparte del salto del blanco y negro al color, las fotos no han cambiado mucho desde que se crearon, solo la tecnología utilizada para tomarlas y el medio en el que se ven.

No esperaría demasiada diferencia en el futuro con respecto a las fotos reales.

  • La eliminación gradual de mostrarlas en papel: las pantallas se volverán más ubicuas y probablemente terminará con todas sus fotos en la "nube" y podrá verlas en cualquier lugar donde haya una pantalla. (que habrá un montón), no solo tu teléfono.

Esto dará como resultado:

posibilidades de IA

  • una extensión de la respuesta de Stig Hemmer: una forma de "reproducir en bucle" un video corto para que parezca fluido o natural. De esta manera, puede tomar una foto que en realidad es un video corto que aparecerá para darle vida a su foto.

  • "Embellecimiento": todas aquellas personas que odian las fotos de sí mismos: la IA podrá 'limpiar' sus rostros para que se vean mejor, o ajustar la iluminación para deshacerse del efecto 'la cámara agrega 10 libras'.

  • Edición de fotos, es decir, se puede hacer automáticamente y parecer natural. Por ejemplo, si desea salir de una foto, la IA puede ordenar la iluminación, completar lo que había detrás de usted y hacer que se vea realista.

  • Zoom y mejora - ¡El cliché de películas a menudo ridiculizado! Puede existir en alguna forma. Sí, sé que no puedes "añadir información". Pero la IA puede hacer una suposición decente de los detalles que faltan o usar combinaciones de los millones de otras fotos (por ejemplo, tomadas de la misma área o persona) para estimar lo que debería estar allí en un grado razonablemente realista.

Creo que el uso de la IA para hacer que las imágenes sean más flexibles se volverá común. Ya tenemos IA que puede tomar algunas imágenes y extrapolar un entorno 3D completo a partir de ellas. Tenemos IA que puede tomar una imagen y "mejorar" la resolución para ver más detalles.

Por lo tanto, las imágenes tomadas dentro de 30 años pueden convertirse en mundos 3D, o ampliarse más, y todo eso además de los sensores mejorados, como campos de luz o resoluciones más altas. La IA podría usarse para fusionar los datos de múltiples sensores, como un gran angular y un lente de zoom, o podría integrar datos a lo largo del tiempo mientras mueve la cámara alrededor de una escena. La IA probablemente facilitará la selección de los momentos perfectos, por lo que la foto que publiques tendrá el momento exacto en que todos sonreían y no parpadeaban (o incluso combinar varios momentos para cada persona en el grupo) o automáticamente te dará la toma perfecta. de un atleta atrapando la pelota. O la IA podría eliminar a los turistas solo para mostrar la atracción turística en sí.

Puede obtener algo de inspiración de https://www.youtube.com/c/K%C3%A1rolyZsolnai : cubre muchos de estos tipos de IA cuando se publican por primera vez, así que tal vez elija algo de allí y extrapolelo al futuro. .