Tengo una pregunta sobre los espacios de color.
Tomé fotos en una SLR digital en RAW, las procesé en Adobe Lightroom y luego las exporté como JPG con el perfil sRGB.
En la configuración de mi hogar con DELL u2713h (monitor de gama amplia), cuando abro fotos usando una aplicación de gestión de color, los JPG se ven muy bien, y cuando los abro en una aplicación sin gestión de color no lo hacen. Entiendo por qué. y todo esto está bien.
El problema que tengo es después de haber subido los JPG a Google Photos y luego verlos desde la computadora de mi trabajo, que usa los monitores estándar de Dell. Cuando se ve en el trabajo, los colores están sobresaturados incluso cuando se ve usando una aplicación de administración de color.
Todo lo que he estado leyendo sugiere que este no debería ser el caso, ya que debería leer sRGB de la foto y mostrarse normalmente.
¿Alguien puede ayudarme a entender por qué puede ser esto? Me preocupa que todas las fotos que comparto salgan demasiado saturadas cuando otras personas las ven.
Gracias.
PD: aquí hay una foto de ejemplo https://goo.gl/photos/BHecW2AegsEgWBw78
Si editó con un monitor de gama amplia, es probable que al editar haya elegido algunos colores que están 'fuera de la gama' para los monitores estándar. Su monitor de gama amplia puede mostrarlos, pero otros no. Puede controlar esto cambiando el perfil de su monitor, utilizando una herramienta de calibración del monitor. Si tiene Photoshop, hay una herramienta básica incorporada. Puede cambiar fácilmente en Photoshop usando la configuración de 'prueba en pantalla'. También hay una herramienta integrada en MacOS en la configuración de Pantallas. Aquí puede cambiar el perfil de pantalla fácilmente. (Lo siento, no recuerdo si Windows tiene uno).
Otro problema puede ser el tipo de pantalla en la que está viendo. Es probable que su pantalla principal sea una pantalla de tipo IPS, donde la imagen se mantiene fiel al color incluso cuando se ve fuera del eje. Pero si las pantallas 'normales' de Dell son TN, entonces el color cambia dramáticamente cuando se ve fuera del eje. Realmente no hay solución para esto, aparte de obtener los colores dentro de la gama de la pantalla y dentro del perfil de color sRGB. (y visualización en el centro de la pantalla).
Tal como lo estoy leyendo: las imágenes se hicieron con la pantalla A y se ven bien en la pantalla A. No se ven correctamente en otras pantallas.
Si ese es el caso, suponiendo que las otras pantallas estén configuradas con los valores predeterminados, su perfil o configuración de pantalla A puede ser el culpable.
Publicar un ejemplo podría ser útil. La gente aquí podría decir si ven algo malo. Obtenga imágenes de prueba o una imagen de verificación de color y muéstrelas en su pantalla A para ver si se ven correctas.
Cuando configuro un nuevo espacio de trabajo, tomo una imagen conocida con la que he trabajado en el pasado y ajusto el brillo, el contraste y los colores del monitor principal.
Luego comparo la pantalla con una versión impresa, una tableta y algunos teléfonos inteligentes nuevos.
Después de calibrar el monitor principal, ajusto los otros monitores. Suelo trabajar con 3 monitores.
Por lo general, solo pruebo mis impresiones/tomas con mi mejor monitor (resolución de pantalla, colores y claridad).
Incluso con los gráficos Intel de primera línea para ejecutar los tres monitores, solo un monitor representa lo que la mayoría de los usuarios verán normalmente. Los otros dos me permiten saber cómo se ve la imagen con configuraciones menos que ideales.
NOTA: Existe la posibilidad de que su sistema operativo junto con su software de conversión esté escribiendo de manera extraña. He notado que las imágenes exportadas a JPEG desde Canon raw en una computadora con Windows 10 no muestran las revisiones en miniaturas. Donde hay un problema de lectura/escritura de archivos. También noté esto en las exportaciones del laboratorio Topaz.
mick
Otorgar
Otorgar
mick
Otorgar
miguel c
Gmck
Otorgar
Otorgar
Otorgar
miguel c
Otorgar
Gmck
Otorgar
DeMorcan
Gmck
Otorgar