¿Qué funciones necesita un adaptador de gráficos para obtener el mejor rendimiento en Lightroom?

Al ejecutar Lightroom en pantallas de alta resolución, noté graves problemas de rendimiento.

Trabajando en el módulo de desarrollo con una resolución de pantalla de 2560x1600 píxeles, incluso los ajustes simples de brillo toman alrededor de un segundo hasta que la pantalla se actualiza con los nuevos valores.

Entonces mi pregunta es: ¿Lightroom es compatible con aceleradores de gráficos especiales como Cuda o DirectX?

¿Qué características necesita un adaptador de gráficos para ser rápido para Lightroom?


Especificaciones actuales de PC: Intel Sandy Bridge, Core i7 2600, 16 GB de RAM, catálogos de sistema y LR en Intel G2 SSD, gráficos de 1 GB XFX HD5750.

FWIW, Cuda y DirectX son cosas muy diferentes.
¿Cuáles son las especificaciones de su computadora y cuántas fotos hay en su catálogo de LR?
@mattdm, lo sé, pero cualquier cosa que pueda acelerar Lightroom sería genial.
@Jakub, encontré que faltaba velocidad en el módulo de desarrollo desde que actualicé mi pantalla a 2560x1600 sin importar si tengo 40 o 40000 imágenes en el catálogo. No se trata de la velocidad para cambiar de una imagen a otra, se trata de la velocidad después de la cual Lightroom actualizará la pantalla con los cambios al ajustar los parámetros de desarrollo como el brillo. (Voy a buscar las especificaciones más tarde)
No creo que esto esté necesariamente fuera de tema, pero puede terminar obteniendo mejores resultados si migrara a superuser.com
@mattdm, estaba considerando abrir la pregunta allí, pero pensé que Lightroom podría ser específico para fotos, así que terminé aquí. Esperaré si surge algo de aquí antes de publicar dos veces.
Su tarjeta de video tiene que hacer más procesamiento para mostrar la imagen en su nuevo monitor. Obtenga una mejor tarjeta de video, aproveche al máximo la RAM rápida. Si está pensando en monitores duales en el futuro, obtenga una tarjeta de video que admita monitores duales de forma nativa.
Especificaciones: Intel Sandy Bridge, Core i7 2600, 16 GB de RAM, catálogos de sistema y LR en Intel G2 SSD, gráficos de 4 GB XFX HD5750.
@Jakub FYI Las tarjetas de video modernas que ejecutan monitores duales desperdician cantidades increíbles de energía. Actualmente tengo un monitor conectado a la GPU y otro a la placa base y usa ~40 W menos que ambos en la GPU. Creo que debe haber algún tipo de campaña de concientización sobre esto...
@Jakub ps Creo que es seguro decir que la tarjeta de video no es el cuello de botella aquí, incluso sin saberlo.
@Peter Experimenté una disminución en el rendimiento de "actualizar/dibujar" más de una vez al actualizar a una pantalla grande de alta resolución. El problema podría haber estado relacionado con que mi vista pudiera "atrapar" la actualización de la pantalla debido a un tamaño más grande, pero seguramente sentí que la tarjeta de video estaba luchando. @ Sam, ¿Los gráficos son 4GB XFX HD5750? ¿Estás seguro de los 4GB de memoria de video? Parece que esta tarjeta solo viene con 1 GB. En cualquier caso, con esas especificaciones, LR debería ser ágil. ¿Tienes los controladores más recientes para la tarjeta? ¿Qué hay de los controladores/firmware más recientes para el resto del hardware?
@PeterT, ¿cómo puedes estar seguro sin saberlo? @Jakub, no, lo siento, 1 GB de memoria, por supuesto. ¡¡Mi error!! Los controladores son los más recientes, no ayudaron. Sin embargo, podría haber una actualización de BIOS para mi placa base.

Respuestas (2)

A diferencia de Photoshop CS4/5, Lightroom no utiliza la GPU para las operaciones. Por lo tanto, cualquier tarjeta de video que admita su monitor está bien.

Photoshop CS4/5 solo usa GPU para redibujar la pantalla y (creo) algunas transformaciones. Lightroom no lo usa en absoluto. Sospecho que dado que los ajustes de LR son simplemente declaraciones adjuntas frente a ediciones de archivos, no es necesario usar la GPU. Es probable que esto también aumente la compatibilidad en máquinas más lentas y antiguas.

Aperture de Apple ha sido criticado por el uso de la GPU, a la que algunos culpan por su bajo rendimiento y compatibilidad. Nunca he usado Aperture, así que no puedo decir si este es el caso.

Sin embargo, tenga en cuenta que muchas soluciones de video de gama baja roban memoria de su RAM para uso de video. Se beneficiará de tener al menos una tarjeta dedicada que evite eso.

En primer lugar, necesitas una tarjeta gráfica. Si usa gráficos incrustados o similares, puede sufrir.

En segundo lugar, obtenga la interfaz de memoria más rápida posible. En realidad, no necesita mucha memoria, probablemente más de 64 MB sea excesivo para Lightroom, ya que no procesa en la tarjeta gráfica, solo redibuja mucho.

En tercer lugar, no hay un tercero ;) Otras características de la tarjeta gráfica no ayudan, ya que Lightroom no las utiliza.

Mmm. No estoy seguro de que el n. ° 1 siga, dado el n. ° 2 y el n. ° 3.
A menos que esto haya cambiado recientemente, los gráficos integrados tienen una interfaz de memoria lenta a pesar de usar la memoria del sistema. Como mínimo, comparten el ancho de banda, lo cual no es deseable.
Una tarjeta de video integrada moderna debería ser más que suficiente para Lightroom. Los modernos (como el HD3000 de Intel) incluso son compatibles con OpenCL, por lo que si Lightroom comienza a aprovechar la aceleración de GPU, aún se beneficiará.
El n.º 1 depende completamente de las especificaciones de los gráficos integrados: no todos tienen un rendimiento deficiente
Una pega es que el bajo rendimiento es muy relativo. Durante 9 años, trabajé en el procesamiento de imágenes en tiempo real y, a menudo, teníamos H/W que funcionaba extremadamente bien para 3D pero terriblemente para imágenes. La mayoría de los gráficos no están optimizados para imágenes. Extrañamente, enviar la misma imagen como una 'textura' a través de la interfaz de la GPU, a veces brindaba un rendimiento mucho mejor, pero la mayoría de las aplicaciones de imágenes no funcionan de esa manera y solo funcionaba para ciertos diseños de bits.
Comprobación n.º 1, comprobación n.º 2: agregué mis especificaciones arriba. Estoy realmente desconcertado por lo que ralentiza mi sistema. Podría probar una GPU más rápida, pero ¿cuál?
Honestamente, esa GPU debería ser exagerada. Pruebe con una actualización del controlador si no es la última.
Probé la actualización, había una nueva versión, pero los cambios en el modo de desarrollo aún son lentos. No quiero volver a una resolución más baja, pero este retraso apesta para trabajar en imágenes :(
Intente configurar su pantalla a un cuarto de resolución (1280x800) y también intente a resolución completa (2560x1600) pero con LR ocupando un cuarto de la pantalla. Si ambos son rápidos, entonces LR tiene problemas para procesar los píxeles adicionales en la vista. Si solo el primero es rápido, entonces el problema está en su sistema (SO, controladores, complementos, etc.). Puede usar el Administrador de tareas para ver si su CPU se está utilizando por completo (en cuyo caso, los gráficos están esperando datos, y no al revés).
LR a un cuarto de resolución: rápido. LR en cuarto de tamaño: rápido. LR a tamaño completo: lento. La CPU tiene un máximo del 50 % en los tres modos (¿lo que significa que 2 de 4 núcleos están en pleno uso?)
Debería ver gráficos individuales para cada CPU, para que tenga la respuesta a su última pregunta. Desafortunadamente, la optimización del rendimiento es un tema muy complejo y me resulta difícil ir mucho más lejos sin mucha más información. Probablemente tendrá que obtener una CPU más rápida, aumentando la velocidad hasta que ya no se agote el núcleo.
@Philip Goh: HD3000 no es compatible con OpenCL en el momento de escribir este artículo, pero probablemente se espera que sea compatible más adelante este año.
El Intel Sandy Bridge i7 que tiene el póster original es en realidad una opción de gráficos fantástica, y sí, está integrado (incrustado).
@dpollitt, la "opción de gráficos fantásticos" no puede ejecutarse en 2560x1600, que yo sepa, por lo que no se puede utilizar para mi configuración de 2560x1600.
@Sam - Perdón por no citar una fuente confiable anteriormente, pero PCMag señala que este chip "... supera todos los puntajes de portátiles anteriores..." y es "muy capaz de ejecutar los juegos más intensivos en 3D del mundo... ". No sé cuál es la resolución máxima que puede ejecutar, pero es una tarjeta muy capaz. Fuente: pcmag.com/article2/0,2817,2374911,00.asp
@dpollitt: su fuente no respalda su declaración : están comparando gráficos de computadoras portátiles y están probando un rendimiento 3D que, según dicen, es respetable a 1024x768 , pero detuvo la prueba a 1600x900 . Además, esa comparación no es significativa para Lightroom. Les aseguro que el rendimiento 2D y 3D de las tarjetas gráficas están mal relacionados y sorprendentemente.
@Sam: verifique si sus núcleos individuales se saturan al 100% en el monitor de rendimiento. Si lo hacen, tiene una CPU limitada y se beneficiaría más de una CPU más rápida.
@Itai: ahora mismo tengo un Sandy Bridge i5 con la nueva tarjeta gráfica integrada en el chip. Funciona fantásticamente para Lightroom. Supongo que no sé los detalles de por qué lo hace. Corro 1680x1050, no tan alto como la pregunta formulada.
Lamento escuchar que tiene una pantalla tan pequeña;) Se necesita 2,4 veces más ancho de banda para 2560x1600. Si bien en teoría los chips integrados podrían arrasar en términos de ancho de banda en comparación con los gráficos externos , en la práctica no lo hacen para mantener bajos los costos y el tamaño del chip. Este es un problema con el que estoy muy familiarizado y fue mi principal preocupación profesional durante años (y también estuve a cargo del rendimiento de E/S del disco) para el procesamiento de imágenes en tiempo real.
@dpollitt, la velocidad no importa si los gráficos integrados no pueden proporcionar la resolución requerida. Y que yo sepa, puede proporcionar 1920x1080 (Full HD) como máximo.
@Itai, ningún núcleo único está al máximo, todos se usan por igual. ¿Pero pensé que los hilos pueden vagar de un núcleo a otro?
@Sam: los subprocesos pueden "vagar" y, de hecho, lo hacen, a menos que especifique una afinidad central para el proceso o el subproceso. Por lo general, ese no es el caso, por lo que su uso de la CPU tiene sentido. Por curiosidad, ¿ha pensado en verificar si Windows realmente está utilizando completamente las capacidades de hardware de su chip de video? No especificó el sistema operativo, así que voy a asumir Win7. Si va a Panel de control\Todos los elementos del Panel de control\Pantalla\Resolución de pantalla, "Configuración avanzada", pestaña de solución de problemas... ¿tiene alguna opción configurable? ¿Están configurados para aceleración completa?