¿Qué sentido tiene capturar imágenes de 14 bits y editarlas en monitores de 8 bits?

Estoy un poco confundido. Si mi DSLR está capturando una imagen de 14 bits mientras dispara en RAW. ¿No necesito un monitor de 14 bits también para aprovechar al máximo la captura en RAW? ¿Cuál es el punto de capturar una imagen en 14 bits y abrirla y editarla solo con un monitor de 8 bits de profundidad?

Se necesitan al menos 10 bits de RAW solo para aplicar la curva gamma que requiere sRGB, porque la captura es lineal.

Respuestas (5)

Puede editar sus fotos con un viejo monitor CRT en blanco y negro quemado y sigue siendo lo mismo: los bits adicionales cuentan.

Aquí hay una simulación de un histograma de 14 bits (A) y uno de 8 bits (B). Ambos están sobre una cuadrícula azul que simula una pantalla de 8 bits o un formato de archivo de 8 bits.

En B, todas las líneas coinciden. (El formato de 8 bits es lo suficientemente bueno porque está cerca de lo que nuestros ojos pueden percibir en diferentes niveles de gris)


Ahora. Imagina que necesitas mover tu histograma porque quieres una imagen feliz más brillante.

Los diferentes niveles del lado izquierdo, se deslizan hacia la derecha.

En su archivo sin procesar hay suficientes "subniveles" para llenar las mismas líneas azules. (C).

Pero los datos en la imagen de 8 bits comienzan a formar "brechas" (zona roja). Esto creará problemas de formación de bandas, aumento del ruido, etc.

ingrese la descripción de la imagen aquí

Entonces, la diferencia importante es cuando manipulas o controlas tu imagen, y tienes datos adicionales. Esto te da libertad.

+1 buen ejemplo, pero uno no debe tomarlo literalmente: en realidad, el crudo de 14 bits es lineal, mientras que la salida de 8 bits no lo es (debido a la gamma). sigue siendo una buena manera de visualizar lo que el procesamiento de imágenes puede hacer con el histograma.
Sí, muy literalmente. Gamma es en realidad EL principal problema que requiere 12 o 14 bits. Gamma es esencialmente el cambio tonal más grande de este tipo y, en los primeros días, se hizo de manera deficiente e inadecuada en 8 bits. Así que los dispositivos de creación de imágenes (escáneres y luego cámaras, que tienen que hacer gamma) tuvieron que mejorar a 10 bits, luego a 12 y ahora a 14 bits... todos los bits para los que podemos permitirnos el hardware, al menos hasta hace poco. Por supuesto, es cierto que nuestro ojo nunca ve datos gamma (excepto en el gráfico de histograma). Continuado..
... Nuestra vista siempre se decodifica necesariamente de nuevo a la línea original para que la veamos, pero debe haber sido codificada correctamente. La razón por la que los datos sin procesar de nuestro editor retienen los 12-16 bits en la PC es porque la gamma seguirá siendo necesaria en ese momento. 8 bits es suficiente para muchas/la mayoría de las cosas, pero gamma necesita más. Los primeros televisores eran analógicos, por lo que la gamma funcionaba bien, pero los primeros intentos digitales de 8 bits fueron un desastre. Rendimiento miserable de bajo nivel.
@WayneF gamma refleja la no linealidad de nuestros sentidos humanos, ¡es la solución, no un problema!
@szulat Piensa que esas tonterías salen mejor. Nuestro ojo NUNCA VE datos gamma. La corrección gamma se realiza para la no linealidad del CRT. Luego, CRT decodifica el gamma simplemente con las pérdidas de CRT de mostrarlo. Los monitores LED son lineales y no necesitan gamma (así que hoy en día tienen un chip para simplemente decodificar y descartar gamma). Nuestro ojo DEBE VER ABSOLUTAMENTE la misma escena lineal que vio la lente original, ANTES de la codificación gamma. Cualquier otra cosa sería corrupción de datos del peor grado. Gamma se retiene hoy simplemente por compatibilidad con todos los datos de imagen del mundo (y probablemente algunos CRT todavía estén disponibles también).
@WayneF, este es un error común. gamma es igualmente beneficiosa ahora en la era digital como lo fue en los días CRT analógicos. la pantalla tiene que presentar los mismos niveles que el original, cierto! pero nuestra percepción no es lineal. es por eso que puede codificar el brillo como 8 bits usando gamma y obtener un resultado similar a codificarlo linealmente con 11-12 bits. más bits significa más memoria, más ancho de banda, más energía, desperdiciada sin efectos visibles. es por eso que gamma está aquí para decir. vea también los gradientes de ejemplo aquí: cambridgeincolour.com/tutorials/gamma-correction.htm
Correcto. Gamma todavía tiene un lugar en imágenes y videos digitales porque hace un buen uso de los valores de código. En el extremo inferior del rango de brillo, 8 bits con gamma equivalen a 10 bits lineales (porque la pendiente de gamma es cercana a 4). En los flujos de trabajo de películas, las codificaciones de registro son más comunes que las codificaciones gamma, pero exactamente por la misma razón: economía de valores de código.
Cambridge es una mierda sobre gamma, imaginando que la respuesta del ojo ve gamma. Incluso Poynton dice que gamma es para CRT. Pero agrega que si gamma no fuera necesaria para el CRT, todavía la necesitaríamos por razones de percepción. Entiendo Weber-Fechner (percepciones humanas) y el negocio de pasos del 1%, etc. Nuestros ojos requieren la vista lineal original, por lo que necesariamente solo vemos datos decodificados, y cualquier efecto numérico de gamma desaparece después de que se decodifica el inverso. Cualquier excepción solo puede asumir una LUT de 10 o 12 bits, pero ¿qué tan probable es eso en un monitor LCD de consumo de 6 bits?
Versión corta: las ediciones a una foto digital se aplican matemáticamente, y la profundidad de bits de su pantalla es independiente de la profundidad de bits de las matemáticas (a menos que esté usando un software de edición de imágenes basura). Las ediciones se calculan utilizando la profundidad de bits completa y, por lo tanto, se benefician de tener la precisión adicional disponible.
@WayneF: Lograr 256 niveles de gris de apariencia suave requiere un mapeo no lineal de números al brillo físico, pero la aplicación precisa de efectos lineales como el filtrado requiere un mapeo lineal. Si uno quiere desenfocar un tablero de ajedrez donde la mitad de los píxeles tienen un brillo del 100 % y la mitad tienen un brillo del 0 %, el resultado debería tener un brillo del 50 %, aunque en una pantalla de 8 bits probablemente debería representar un nivel sustancialmente por debajo de 128.
@supercat Una cosa que puede ser confusa es que la corrección gamma para la pantalla es realmente irrelevante aquí. Puede aplicar la corrección gamma a su imagen para lograr un efecto , pero no aplicaría la corrección de color de visualización a los datos de su imagen. Dejaría eso como un proceso independiente, dependiente de la pantalla, sin relación con su imagen. Todo lo que importa está en su imagen que configura, por ejemplo, rgb = (1.0, 0.5, 0.0) si tiene la intención de representar "naranja", déjelo en manos del renderizador (pantalla, impresora, etc.) para hacer corrección de color dependiente de hw en de la forma que crea conveniente, con la precisión de la que sea capaz.
(En otras palabras, no hay nada de malo en hablar de curvas gamma, es solo una aburrida operación matemática arbitraria que se puede aplicar a cualquier cosa por cualquier motivo, como el brillo y el contraste. Solo tenga cuidado de no confundir los datos de la imagen con la calibración de la pantalla [que simplemente también suele implicar la corrección gamma, además de otras cosas].)
@JasonC: una escala de brillo lineal necesitará más de 8 bits de precisión para evitar bandas visibles en el extremo inferior; sin embargo, se podría asignar una escala lineal de 12 bits a una escala no lineal de 8 bits con fines de visualización sin bandas visibles.
@supercat Creo que está combinando el formato de datos de imagen del medio de almacenamiento, el formato de representación del espectador, la corrección de color de la pantalla, las capacidades de hardware de la pantalla y la percepción humana: todas etapas separadas y bastante independientes en la tubería entre su archivo de imagen y su cerebro - y no puedo darle más sentido a esta conversación, lo siento.
en realidad, la versión de 14 bits tendrá 64 líneas entre cada línea azul y tiene mucha más información que la de 8 bits.
Los datos sin procesar de 14 bits son valores de luminancia monocromática que no son directamente comparables con los valores RGB de 8/24 o 16/48 bits.

Las profundidades de bits más altas le brindan más opciones para editar sin perder datos.

No cometa el error de vincular la representación de una imagen con la forma en que se presenta . La edición produce resultados de mejor calidad cuando opera en la representación, donde los datos subyacentes tienen la resolución más alta. Da la casualidad de que su monitor proporciona una vista de resolución más baja de la imagen, pero esto no está vinculado a la calidad de la representación subyacente.

Si recuerdas de las matemáticas de la escuela, siempre hubo una regla general: nunca redondees los cálculos intermedios al calcular los resultados; siempre realice los cálculos matemáticos y luego redondee al final cuando presente los resultados. Aquí se aplica exactamente lo mismo. Tu monitor es el final, donde se produce el "redondeo" al presentártelo. Su impresora puede "redondear" de manera diferente. Pero en todos los pasos intermedios, utiliza los datos sin procesar para obtener los resultados más precisos y almacena la representación original de alta resolución en el disco para que pueda mantener esa información y continuar con la edición precisa más adelante.

Considere esto: digamos que tiene una imagen de origen de 5760 x 3840. Mantendría la mayor flexibilidad de edición y representación editando la imagen en ese tamaño y dejándola en ese tamaño. Si lo estuviera viendo en un monitor de 1440 x 900, simplemente reduciría el zoom en su editor, probablemente no cambiaría el tamaño ni volvería a muestrear los datos para que se ajusten. Lo mismo ocurre exactamente con la resolución del color.

El audio es similar. Tal vez la tarjeta de sonido de su computadora solo tenga capacidades de salida de 12 bits. Pero si graba, almacena y opera con audio de 16 bits o 24 bits, puede hacer que una señal de volumen bajo sea 16x o 4096x más alta (respectivamente) y aun así lograr una pérdida mínima de calidad de salida en esa computadora. Convierta hacia abajo solo al final cuando esté a punto de presentar el resultado final. El equivalente visual es iluminar una imagen extremadamente oscura con bandas mínimas.

No importa cuál sea la capacidad de su monitor, si realiza una operación de edición, por ejemplo, multiplicar los brillos por 2, querrá realizarla en la representación original de alta resolución de la imagen.


Aquí hay un ejemplo simulado. Digamos que tomaste una foto realmente oscura. Esta imagen oscura es la fila superior a continuación, con formatos de almacenamiento interno simulados de 4, 8 y 14 bits por canal. La fila inferior son los resultados de iluminar cada imagen. El brillo era multiplicativo, factor de escala 12x:

ingrese la descripción de la imagen aquí ( Fuente , fotografiado por Andrea Canestrari)

Tenga en cuenta la pérdida de información permanente. La versión de 4 bits es solo un ejemplo ilustrativo de un extremo. En la versión de 8 bits, puede ver algunas bandas en particular en el cielo (haga clic en la imagen para ampliarla). Lo más importante a tener en cuenta aquí es que la versión de 14 bits se escaló con la más alta calidad, independientemente del hecho de que su forma de salida final fue el PNG de 8 bits como lo guardé y del hecho de que probablemente esté viendo esto en una pantalla de 8 bits o menos .

O incluso una pantalla de 6 bits. No todos los monitores LCD muestran una profundidad completa de 8 bits por canal.
@ Random832, ¿hay alguna prueba confiable para saber de qué es capaz su LCD? Tengo una imagen de gradiente generada por computadora que muestra bandas, pero nunca he estado seguro de si eso se debió a que mis ojos podían ver diferencias de 1 nivel o si mi monitor lo estaba distorsionando.
@Mark Lea este buen artículo sobre el tema: avsforum.com/forum/… -- puede ser complicado, hay muchos lugares para cuellos de botella en la cadena de señal desde la salida de video hasta la luz que sale de la pantalla , mucha información errónea en las especificaciones (por ejemplo, las profundidades anunciadas son BS debido a un decodificador de 6 bits en una placa de circuito aleatoria) y descriptores edid, etc. Es un sistema complejo y conocer la profundidad real no es un caso de uso común, por lo que , ¡buena suerte! Mmmv
@MarkRansom lo que me dejó claro fue que podía ver bandas en límites claramente definidos, cada cuarto nivel. Algunas pantallas hacen tramado, lo que puede ser un poco más complicado de identificar
^ También tenga en cuenta que algunas pantallas hacen tramado temporal en lugar de espacial, lo que probablemente sea casi imposible de notar cuando se hace correctamente, pero es posible que pueda detectarlo en áreas oscuras si tiene buena vista.

14bit Raw no se correlaciona con la profundidad de bits de su monitor. Raw es un formato que se procesa mínimamente. Consulte Formato de imagen sin procesar .

El formato sin procesar permite que el software de posprocesamiento, como Lightroom y Photoshop, realice ajustes precisos en las imágenes que no serían posibles con los archivos JPEG.

En cuanto al monitor, los monitores de gama amplia suelen ser de 10 bits y tienen una LUT interna que almacena información de calibración de calibradores como X-Rite o Spyder. Su tarjeta de video también debe ser compatible con 10 bits.

Para chips Nvidia, las tarjetas de clase de estación de trabajo admiten 10 bits. La mayoría, si no todas las tarjetas de clase Gaming, no se basan en mi experiencia. Es similar con los conjuntos de chips AMD.

Si no va a posprocesar sus imágenes, puede cambiar fácilmente a JPEG.

Vale la pena señalar que, en casi todos los casos, el ojo humano no verá más de 8 bits de todos modos, a excepción de los gradientes suaves raros (en su mayoría sintéticos, a diferencia de las fotos ruidosas naturales, donde la posterización está oculta en el ruido)
8 bits son realmente solo 256 tonos, y no son suficientes para mostrar degradados suaves sin tramado.
cierto, pero tales gradientes casi nunca se pueden ver en las fotos de la vida real debido al ruido
@Gmck: hay una gran diferencia entre el 0,39 % de brillo y el 0,78 % de brillo. Una curva logarítmica de 256 niveles sería suficiente para gradientes suaves, pero muchos efectos de filtrado requieren esencialmente una asignación lineal de valores de brillo (por lo que reemplazar dos valores de píxeles con su promedio no afectará el brillo general).

Tal vez deberías leer esta pregunta primero.

¿Cómo se compara el rango dinámico del ojo humano con el de las cámaras digitales?

Básicamente, el rango dinámico del papel es inferior a 8 bits, y el rango dinámico del ser humano no es diferente.

La ventaja del alto rango dinámico en las imágenes RAW es que puede procesarlas posteriormente para traer los bits que le interesan dentro del rango que puede representar el dispositivo de visualización, que a su vez se relaciona con lo que el ojo humano puede ver.

Entonces, el ejemplo clásico es el interior de una habitación con luz solar afuera. A medida que el ojo humano pasa de mirar el interior al exterior, el iris se contrae para reducir la cantidad de luz que entra, permitiéndole ver tanto los detalles exteriores como los interiores.

Una cámara no hace eso, por lo que normalmente tendría que exponer el interior de la habitación (y obtener reflejos) o el exterior (obtener un interior subexpuesto), o tomar dos fotos y hacer una composición HDR.

El rango dinámico más alto de Raw le permite tomar una sola toma y 'empujar' o 'tirar' selectivamente de ciertas áreas para revelar los detalles que se encuentran en esas áreas sobreexpuestas o subexpuestas.

Las tomas aquí muestran este tipo de escenario. https://www.camerastuffreview.com/camera-guide/review-dynamic-range-of-60-camera-s

...is that you can post-process them to bring the bits you're interested in within the rnage that the human eye can see.Es más exacto decir que aprieta los bits que desea en el rango que puede mostrar el monitor . El ojo humano tiene incluso más rango dinámico que incluso una imagen RAW de 14 bits. No se trata de lo que el ojo puede ver, se trata de capturar todo ese rango dinámico para que luego pueda comprimirse en el rango dinámico de visualización de un dispositivo de video estándar.
@J... Actualización. Estoy de acuerdo, en su mayoría: el rango dinámico del dispositivo de visualización es lo que es debido al ojo humano. Un dispositivo de visualización de 14 bits no tendría sentido. El ojo humano tiene una gran capacidad de rango dinámico debido a su capacidad para adaptarse a diferentes condiciones de iluminación (al igual que el mecanismo de exposición de una cámara)
No, el rango dinámico de la pantalla es lo que es porque es tecnológicamente difícil y costoso mejorarlo. Una pantalla de 14 bits sería increíble. Un rango más dinámico significa un espacio de color más grande: imágenes más vibrantes, coloridas y precisas. Mi pantalla principal, por ejemplo, es internamente un panel de 12 bits (aunque mediante búsqueda) y puede producir el 99 % de la gama de colores AdobeRGB. La diferencia entre eso y un panel sRGB normal de 8 bits (generalmente con unos 6 bits efectivos) es increíble. Más rango dinámico siempre es mejor.
el rango dinámico no está relacionado con el espacio de color y la cobertura sRGB, la calibración y los "bits" están aquí para obtener precisión, no para mostrar imágenes más coloridas
@J... en.wikipedia.org/wiki/Adaptation_(eye) "en cualquier momento dado, el ojo solo puede sentir una relación de contraste de mil". = 10 bits.
@szulat Definitivamente está relacionado con la precisión del color que se puede mostrar. Más bits significan que, sin sacrificar la precisión del color , puede representar un espectro más amplio de colores. Una distancia espacial CIE más larga entre, digamos, rojo y verde significa que necesita más resolución para describir los colores en incrementos iguales a lo largo de esa (ahora) línea más larga. Los dos están íntimamente relacionados.
@Roddy Sí, pero hay más en la ecuación que un brillo y una oscuridad absolutos. Como arriba, también se trata de la resolución del color.
@J...: tus ojos son en realidad dispositivos de imagen bastante malos. Lo que es responsable de casi todo lo bueno es la corteza visual de nuestro cerebro.

Los 'Wikisperts' olvidan que cualquiera que sea la profundidad de bits que procese, SÓLO verá el resultado en 8 bits. Pegue un archivo de 3 bits (8 niveles) en su sistema de 8 bits y la pantalla mostrará 8 niveles (256/7 = 0 a 7) 0 a 255 en pasos de 36. Un archivo de 4 bits mostrará 16 (0 a 15). Pegue un archivo de 10, 12 o 14 bits y verá 256 niveles. Su tarjeta de video convertirá los niveles 1024, 4096 o 16,384 a 256. Por eso, cualquier archivo RAW que cargue, tan pronto como se le ofrezca a su procesador de video, se convierte en niveles de 8 bits (256). Trabajé en física médica, la mayoría de los departamentos de imágenes ahora tienen imágenes de 12 bits para la detección de mamas y similares. Sin embargo, el ojo humano no puede detectar mejor que los niveles 900 ish, por lo que se usa software para detectar cambios mínimos en la densidad del tejido, por lo que si conoce a alguien que tiene un sistema de 10, 14 o 14 bits, estarán muy endeudados y mega decepcionados. Por cierto, también nos cuesta detectar cambios de color, nuestra visión se reduce por debajo de los 16 millones de colores a menos que haya cambios mínimos en un tono similar, donde notamos bandas. Nuestras cámaras son capaces de unos 4 billones de colores, pero como muchas cosas, lo que es teóricamente posible y realmente posible pueden ser dos animales muy diferentes.

Lo que ves con un monitor de 8 bits no es lo que tienes en tu archivo de 14 bits, ¿y qué? Como se indicó en la respuesta anterior, más información parece ser siempre mejor...
Lo mantendré simple. Tome sus fotos en bruto, produzca sus jpg a partir de su archivo sin formato. Para ver la ventaja, compare su jpg con los producidos por la cámara. Es la diferencia entre una lente profesional y una basura.
¿Puedes explicar tu argumento sobre la lente? Para mí, no tiene nada que ver con esta discusión: tener 12 bits de rango dinámico y elegir lo que desea conservar después del procesamiento posterior no tiene nada que ver con la calidad de la lente. Y sí, puedes ver 12 bits de rango dinámico en una pantalla de 8 bits, ¡solo juega con las correcciones EV!
No, no puedes. Su pantalla de 8 bits mostrará n/256 o 256/n niveles, dependiendo de si ofrece un archivo más pequeño o más grande que 8 bits. Podemos ajustar el punto en el que se seleccionan esos bits mediante ajustes en PS, pero NO TENEMOS CONTROL sobre qué bits se muestran, es decir, el espacio entre los bits será el mismo, ¡por lo que faltan datos!. Si lo hubiéramos hecho, nosotros (el NHS por ejemplo) no nos molestaríamos en gastar 46.000 libras esterlinas en equipos de imágenes de 12 bits que no proporcionaran imágenes mejores que las de 8 bits.
Me pregunto qué es lo que no entiende acerca de poder explotar un rango dinámico superior al visible para crear una imagen. Si tiene un archivo con un rango dinámico de 12 bits, puede optar por mostrar cualquier rango de 8 bits que desee, es así de fácil. Si fueras fotógrafo, entenderías lo importante que es esto: tener detalles en luces y sombras es el sueño de todos. No daré más detalles sobre el tema, lea las respuestas anteriores.
¿Cómo selecciona los bits que desea si no puede (y al menos está de acuerdo) VERLOS. Puede elegir una parte del espectro, pero el rango dinámico será el mismo, solo que más arriba (o abajo) del espectro, gana un extremo y luego pierde el otro, lo que está viendo es una pantalla de 8 bits effin. Ahora, por favor, vete.
¿Cómo? Comprimes el DR. En lugar de mapear los 256 valores del medio de 16 384 valores posibles (NADIE hace eso), selecciona un punto negro (digamos, 2096), un punto blanco (digamos, 14 335) y luego mapea los valores restantes en 0-255. 0 a 2096=0; 2097 a 2144=1; 2145 a 2192=2; 2193 a 2240=3; 2241 a 2288=4; 2289 a 2336=5, 2237 a 2284=6; 2285 a 2332=7; 2332 a 2380=8; 2381 a 2428=9; 2429 a 2476=10; 2477 a 2524=11; 2525 a 2572=12; 2573 a 2620=13; 2621 a 2668=14; 2669 a 2716=15; 2.717 a 2.764=16; 2765 a 2812=17... y así sucesivamente hasta 14336-16383=255.
Por supuesto, esto daría como resultado una imagen muy plana. Es por eso que aplica curvas a las gradaciones más finas antes de transformarlas en 8 bits.