¿Cómo exponer la pila de fotos RAW al mismo tiempo que se genera una foto RAW?

Entonces, tengo .DNGarchivos que tomé de un iPhone y estoy tratando de descubrir cómo apilarlos y luego enviar la foto apilada como un .DNGarchivo también (o cualquier formato RAW tbh).

Sé codificar bastante bien, así que puedo apilarlos usando python y el rawpymódulo. El problema es que rawpyactualmente no tiene forma de generar archivos RAW. Entonces, cuando los apilo, puedo generarlos como JPG, pero eso no es lo que quiero.

Al revisar los foros de fotografía astronómica, he visto hilos que dicen que Deep Sky Stacker se puede usar para leer y apilar archivos RAW, pero no pude encontrar ninguna guía que me diga cómo exportar una imagen como un archivo .DNG.

¿DSS genera fotos apiladas como RAW? (el formato no importa, pero se preferiría DNG) ¿Hay alguna manera de hacer esto a través de Lightroom, tal vez? ¿Hay alguna manera de hacer esto programáticamente? Soy bastante nuevo en todo esto, por lo que agradecería cualquier ayuda.

Respuestas (3)

DNG no es un formato para exportar imágenes, es un formato algo universal para datos de sensores. No tendría sentido volver a crear mosaicos con el resultado de tus imágenes apiladas.

Si desea exportar su imagen en un formato sin pérdidas y de alta precisión, existen al menos el formato TIFF de 16 bits y el PNG de 16 bits.

El problema es que mi flujo de trabajo requiere que procese la exposición prolongada como archivos RAW para trabajar con los datos del sensor. Debido a que los iPhones no hacen imágenes de larga exposición, estoy apilando las imágenes como si fueran exposiciones largas. ¿TIFF conserva los datos del sensor? No me siento muy cómodo con los archivos TIFF porque nunca antes había trabajado con ellos.
DNG puede ser un formato de exportación; darktable exporta archivos DNG HDR (HDR literal, no "HDR" mapeado en tonos) cuando se usa la función "crear HDR" en imágenes seleccionadas (sin embargo, esta característica probablemente no sea apropiada para lo que el OP tiene en mente).

Si desea trabajar con los datos del sensor sin procesar, debe hacerlo antes de apilar las imágenes. Exporte los archivos sin procesar como uno de los muchos formatos de evaluación diferentes (TIFF, JPEG, PNG, etc.) y luego apílelos. Los datos del sensor sin procesar solo se pueden demostrar una vez, luego están en formato de trama. Si desea volver atrás y demostrarlo nuevamente, debe comenzar con los datos sin procesar originales con los que comenzó antes. Cuando aplica diferentes decisiones de procesamiento a esos datos, produce una versión diferente de los datos sin procesar como una imagen visible que la que producía antes.

Tenga en cuenta que lo que ve en su pantalla cuando trabaja con un archivo sin procesar no es "el archivo sin procesar" ,¹ es una versión demostrada de la información en el archivo sin procesar. A medida que mueve los controles deslizantes o las curvas de luz dentro de una aplicación de procesamiento sin procesar, a menudo está creando una interpretación diferente de la información en el archivo sin procesar al cambiar las instrucciones de demostración y una nueva interpretación de los datos sin procesar se vuelve a representar en su pantalla.

¹ La respuesta vinculada a otra pregunta detalla mucho más la diferencia entre un archivo de imagen sin procesar y lo que ve en su pantalla cuando abre un archivo sin procesar con una aplicación de procesamiento sin procesar. No hay necesidad de repetir todo eso aquí.

Lo entiendo, pero dado que las imágenes sin procesar son solo datos del sensor, y el apilamiento de exposición es solo el promedio de las fotos, estoy tratando de apilar los datos antes de la demostración, de esa manera, los datos sin procesar cuando se muestran simulan el efecto de una exposición prolongada, y Todavía puedo trabajar con los datos del sensor para mi flujo de trabajo posterior. Sé que es una tarea difícil, pero es por eso que estoy aquí :)
@QuantumHoneybees No funciona de esa manera con aplicaciones de procesamiento sin procesar o aplicaciones de apilamiento que muestran la información del sensor.
Los datos sin procesar no son realmente lo que uno normalmente entendería como una foto más de lo que un negativo latente y sin revelar es una "foto".
Sí, pero los números son números al final del día, lo que significa que se pueden promediar. Simplemente pensé que tenía que haber una aplicación que tuviera la exportación de DNG incorporada y que también permitiera apilar...
Así como hay muchas imágenes posibles que se pueden derivar de los datos de imagen sin procesar, hay muchos conjuntos diferentes de datos de imagen sin procesar que pueden dar como resultado una imagen en particular. No hay forma de utilizar una imagen de trama para reconstruir con precisión los datos sin procesar de los que se derivó esa imagen de trama. Si redondea todas las líneas de su declaración de impuestos al dólar más cercano, no hay forma de recuperar los valores de la porción de centavos de cada valor original.
DNG, en muchos casos, ya procesó parte de la información en archivos sin procesar de algunas cámaras y "cocinó" los resultados de una manera irreversible. Todo depende de la cantidad de información incluida en el archivo sin procesar, cuánto procesa la cámara la información a nivel de píxeles recopilada por el sensor antes de almacenarla en un formato sin procesar y la implementación del convertidor DNG.
"Sí, pero los números son números al final del día, lo que significa que se pueden promediar. Solo pensé que tenía que haber una aplicación que tuviera la exportación de DNG incorporada y que también permitiera el apilamiento". Puede haber una aplicación de este tipo, pero nunca he oído hablar de ella y no se ha discutido aquí, según mi leal saber y entender. Parte del problema con el apilamiento a nivel de píxeles es que cualquier cambio en la relación de la cámara con el sujeto (a través del movimiento de la cámara o el movimiento aparente del cielo nocturno) tendría resultados devastadores. Las estrellas que se desplazan solo un píxel se verían como ruido.
"Parte del problema con el apilamiento a nivel de píxeles es que cualquier cambio en la relación de la cámara con el sujeto (a través del movimiento de la cámara o el movimiento aparente del cielo nocturno) tendría resultados devastadores". Sí, eso es muy cierto, pero He usado un obturador remoto para tomar las fotos con mucho cuidado y solo he tomado fotos de objetos estáticos. Supongo que la única solución es escribir una biblioteca de python para generar archivos DNG o algo así... ¡aunque gracias!
@QuantumHoneybees Si realmente no espera que el software se ocupe de ningún problema de alineación, puede encontrar útil la función HDR de darktable (vinculada en un comentario a otra respuesta) ... pero no estoy lo suficientemente seguro de que eso sea el caso para sugerirlo como una respuesta. ;)

Lightroom versión 6 y posteriores pueden crear una imagen HDR a partir de múltiples exposiciones y exportarla como archivo DNG; consulte, por ejemplo, https://helpx.adobe.com/lightroom/help/hdr-photo-merge.html . Tenga en cuenta que DNG no contiene necesariamente datos en mosaico sin procesar de un sensor. También puede almacenar datos de demostración, por ejemplo, el resultado del preprocesamiento (como la creación HDR de Lightroom). Entonces se llama DNG lineal, consulte https://helpx.adobe.com/de/photoshop/using/adobe-dng-converter.html .