¿Tiene algún sentido fotografiar directamente en blanco y negro? [duplicar]

¿A diferencia de fotografiar en color, y luego tener toda la libertad para editarlo después?

Maldición... incluyeste la etiqueta de fotografía digital . De lo contrario, hay una respuesta realmente excelente sobre la calidad y la ganancia.

Respuestas (8)

Sí, si disparas en RAW . Si tiene dificultades para visualizar una imagen en B y N, disparar en B y N le brinda una buena aproximación de la imagen final en el momento de la toma para que pueda ajustarla; muchas cámaras digitales incluso pueden procesar blanco y negro con filtros de color , por lo que si tiene en mente un tipo particular de procesamiento, como usar un filtro rojo para oscurecer el cielo (al estilo de "Moon and Half Dome" de Ansel Adams), o un filtro verde para aclarar follaje, puede obtener algunos comentarios al momento de disparar sobre cómo se verá.

Y debido a que dispara en RAW, conserva toda la información de color para la conversión en blanco y negro si cambia de opinión en la publicación. Solo la vista previa de JPEG se procesa en blanco y negro. Para que puedas tener lo mejor de ambos mundos. El pensamiento de "B&W es irreversible" solo se aplica si está filmando archivos JPEG.

¿Cuál sería la ventaja (aparte del tiempo) en comparación con el efecto "Blanco y negro" de Photoshop?
Esto no es una ventaja de tiempo. No se trata de procesar la imagen final en la cámara, solo la vista previa JPEG que ve en la pantalla LCD de la cámara. Todavía usará el efecto "Blanco y negro" de Photoshop (o desaturación, o el mezclador de canales o Silver Efex Pro o lo que sea) en el archivo RAW si así es como prefiere hacer la conversión en blanco y negro. Pero ahora tiene la oportunidad de ver algo parecido a lo que va a obtener a tiempo para ajustar y volver a fotografiar si es necesario. En el momento en el que está introduciendo la imagen en Photoshop, es demasiado tarde para volver a tomar la foto.
@inkista +1: el beneficio de disparar de esa manera es poder ver una aproximación inmediata de la salida final en la pantalla LCD, no hay otros beneficios tangibles.
+1 por esto; nunca se me había ocurrido que el archivo raw guarda los datos de color, claro que tiene sentido. Solo disparo en bruto, así que lo usaré la próxima vez que salga por un día.
Espera, entonces, incluso si estás disparando en JPEG, ¿es solo la vista previa la que se ve afectada? ¿Entendí eso correctamente? El comentario parece que contradice el segundo párrafo de la respuesta.
@Era, ah. Veo la dificultad. Editado para mayor claridad. No, no funciona si dispara en JPEG; en ese momento, el blanco y negro se integra en su archivo.

La astrofotografía de larga exposición a menudo se realiza con un sensor monocromático para maximizar la cantidad de fotones capturados desde una fuente débil. Las exposiciones relativamente cortas con filtros rojos, verdes y azules separados son suficientes para colorear la imagen, pero el canal más largo sin filtrar brinda más detalles en la estructura de lo que se está fotografiando. Puede replicar el mismo resultado con un sensor convencional como en una SLR, pero necesitará tiempos totales significativamente más largos porque los filtros de color significan que se rechazan muchos más fotones.

Creo que el OP en realidad preguntaba sobre el uso de un modo monocromático en una DSLR y no sobre el uso de hardware monocromático dedicado, pero definitivamente vale la pena mencionarlo.

No hay ningún beneficio en disparar en modo monocromático, ya que la cámara solo tomará una imagen en color y la convertirá a monocromática utilizando la configuración integrada. Lo más cercano que podría argumentar como razones para habilitar un modo monocromático es colocar una rigidez artificial como parte de un proceso creativo o ver imágenes monocromáticas en la pantalla de la cámara mientras dispara. Ninguno de esos son de ninguna manera opciones convincentes.

Por el contrario, hay muchos beneficios al filmar en color, como poder recrear las diferentes respuestas tonales en las películas y potencialmente manipular la imagen tonalmente antes de la conversión.

Hay una ventaja con dos grandes "si" .

Si está seguro de que lo que hace frente a la cámara se ajusta satisfactoriamente a su visión artística sin necesidad de cambiar posteriormente la relación en valores tonales de gris entre objetos de diferentes colores:

Si está guardando las imágenes solo como archivos JEPG :

Luego, guardar los jpegs en blanco y negro reducirá significativamente el tamaño del archivo de cada imagen, en igualdad de condiciones. (Resolución, configuración de calidad/compresión jpeg, etc.)

El tamaño de archivo más pequeño es un beneficio real. Las fotografías son útiles para algo más que el arte: se puede usar una cámara para grabar cada página de un libro, cada persona u objeto que se mueve a través de algún proceso, etc., y los JPEG en blanco y negro pueden ser todo lo que se necesita, especialmente si significa empacar 2 -3 veces más imágenes en una tarjeta de memoria.

Supongo que fotografiar imágenes en color siempre es la opción correcta, la 'reversibilidad' es la clave. Una imagen en color podría convertirse en blanco y negro, pero con una toma en blanco y negro, no hay opción.

Todos sabemos que más o menos el atractivo de una foto radica en la postproducción, entonces, ¿por qué no disparar en color y luego decidir?

De todos modos, no habrá ninguna diferencia en la energía o la información consumida por los sensores porque, hasta donde yo sé, convierten la luz en códigos digitales y el color es solo el resultado de los filtros utilizados antes. Se puede decir que una imagen brillante usa más voltaje que una opaca pero el color no tiene ningún efecto, ninguno.

Eso depende de cuánta libertad necesite/quiera.

Alguien que use una cámara de visualización de gran formato podría estar preguntando a un usuario de DSLR cómo es remotamente posible tomar imágenes medio decentes con un dispositivo tan limitado.

¿Por qué usaría un teleobjetivo renunciando a la libertad de recortar una toma amplia en el posprocesamiento?

¿Y por qué alguien tomaría imágenes con una gran apertura? Para ese desenfoque, ¿podría aplicar Photoshop a la imagen de la manera que desea?

Para casi todas las propiedades de una cámara/lente/flujo de trabajo/... encontrará un cierto valor o rango de valores que le gustaría tener disponible para lo que hace. Otras personas pueden elegir valores diferentes. Si B/N es todo lo que hace sin el deseo de aplicar una gran cantidad de procesamiento posterior, la libertad de color puede convertirse en una carga.

Incluso hay cámaras que solo toman imágenes monocromáticas, como la Leica Monochrome ( y cámaras de video como la Arri Alexa XT B+W o la RED Epic Monochrome , fuera del sitio en lo que respecta a photo.SE, pero en el tema en cuanto a "Gastar 20k$ en algo que no tiene sentido" dice, también conocido como alguien compra esto )

Lo encuentro útil (a veces) en la composición. El color puede distraer tanto visual como emocionalmente. Otras veces, por ejemplo, la fotografía de flores silvestres ayuda a poder ver la imagen en color mientras se organizan los diversos elementos de la escena. Disparo en RAW y tengo una cámara (Sony a7R) con un visor electrónico.

En principio, sí, porque a menos que el software de procesamiento de la cámara esté escrito de una manera muy pobre, primero no hará la demostración para generar una imagen a todo color y luego usará esa imagen para calcular la imagen en blanco y negro. Más bien, hará una demostración dedicada para calcular la imagen en blanco y negro directamente a partir de los datos sin procesar, los dos procesos no son equivalentes, el último tendrá menos artefactos que el primero.

El sensor de la cámara tiene una matriz de filtros de color, cada píxel solo registra los valores de gris en la parte roja, verde o azul del espectro. La cámara calcula los otros dos valores de gris para cada píxel mediante interpolación (esto se denomina demostración). La demostración no es, por supuesto, magia; lo que el sensor no registró no se puede recuperar con precisión de los píxeles vecinos. Por lo tanto, siempre terminará con errores de demostración.

Si desea tener una imagen en blanco y negro, necesita recuperar menos información usando demostración en comparación con una imagen en color, por lo que esto se puede hacer con mayor precisión. Pero si primero compila una imagen en color y luego compila una imagen en blanco y negro a partir de ella, los errores más grandes en el primer paso se propagarán al último paso y terminará con una peor imagen en blanco y negro. Si bien los errores más grandes se reducirán hasta cierto punto cuando calcule una imagen en blanco y negro a partir de una imagen en color, los errores más grandes no se desharán por completo.

Lo mejor que puede hacer si desea la máxima flexibilidad para realizar el posprocesamiento y la mejor calidad de imagen en blanco y negro es capturar imágenes en bruto. A continuación, debe compilar las imágenes en blanco y negro usted mismo directamente a partir de las imágenes en bruto realizando la demostración necesaria usted mismo.

Disparar en blanco y negro con una cámara digital solo crea una imagen en blanco y negro a partir de la captura de color. No creo que ninguna cámara elimine físicamente la matriz de filtros de color.
Para ser justos, la pregunta no especifica "usar una cámara digital a color normal", por lo que esta respuesta es realmente válida, solo que no de una manera muy práctica.
Pero ese no es el punto que estoy haciendo. A menos que el software de procesamiento de la cámara esté escrito de una manera muy pobre, primero no hará la demostración para reproducir el color completo y luego usará esa imagen para calcular la imagen en blanco y negro. Es muy posible que algunas cámaras hagan esto, pero es mucho menos óptimo que hacer una demostración dedicada precisamente a la imagen en blanco y negro deseada.
@CountIblis: en realidad, lo que dices que no hará es exactamente lo que hará. Creará una imagen en color normalmente demostrada y la usará para producir una imagen en blanco y negro.
Bueno, en principio , la cámara sabe mejor cómo son las compensaciones entre los píxeles del sensor R, G, B y puede hacer mejores conjeturas (es decir, mayor resolución) sobre los valores de gris. Esto es, en cierto modo, el proceso opuesto al renderizado de subpíxeles . Pero como la salida final en blanco y negro no es de mayor resolución (¿o es para algunas cámaras?), esto me parece poco probable.