Si se agrega desenfoque artificial (en una dirección conocida) en una imagen de buena calidad, ¿cómo puedo obtener un valor aproximado de la velocidad de obturación si esa hubiera sido la imagen obtenida de una cámara?
Ahora, si solo tengo las dos imágenes a continuación, ¿puedo estimar la velocidad de obturación de alguna manera para poder hacer los cambios necesarios con algún programa?
Mi sitio tiene una calculadora para calcular la duración del desenfoque de movimiento en píxeles si conozco la velocidad de movimiento, el tamaño del sensor, la distancia focal, la distancia y la velocidad del obturador: https://www.scantips.com/lights/shake.html
Entonces, ¿hay varias variables, pero posiblemente su comparación aproximada podría serle útil?
Por supuesto, el desenfoque de movimiento es directamente proporcional al tiempo de obturación. Si tiene el obturador abierto cuatro veces más, obtendrá un desenfoque de movimiento que es cuatro veces mayor. Si no tiene referencia (como en la versión original de esta pregunta, simplemente no puede hacerlo (como respondí en profundidad en una de sus otras preguntas).
Si tiene dos fotos tomadas de la misma cosa desde la misma posición, es un poco diferente: el problema es identificar el desenfoque de movimiento automáticamente.
En un caso muy simple, por ejemplo, una pelota que se mueve contra un fondo de color plano con alto contraste, puede hacer esto simplemente, luego usar la deconvolución para eliminar ese desenfoque y luego volver a agregar una cantidad artificial.
Su ejemplo específico con la masa ilustra cómo esto se complica rápidamente. El bate no se mueve linealmente, por lo que el desenfoque de movimiento en relación con la posición de la cámara cambia desde la punta del bate hasta el mango. La pelota se mueve lo suficientemente rápido como para que sea realmente difícil distinguir el desenfoque de movimiento del desenfoque general en esta imagen. (¿Es un enfoque erróneo? ¿Profundidad de campo? ¿Artefactos de compresión? ¿Los tres? Difícil de decir ya que la muestra es de muy baja calidad).
Como antes: estás en el área de investigación. Consulte "estimación de desenfoque de movimiento" en Google Scholar
Si solo desea comparar dos imágenes de referencia de escenas muy similares, y conoce la velocidad de una, puede medir aproximadamente la longitud de píxel del desenfoque de un objeto que sabe que se está moviendo. Pero, si una de tus velocidades es tan alta que el desenfoque es inferior a un píxel, no tienes suerte . Y si son solo unos pocos píxeles, su precisión será muy baja. Por el contrario, si el desenfoque es tan grande que el objeto en movimiento es solo una especie de mancha (como se suele hacer por efecto estético con agua en movimiento), tendrá problemas para identificar qué medir.
Y eso lo está haciendo como humano. Nuevamente, para hacer esto de manera confiable con el software, probablemente necesite un modelo 3D de su escena.
De un comentario:
Solo quiero una estimación aproximada para comparar y clasificar las imágenes con y sin desenfoque de movimiento con la extensión del desenfoque como parámetro. Entonces, ¿podría al menos darme un método para obtener la estimación aproximada?
Si tiene una imagen de referencia con desenfoque de movimiento claro, la estimación aproximada es multiplicar la longitud del desenfoque por la relación de las velocidades de obturación. Si no tiene una imagen de referencia, debe conocer lo que se describe en esta respuesta a su otra pregunta al menos en un grado aproximado, de lo contrario, no puede hacer ninguna estimación.
Caleb
nsidn98
Caleb
PhotoScientist
mattdm