Estimación de la velocidad de obturación por desenfoque en una imagen [cerrado]

Si se agrega desenfoque artificial (en una dirección conocida) en una imagen de buena calidad, ¿cómo puedo obtener un valor aproximado de la velocidad de obturación si esa hubiera sido la imagen obtenida de una cámara?

Ahora, si solo tengo las dos imágenes a continuación, ¿puedo estimar la velocidad de obturación de alguna manera para poder hacer los cambios necesarios con algún programa?

ingrese la descripción de la imagen aquí

¿Qué quieres decir con desenfoque artificial ? ¿Está aplicando algún tipo de desenfoque en su editor de fotos, o está agregando desenfoque de movimiento al mover la cámara, o está cambiando el enfoque o algo más?
Por desenfoque artificial, me refiero a unir una imagen con un filtro para obtener el efecto de desenfoque. Los parámetros de la cámara son constantes (enfoque, etc.) Pero la cámara está en una plataforma móvil que tiene una velocidad variable, por lo que en un instante hay un desenfoque de movimiento pero en otro cuadro no hay ninguno (debido a que la velocidad de obturación es constante y desconocido). Quiero extraer la velocidad de obturación de la imagen y no al revés (elegir una velocidad de obturación y luego tomar una imagen)
Si está buscando determinar la velocidad del obturador o la velocidad de la cámara (tenga en cuenta que necesitará conocer una para determinar la otra), ¿por qué agregaría desenfoque a la imagen en lugar de simplemente analizar el desenfoque de movimiento creado por la plataforma?
Estás lidiando con demasiadas incógnitas para que tu cantidad sea fácilmente medible. El movimiento de la cámara se mide en px / s, donde px / s se relaciona con m / s a ​​través del paso de píxeles. NB estas cantidades son una integración del movimiento neto absoluto. Puede que no sea obvio, pero está en el SE incorrecto. La fotogrametría implica la medición de imágenes basadas en telemetría conocida . Photo.SE acepta a regañadientes esas preguntas. Aquí no se trata la determinación de información de imágenes sin información de apoyo (fotografía computacional ciega). Prueba Stack Overflow en su lugar
Con su edición, ¿está cambiando de "¿puedo estimar la velocidad de una sola foto" a "si tengo dos fotos, una con una velocidad de obturación conocida, ¿puedo estimar la velocidad de obturación de la otra?"

Respuestas (2)

Mi sitio tiene una calculadora para calcular la duración del desenfoque de movimiento en píxeles si conozco la velocidad de movimiento, el tamaño del sensor, la distancia focal, la distancia y la velocidad del obturador: https://www.scantips.com/lights/shake.html

Entonces, ¿hay varias variables, pero posiblemente su comparación aproximada podría serle útil?

Por supuesto, el desenfoque de movimiento es directamente proporcional al tiempo de obturación. Si tiene el obturador abierto cuatro veces más, obtendrá un desenfoque de movimiento que es cuatro veces mayor. Si no tiene referencia (como en la versión original de esta pregunta, simplemente no puede hacerlo (como respondí en profundidad en una de sus otras preguntas).

Si tiene dos fotos tomadas de la misma cosa desde la misma posición, es un poco diferente: el problema es identificar el desenfoque de movimiento automáticamente.

En un caso muy simple, por ejemplo, una pelota que se mueve contra un fondo de color plano con alto contraste, puede hacer esto simplemente, luego usar la deconvolución para eliminar ese desenfoque y luego volver a agregar una cantidad artificial.

Su ejemplo específico con la masa ilustra cómo esto se complica rápidamente. El bate no se mueve linealmente, por lo que el desenfoque de movimiento en relación con la posición de la cámara cambia desde la punta del bate hasta el mango. La pelota se mueve lo suficientemente rápido como para que sea realmente difícil distinguir el desenfoque de movimiento del desenfoque general en esta imagen. (¿Es un enfoque erróneo? ¿Profundidad de campo? ¿Artefactos de compresión? ¿Los tres? Difícil de decir ya que la muestra es de muy baja calidad).

Como antes: estás en el área de investigación. Consulte "estimación de desenfoque de movimiento" en Google Scholar

Si solo desea comparar dos imágenes de referencia de escenas muy similares, y conoce la velocidad de una, puede medir aproximadamente la longitud de píxel del desenfoque de un objeto que sabe que se está moviendo. Pero, si una de tus velocidades es tan alta que el desenfoque es inferior a un píxel, no tienes suerte . Y si son solo unos pocos píxeles, su precisión será muy baja. Por el contrario, si el desenfoque es tan grande que el objeto en movimiento es solo una especie de mancha (como se suele hacer por efecto estético con agua en movimiento), tendrá problemas para identificar qué medir.

Y eso lo está haciendo como humano. Nuevamente, para hacer esto de manera confiable con el software, probablemente necesite un modelo 3D de su escena.

De un comentario:

Solo quiero una estimación aproximada para comparar y clasificar las imágenes con y sin desenfoque de movimiento con la extensión del desenfoque como parámetro. Entonces, ¿podría al menos darme un método para obtener la estimación aproximada?

Si tiene una imagen de referencia con desenfoque de movimiento claro, la estimación aproximada es multiplicar la longitud del desenfoque por la relación de las velocidades de obturación. Si no tiene una imagen de referencia, debe conocer lo que se describe en esta respuesta a su otra pregunta al menos en un grado aproximado, de lo contrario, no puede hacer ninguna estimación.

Solo quiero una estimación aproximada para comparar y clasificar las imágenes con y sin desenfoque de movimiento con la extensión del desenfoque como parámetro. Entonces, ¿podría al menos darme un método para obtener la estimación aproximada?