¿Es posible crear un mapa de profundidad con la EOS 70D Dual Pixel AF?

Pedí la 70D y, mientras esperaba, pensé en el sensor AF de doble píxel.

Mi pregunta es mitad por curiosidad y mitad porque siento que podría ser útil.

Estoy pensando que usando las técnicas usadas para el 70D AF quizás se podría crear un mapa de profundidad del sujeto real y asignar valores de distancia aproximados a diferentes partes de la imagen usando la información de la lente.

(La creación de esta cosa es de lo que estoy hablando: http://blog.topazlabs.com/wp-content/uploads/2014/03/ depth-map.png )

Entonces, mi pregunta es: ¿es posible crear un mapa de profundidad con la EOS 70D AF de doble píxel? Además, ¿sería esto posible usando un sensor de tipo DP-AF y la información de la lente?

(Supongo que la respuesta es "No" porque, si bien es teóricamente posible, el 70D nunca enviará la información DP-AF)

Respuestas (2)

¿Es posible con ese tipo de sensor? Sí. He reflexionado sobre eso en otra publicación aquí, sobre alimentarlo con un software que simula una profundidad de campo superficial.

Cualquier pequeña secuencia de píxeles que cruza una característica de la imagen, leída como dos conjuntos de píxeles divididos, brindará información de fase que normalmente se usa para dar un comando de enfoque instantáneo para ir directamente a la distancia correcta.

Un solo píxel (dividido) no tiene profundidad. Una línea corta de dichos píxeles será diferente en cada división, desplazada. Por lo tanto, necesita una línea lo suficientemente larga para determinar eso y darse cuenta de que está borrosa para que no vea bordes afilados sino una mancha.

Si pudiera guardarlos todos en un archivo sin formato y procesarlo en una computadora, podría analizarlo de manera similar al enfoque automático, detectando diferentes puntos y diferentes profundidades. Luego, amplíe esas lecturas para encontrar un área con el mismo cambio o un cambio suave.

Úselo junto con el reconocimiento de imágenes convencional para decidir los bordes exactos de las cosas.

En unos años, cuando los 70D y 7Dii aparezcan como chatarra, espero que los sitios de piratería publiquen cómo jugar con el chip sensor extraído de un cuerpo viejo, con un Edison, π o Arduino o algo así, leyéndolo y comandándolo. Por ahora, no voy a desarmar el mío.

Casi todas las imágenes capturan información de profundidad. Después de todo, puede determinar el primer plano y el fondo, qué tan lejos están las cosas, etc. Obtiene una percepción de profundidad cuando mira una imagen 2D. Esto puede ser engañado por ilusiones ópticas.

Hay algoritmos que pueden hacer lo mismo: descifrar el modelo 3D a partir de una sola imagen 2D: http://make3d.cs.cornell.edu/ Aquí hay un poco sobre los antecedentes: http://cs.stanford.edu/people /asaxena/reconstruccion3d/

No sé si esto podría mejorarse con la información adicional del DPAF. Los datos adicionales nunca están de más. Si se convierte en una carga, siempre se pueden ignorar partes para reducir la cantidad. Su mejor oportunidad de obtener acceso a esos datos es probablemente usar Magic Lantern. No sé hasta qué punto tienen acceso a él, pero si alguien lo ha hecho, son ellos.