Brazo robótico controlado por gestos

¿Puedo usar griómetros y acelerómetros para mapear el movimiento de un brazo humano y luego aplicarlo en un robot? La idea que tengo es recopilar los datos de múltiples sensores usando Raspberry Pi y transmitirlos a otro módulo a través de Bluetooth o WiFi local, allí los datos se traducen y se usan para impulsar motores en el robot para imitar movimientos básicos como caminar o flexión de brazos. ¿Se puede lograr lo mismo usando placas arduino o FPGA?

Las técnicas de seguimiento de animación 3d podrían ser una solución alternativa para la obtención de datos de movimiento.

Respuestas (1)

Lo que realmente está preguntando es si puede determinar la posición del brazo humano mediante la navegación inercial a partir de los datos del giroscopio y el acelerómetro.

La respuesta es sí, pero solo durante unos segundos hasta que los errores son tan grandes que el resultado es inutilizable. La posición es la segunda integral de la aceleración. Cualquier error de compensación en un valor de aceleración se convierte en un error de velocidad que aumenta linealmente, lo que se convierte en un error de posición que crece con el cuadrado del tiempo.

Una vez trabajé en un dispositivo para rastrear los movimientos de la cabeza durante un swing de golf. Funcionó lo suficientemente bien para la duración de un swing, pero los datos se volvieron inútiles rápidamente después de un par de segundos más o menos.

¿Hay alguna forma de obtener los datos requeridos con suficiente precisión para movimientos de hasta 10 segundos?
@Shah: Probablemente no por el precio que está dispuesto a pagar. Si puede medir los ángulos de las articulaciones directamente, entonces no tiene que integrar nada y no habrá una acumulación constante de errores.
¿Sensor de posición angular?
En realidad, no es la aceleración lo que le interesa, es la primera derivada, o "sacudir" la tasa de cambio de la aceleración. Que es menos fácil de obtener y usar.
@Tom: No, en última instancia quiere hacer que un robot imite a un humano. Eso significa que realmente quiere información sobre la posición, o al menos sobre la posición angular de todos los grados de libertad de las articulaciones. Jerk es incluso peor que la aceleración porque requiere una integral triple para obtener la posición, a diferencia de la integral doble para obtener la posición de la aceleración.
¡Qué asco! Traté de hacer que el control de arduino impulsado por gestos funcionara el año pasado con algunos de mis estudiantes y descubrí que efectivamente era una completa pérdida de tiempo. Llegamos a la conclusión de que un enfoque de Kinect hubiera sido mejor.