Software de investigación para realizar una tarea entre la clasificación de tarjetas y el dibujo de mapas

Estoy investigando en cognición espacial y estoy buscando un software que me permita realizar la siguiente tarea:

Los participantes caminarán alrededor de un espacio y luego se sentarán a una tarea de computadora. Habría un diseño arquitectónico 2d del espacio visitado por los participantes presentado en el centro de la pantalla. En el lateral de la pantalla, los participantes verán estímulos de imágenes dispersos aleatoriamente, que representan objetos que han visto dentro del espacio. Quiero que puedan arrastrar y soltar las imágenes a sus ubicaciones supuestas en el diseño arquitectónico, o hacer clic/seleccionar una imagen y hacer clic en el lugar dentro del diseño donde creen que vieron un objeto determinado. Quiero registrar la ubicación final y la secuencia de operaciones.

Miré las herramientas de clasificación de tarjetas de HCI, pero parecen ser demasiado restrictivas (por ejemplo, no permitirán cambiar la imagen de fondo), así que pensé que alguien en este grupo podría escuchar acerca de un software psicológico capaz de ejecutar este tipo de tarea.

Respuestas (3)

Esta es una respuesta relacionada con Mac: estoy seguro de que hay aplicaciones equivalentes en otras plataformas.

Cuando realizo pruebas de usabilidad en prototipos, usamos una combinación de OmniGraffle o Keynote y Silverback . Silverback registra todas las interacciones en la pantalla (se resaltarán cuando hagan clic, etc.) y también usará la cámara iSight incorporada para grabar un video del usuario. Puede 'marcar' puntos interesantes en la grabación para verlos fácilmente más tarde.

En OmniGraffle, configure la habitación como una capa de fondo que no se puede editar y los objetos en otra capa.

Una alternativa es usar algo como una reunión GoTo y 'transmitir' la sesión a otra sala donde el equipo pueda verla. Lo que no obtendrá tan fácilmente aquí es el resaltado de clics, etc.

Lo único que esta configuración no hará es mover al hacer clic en lugar de arrastrar.

El libro de Steve Krug "Rocket Surgery made easy" es una excelente guía para comenzar con este tipo de cosas.

Respuesta muy útil. Debería haber mencionado que preferiría soluciones económicas, pero su sugerencia se puede modificar usando un Keynote de pantalla completa (o algo similar) y una grabadora de screencast gratuita que se ejecuta en segundo plano. Así de sencillo, gracias :)
Parece que esto funcionaría bien para las pruebas de usabilidad. Para las tareas de psicología cognitiva, me imagino que querrá un medio para registrar las latencias de respuesta y las acciones del usuario de alguna manera automatizada y precisa.
Para lo que necesito (solo la secuencia de movimientos), esta solución funcionaría. La codificación manual de los videos me llevará menos de un día de trabajo y será 100 % confiable (es bastante obvio a partir de un screencast qué imagen se mueve como 1.°, 2.°, etc.). Escribir mi propio guión me llevará más de un día (de hecho, me ha llevado más de una semana ahora :). Es una habilidad útil para el futuro, pero en general prefiero soluciones más simples cuando las hipótesis no justifican la medición de latencias al tercer decimal.
Las herramientas de edición de video como Final Cut Pro / iMovie tienen una marca de tiempo y le permiten mover un cuadro a la vez para obtener una lectura muy precisa de cuándo ocurrió un evento. Estoy de acuerdo en que el enfoque de Jeromy es el ideal, si el tiempo y el presupuesto lo permiten, especialmente con grandes conjuntos de pruebas, pero incluso en esos casos suele ser beneficioso probarlo con el enfoque de "baja tecnología" para asegurarse de que el diseño funcione antes de comprometerse con la codificación.

Creo que una buena opción sería usar un lenguaje de propósito general. Por ejemplo, una vez usé Visual Basic para programar una tarea que permitía arrastrar elementos alrededor de una pantalla. El IDE para Visual Studio facilita la creación de GUI. Puede incluir fácilmente una imagen de fondo, etc. También puede registrar la ubicación de los elementos visuales y cada acción que realiza un usuario.

Gracias, pero escribir mi propio programa sería la última opción (es decir, la que consume más tiempo). PEBL también se ve bien para esto, simplemente no puedo creer que no haya una solución preparada en algún lugar :)

En nuestro instituto (en una universidad), todos los experimentos están programados a la medida, principalmente en Python, a menudo usando PsychoPy o en MATLAB. Tenemos personal, desde posdoctorados hasta asistentes de estudiantes, que no hacen más que escribir código (como paquetes para R). Si planeas hacer más de un experimento en tu vida, te recomiendo encarecidamente que aprendas a programarlos. Estaría muy descontento con las limitaciones que cualquier solución prefabricada impondría a su investigación.