¿Cómo modelar computacionalmente la tarea de clasificación de tarjetas de Wisconsin?

La tarea de clasificación de tarjetas de Wisconsin es bastante famosa, pero parece bastante difícil de modelar computacionalmente.

Trabajo en RL y me interesa cómo las personas aprenden la estrategia óptima. Estoy interesado en la tarea porque permitiría una serie de manipulaciones experimentales. Quiero capturar el papel de la memoria en la estrategia óptima. Las personas pueden realizar un seguimiento de algunos, pero no muchos, del historial de pruebas al realizar la tarea. (Es decir, la estrategia matemáticamente óptima parece demasiado pesada desde el punto de vista computacional).

  • ¿Cómo podría abordar el modelado de la tarea de clasificación de tarjetas de Wisconsin?
  • ¿Qué otra investigación ha modelado la tarea?
¿En qué paradigma está trabajando y por qué el primer resultado en Google Scholar ( Dehaene & Changeux, 1991 ) no responde a su pregunta? Además, ¿cuál es tu razón para creer que es difícil de modelar?
Para esto, trabajo en RL y me interesa cómo las personas aprenden la estrategia óptima. Es decir, no he trabajado con esta tarea antes, pero me interesa porque permitiría una serie de manipulaciones experimentales. Lo encuentro difícil, y no me gustó Dehaene y Changeux (1991), porque no parece captar el papel de la memoria en la estrategia óptima. Las personas pueden realizar un seguimiento de algunos, pero no muchos, del historial de pruebas al realizar la tarea. Es decir, la estrategia matemáticamente óptima parece demasiado pesada desde el punto de vista computacional, y no pude encontrar a nadie que desarrollara un modelo mejor. Muchas gracias por su respuesta
la próxima vez debería incluir tales detalles en su pregunta (aunque editarlo ahora sería un cambio bastante grande en la pregunta). Sin embargo, eche un vistazo de cerca a Kaplan et al. (2006). Las redes de Hopfield son bastante malas para recordar cosas, por lo que este enfoque podría ser lo que está buscando.
pregunta editada para incorporar comentarios
@JeromyAnglim, las ediciones que realizó hacen que parte de mi respuesta parezca tonta y son un cambio significativo en la pregunta original.
También @ user865 Acabo de hojear D&C91. ¿Cómo no captura el papel de la memoria? Eso parece ser exactamente lo que estudian, y modelan la memoria como grupos de activación en una red neuronal y no como una base de datos arbitraria que recuerda todo.
@ArtemKaznatcheev Lo siento. Estaba tratando de hacer que la pregunta fuera lo más útil posible para futuros lectores. Lo edité de acuerdo con el intercambio de comentarios que tuviste con OP. No creo que los futuros lectores deban revisar los comentarios para comprender la pregunta. Creo que, en general, cuando alguien puede molestarse, la información obtenida a través de los comentarios generalmente debe editarse en la pregunta. La pregunta también parecía que iba a cerrarse. Tengo preferencia por el salvamento. Modifiqué un poco la edición para tratar de mostrar los cambios más claramente.
@JeromyAnglim no hay problema, pero hice algunas ediciones más, porque no entiendo de dónde saca el OP la idea de que D&C no modela la memoria.
@JeromyAnglim ¿Han abordado estas ediciones el problema planteado por Artem? Si es así, creo que este hilo de comentarios se puede eliminar.
@StevenJeuris Supongo que si Artem lo editó posteriormente, ahora está bien y estos comentarios se pueden eliminar.

Respuestas (2)

Dehaene & Changeux (1991) hicieron un modelo de red neuronal:

Las unidades de codificación son grupos de neuronas organizadas en capas o ensamblajes. Un bucle sensormotor permite que la red clasifique las tarjetas de entrada según varios criterios (color, forma, etc.). Un ensamblaje de nivel superior de códigos de clústeres de codificación de reglas para la regla probada actualmente, que cambia cuando se recibe una recompensa negativa. También ocurre la prueba interna de las reglas posibles, análoga a un proceso de razonamiento, por medio de un bucle de autoevaluación endógena. Cuando está lesionado, el modelo reproduce el comportamiento de los pacientes del lóbulo frontal.

Parques et al. (1992) ampliaron los modelos neuronales anteriores de WCST para tener en cuenta la fluidez verbal.

Amos (2000) construyó un modelo de red neuronal que ayuda a distinguir entre el tipo de errores que cometen los pacientes con esquizofrenia, la enfermedad de Parkinson y la enfermedad de Huntington. Relaciona el modelo con la neuroanatomía y dice:

El modelo también hizo predicciones específicas empíricamente falsables que pueden usarse para explorar la utilidad de estos supuestos mecanismos de procesamiento de información en la corteza frontal y los ganglios basales.

Monchi et al. (2000) siguió un enfoque similar al de Amos. Su modelo sugirió diferentes deficiencias en la enfermedad de Parkinson y los pacientes esquizofrénicos, e hizo predicciones específicas de lo que se observaría en las exploraciones de IRMf. Probaron esta predicción en su artículo.

Para 2005, el WCST se había convertido en un punto de referencia para modelos más generales. Rougie et al. (2005) hizo un modelo general de la corteza prefrontal basado en principios neurobiológicos generales en oposición a los enfoques simbólicos. Modelan lo aprendido de la experiencia y lo generalizan a tareas novedosas. Lo probaron en WCST y los datos de la tarea Stroop para sujetos típicos y con daño frontal.

Kaplan et al. (2006) utilizan un enfoque de red neuronal con dos partes: una red de Hopfield sirve como memoria de trabajo y un bloque de Hamming como generador de hipótesis.

Bishara et al. (2010) utilizan un modelo más parecido a ACT-R (aunque no ACT-R real) con carga probabilística en reglas simbólicas. El modelo de aprendizaje secuencial resultante se utiliza para identificar procesos específicos con los que los sujetos podrían estar luchando. Se supone que ayuda al diagnóstico en un entorno clínico, y lo prueban en personas dependientes de sustancias.

Rigotti et al. (2010) crearon una red de neuronas conectadas aleatoriamente que podrían resolver la tarea. El punto clave era que las conexiones aleatorias inducían selectividad mixta, lo que resolvería la tarea con alta probabilidad.

Mis colegas han aplicado el modelo COVIS de aprendizaje de categorías al WCST. COVIS no es un modelo de rendimiento de WCST per se, pero puede dar cuenta de varios fenómenos conocidos. Vea esta búsqueda de Google Scholar: http://scholar.google.com/scholar?hl=en&q=Helie+Paul+ashby&btnG=&as_sdt=1%2C5&as_sdtp=

Bienvenido al sitio. ¿Hay algún artículo, en particular, que recomendaría? ¿Podría dar más detalles sobre cómo explica los fenómenos conocidos?