Modelos cognitivos de aprendizaje Uso de la memoria de trabajo

Recientemente, en el aprendizaje profundo, ha habido un aumento en el aprendizaje de cómo usar las memorias como parte del proceso de optimización (es decir , LSTM y Stacks ). Sin embargo, estos no son realmente análogos a cómo un sistema cognitivo aprende a usar su memoria de trabajo.

¿Existen modelos de cómo se pueden aprender a aprovechar de manera óptima los módulos de memoria de trabajo (donde un valor guardado decae con el tiempo)? ¿A través del aprendizaje por refuerzo o del aprendizaje supervisado?

A partir de la memoria, existen algunos modelos cognitivos simples que pueden predecir patrones óptimos de búsqueda en la memoria. Sin embargo, no sé si es exactamente lo que buscas.
@MichaelAnderson Estoy más interesado en aprender a usar módulos de memoria que pueden o no necesitar ser buscados

Respuestas (2)

ACT-R es un modelo cognitivo completo que incorpora memoria de trabajo, memoria declarativa y memoria de procedimiento, pero también incorpora búferes de entrada (visual y auditiva) y de salida (manual). Es un modelo realmente interesante sobre el ser humano en su totalidad, pero tiene un alto nivel de abstracción.

El artículo sobre la memoria que desea es " REFLEJOS DEL MEDIO AMBIENTE EN LA MEMORIA " de Schooler y Anderson. Describe cómo y por qué la memoria es como el aprendizaje por refuerzo. En este artículo puedes leer cómo se usa la memoria para estudiar. Acerca de aprender a aprovechar la memoria de trabajo, no sé exactamente a qué te refieres, pero creo que estos documentos te dan una buena ventaja.

Si desea obtener más información sobre ACT-R, le recomendaría este libro , o simplemente lea los muchos artículos que han publicado a lo largo de los años. Tienen excelentes ejemplos que explican la multitarea y la percepción del tiempo , entre otros.

Solo pude encontrar una sola instancia de aprendizaje para aprovechar un recuerdo. "El origen de las estructuras epistémicas y las proto-representaciones" de Chandrasekharan y Stewart muestra cómo incluir la opción para guardar el estado actual (al entrenar una red neuronal para generar '1' dada la entrada de estado actual) e ingresar esta memoria en el estado representación de una tarea de aprendizaje por refuerzo. En el artículo, este método permite que un agente cambie entre la búsqueda de alimento y el regreso a casa.

De manera frustrante, verificar las citas de este documento conduce a un callejón sin salida, por lo que se agradecerían enormemente más referencias.