¿Cómo pueden las redes neuronales con reglas de aprendizaje locales predecir sus entradas futuras?

Las reglas de aprendizaje local como Contrastive Hebbian Learning , XCAL, etc. se basan en la idea de fortalecer los bordes cuando las neuronas que conectan se disparan simultáneamente. Esto hace que los patrones frecuentes en el flujo de entrada se codifiquen en las capas.

Entiendo cómo esto atrae patrones de entrada similares a los estados de activación aprendidos. Sin embargo, no veo cómo se puede usar esta memoria para predecir la entrada futura. ¿Cómo es posible que las neuronas predigan futuros flujos de entrada según las reglas de aprendizaje locales?

Estados iniciales y finales en Hebbian Learning

De: Introducción al aprendizaje de Hebbian (2005)

¿Qué quiere decir con "entrada futura"? ¿Quiere decir: si tuviera un sistema cuya entrada fuera una cuadrícula de píxeles y la salida fuera el número que representaban los píxeles, cómo se generaliza la red de los ejemplos de entrenamiento a los ejemplos de prueba?

Respuestas (1)

véase Lisman, JE y Otmakhova, NA (2001), Almacenamiento, recuperación y detección de novedades de secuencias por el hipocampo: elaboración del modelo SOCRATIC para explicar los efectos normales y aberrantes de la dopamina. Hipocampo, 11: 551–568. doi: 10.1002/hipo.1071: http://wwww.bio.brandeis.edu/lismanlab/pdf/socratic.pdf para un mecanismo propuesto.

en resumen, las reglas locales de aprendizaje pueden desarrollar conexiones entre elementos que ocurren secuencialmente. si tiene una red cuyo patrón completa (es decir, identifica) la entrada, puede pasar esa identificación a una segunda red que aprende asociaciones temporales entre elementos.

¿Puedes mejorar un poco tu lenguaje y entrar un poco más en detalle?
¿Qué más detalle te gustaría?
Gracias por la edición. Esto suena muy razonable. Junto con STDP, esto responde a mi pregunta (no muy precisa).