Es probable que la neocorteza procese representaciones dispersas en una jerarquía con información cercana a la entrada del sensor sin procesar que aparece en niveles inferiores y conceptos abstractos que aparecen en niveles superiores. Sin embargo, estoy interesado en la naturaleza exacta de la información que se transmite hacia arriba.
¿Hay alguna evidencia a favor o en contra de estas conjeturas? ¿Qué más se sabe sobre la naturaleza de la información que pasa dentro del neocórtex?
Su conjetura 1 básicamente suena como habituación:
https://en.wikipedia.org/wiki/Habituación
Según su aclaración en su comentario, 2 parece que generalmente está hablando sobre el papel del error de predicción en el aprendizaje. Hay mucho trabajo en esto. Los modelos de redes neuronales generalmente aprenden modificando la fuerza de la conexión en respuesta al error. El algoritmo más conocido para esto se conoce como backpropagation . Aunque esta es una señal de error que se propaga hacia abajo en una red, no hacia arriba, como usted propuso. También está el modelo de aprendizaje Rescorla-Wagner , otro ejemplo de aprendizaje basado en errores.
3 suena como un procesamiento de arriba hacia abajo:
https://en.wikipedia.org/wiki/Top-down_and_bottom-up_design#Neuroscience_and_psychology
Con respecto a 4, los patrones de activación neuronal definitivamente se asientan en atractores. Esto ha sido bastante ampliamente modelado:
señor
danijar
señor
danijar