¿Qué se sabe acerca de la información que pasa hacia arriba dentro de la neocorteza?

Es probable que la neocorteza procese representaciones dispersas en una jerarquía con información cercana a la entrada del sensor sin procesar que aparece en niveles inferiores y conceptos abstractos que aparecen en niveles superiores. Sin embargo, estoy interesado en la naturaleza exacta de la información que se transmite hacia arriba.

  1. Hay algunos mecanismos de activación en el neocórtex. Podría imaginar que evitan que se pase por alto información obvia. Por ejemplo, dado que ya se informó y no cambió. Al igual que los trabajadores dentro de las jerarquías corporativas solo informan el mismo estado una vez.
  2. De manera similar, tendría sentido dejar pasar información que una capa inferior no entiende y no puede manejar por sí misma. Esto también sería comparable a los trabajadores de una empresa que piden a sus gerentes una decisión que no pueden tomar.
  3. Si la planificación ocurre dentro de la jerarquía de la neocorteza, las capas superiores pueden transmitir opciones de niveles altos para que los niveles inferiores se desplieguen y simulen. En ese caso, el resultado podría pasarse por alto después.
  4. Al codificar flujos de entrada continuos, es probable que surjan patrones de atracción dentro de los niveles de la jerarquía. Podría imaginar que el tipo de información enviada hacia arriba cambia cuando un nivel se asienta en un patrón estable.

¿Hay alguna evidencia a favor o en contra de estas conjeturas? ¿Qué más se sabe sobre la naturaleza de la información que pasa dentro del neocórtex?

Re: 1., ¿te refieres a algo así como predicciones de la neocorteza agranular que "explican" la entrada sensorial entrante (responsable de fenómenos como la supresión de repeticiones)?
@mrt ¿Hay alguna teoría sobre eso? Creo que tendría sentido que un nivel solo envíe hacia arriba lo que no se puede explicar a partir de la información de arriba hacia abajo.
Estoy pensando en los modelos de codificación predictiva estándar (p. ej., Clark, 2013 ), en los que las predicciones fluyen hacia arriba desde la corteza agranular y profunda (baja dimensión; parte superior de la jerarquía) y el error de predicción fluye hacia abajo desde las capas granulares superficiales (alta dimensión; base de jerarquía) (p. ej., Chanes & Barrett, 2015 ). ¡Pero no estoy seguro de si esto es útil o no! :)
@mrt Eso ayuda mucho.

Respuestas (1)

Su conjetura 1 básicamente suena como habituación:

https://en.wikipedia.org/wiki/Habituación

Según su aclaración en su comentario, 2 parece que generalmente está hablando sobre el papel del error de predicción en el aprendizaje. Hay mucho trabajo en esto. Los modelos de redes neuronales generalmente aprenden modificando la fuerza de la conexión en respuesta al error. El algoritmo más conocido para esto se conoce como backpropagation . Aunque esta es una señal de error que se propaga hacia abajo en una red, no hacia arriba, como usted propuso. También está el modelo de aprendizaje Rescorla-Wagner , otro ejemplo de aprendizaje basado en errores.

3 suena como un procesamiento de arriba hacia abajo:

https://en.wikipedia.org/wiki/Top-down_and_bottom-up_design#Neuroscience_and_psychology

Con respecto a 4, los patrones de activación neuronal definitivamente se asientan en atractores. Esto ha sido bastante ampliamente modelado:

http://www.scholarpedia.org/article/Attractor_network

Gracias por tu respuesta. Con el segundo punto, me refería a algún tipo de sorpresa o predicción errónea de la próxima entrada. ¿Se sabe algo sobre esas entradas o sus términos de error de predicción que se alimentan hacia arriba? De manera más general, estaba buscando una descripción general o una revisión de lo que se sabe sobre la información que se transmite hacia arriba. ¿Conoces algún recurso para eso?
Ah, editaré mi respuesta con algo sobre eso.
Soy del aprendizaje automático, pero la propagación hacia atrás del error parece biológicamente inverosímil. También conozco CHL, XCAL, etc. Pero antes de sumergirme en las reglas de aprendizaje, me interesa qué información fluye entre los niveles. ¿El error de predicción local en un nivel afecta la información que se pasa hacia arriba?
Sí, también escuché de uno de mis profesores, que es un conexionista, que ha sido un desafío encontrar una base biológica para la utilería. No estoy seguro acerca de su pregunta sobre el error que afecta el flujo de información.
@danijar, por cierto, si te gusta mi respuesta, ¿puedes 'aceptarla' para que pueda obtener esos dulces puntos?
Gracias. Voy a aceptar tu respuesta en unos días. Solo quiero esperar si alguien puede proporcionar una descripción general más general (última oración en la pregunta).