Regla de aprendizaje de Hebbian, ¿local o global?

Acabo de enterarme de la regla de aprendizaje de Hebbian . Esencialmente dice "Neuronas que disparan juntas, se conectan juntas". Me pregunto si la regla de aprendizaje se ve afectada por la distancia espacial de las dos neuronas. Cuando dos neuronas están lejos una de la otra, ¿por qué se forma la conexión?

Como cualquier otra cosa con un eslogan cursi o mnemotécnico, la mecánica subyacente es un poco más complicada. Sin embargo, las reglas de actualización de Hebbian siguen siendo bastante útiles en modelos y simulaciones. Puede que tenga una respuesta a esto, pero necesito desenterrar los papeles.
Los artículos que tenía en mente eran para sinapsis que se formaron a distancias más lejanas en un árbol dendrítico determinado, por lo que no creo que aborden su pregunta directamente. Seguiré buscando. Sin embargo, creo que parte de la respuesta a su pregunta específica estará arraigada en lo que ya existe en gran medida a través del desarrollo.

Respuestas (1)

Es una regla local. Todo lo que significa es que la conexión entre dos neuronas se vuelve más fuerte si usas más esa conexión específica. Sin embargo, se debe usar la conexión específica (la sinapsis); no se aplica a dos neuronas aleatorias que no están conectadas y que se disparan al mismo tiempo.

El aprendizaje hebbiano es un término genérico para resultado; en realidad, hay dos mecanismos separados que conozco (probablemente muchos más también). Primero, hay "sinapsis silenciosas" que solo tienen receptores NMDA, pero no receptores AMPA. Los receptores NMDA tienen moléculas de Mg+ que bloquean sus canales y requieren la activación de AMPA para expulsar el NMDA. Entonces, si tiene una sinapsis sin AMPA, no será una sinapsis efectiva. Sin embargo, si tiene otra sinapsis activando el tejido, expulsando el magnesio, entonces la sinapsis silenciosa tiene una ventana corta para activar la sinapsis durante la expulsión de Mg. Mientras hace esto, activa una serie de señalización de proteínas y señalización de transcripción que le dice a la célula que genere más AMPA (una respuesta a toda la señalización de Ca de la que dependen estas señales).

Otro ejemplo es la regulación astrocítica de los niveles de glutamato. El ATP es lo que todo tu cuerpo usa como energía, pero hay detectores de ATP en los astroctyes, que se acoplan en la sinapsis tripartita como un regulador sináptico. A medida que la sinapsis es más activa, se libera ATP, lo que activa el astrocito y hace que libere glutamato adicional, acercando a la neurona postsináptica a la activación.

Todos estos requieren solo que las neuronas hagan contacto en una sinapsis, la distancia entre los somas no es un factor. Por supuesto, la distancia entre el axón y la espina dendrítica debe ser lo suficientemente cercana para formar una sinapsis.

Si bien es cierto que las neuronas solo se conectan con neuronas adyacentes, las redes que se forman entre ellas son el resultado de la regla de Hebb. Empezamos con una sobreabundancia de conexiones neuronales y las redes que no se utilizan (redundantes) se eliminan sistemáticamente. La teoría de Hebb es fundamental para comprender las redes neuronales.
No estoy particularmente en desacuerdo con tu comentario, pero no estoy seguro de cuál es tu punto.
Su respuesta indica que la "regla" solo afecta a las neuronas locales, pero la regla/teoría se aplica de manera más amplia que solo las neuronas locales. De hecho, no sería de mucha utilidad si no fuera por encadenar estas neuronas en redes más grandes.
No creo indicar que solo afecta a las neuronas locales. La forma en que la regla afecta el resultado de la red requiere un mayor nivel de inferencia y me parece fuera del alcance de la pregunta. No comenté de una forma u otra en las redes.