¿Por qué la evolución ha hecho que las neuronas usen picos?

Voy a ser directo y decir que no soy biólogo. No pretendo entender completamente la funcionalidad de una neurona desde una perspectiva eléctrica/química... Curiosamente estoy mirando desde afuera como programador de computadoras.

Ahora, la gran novedad en estos días con las redes neuronales artificiales es simularlas con precisión biológica, es decir, con picos, colocando la red en el espacio euclidiano y todo tipo de otras cosas (consulte Human Brain Project ; es realmente genial Nuestros propios cerebros son computables, con una computadora lo suficientemente poderosa. Probablemente también tenga muchas implicaciones filosóficas fascinantes y horribles.), Pero este no es el único modelo que la gente ha usado comúnmente para las redes neuronales.

En el pasado, los perceptrones multicapa eran lo más importante; No voy a profundizar en explicarlos, pero esencialmente, cada neurona simplemente realiza una función matemática en sus entradas y luego las emite. No hay picos en el sentido similar a nuestras neuronas. Una neurona podría estar aumentando su rendimiento casi al 100 % indefinidamente y no hay ninguna diferencia objetiva entre eso y estar al 0 % o en cualquier otro lugar.

Ahora, me fui por la tangente, pero lo que estoy tratando de entender es: ¿por qué este comportamiento no se observa en el sistema de computación que la evolución ha producido durante muchos, muchos años? ¿Por qué usamos neuronas de pico en su lugar? En cambio, hemos desarrollado un sistema extraño en el que los picos viajan por cadenas de neuronas en patrones que aún no entendemos realmente para producir el comportamiento necesario para que la criatura sobreviva. Mi pregunta es, ¿por qué se ha favorecido esto sobre algo similar a los perceptrones multicapa? ¿Es más eficiente energéticamente utilizar un modelo de picos? El cerebro utiliza una cantidad desproporcionada de energía. Me pregunto si es más efectivo como modelo para la computación.

Solo para estar seguro de lo que quiere decir, pregunta por qué las neuronas se activan solo en un método de "encendido o apagado" y por qué no hay estados intermedios.
Lo siento, no; Estoy preguntando por qué las neuronas que se disparan son las que usan constantemente todas las criaturas con cerebro; picos en momentos específicos en lugar de, por ejemplo, transmitir una "señal" del 50% durante un período sostenido de tiempo o cualquier otro patrón de comportamiento. Entonces, no necesariamente binario como lo describe, sino que se dispara en sí mismo. Esto es difícil de describir sin explicar los perceptrones multicapa en detalle...
Especialmente dado que ya tiene una formación cuantitativa, el libro Spikes aborda muchos de estos temas desde el punto de vista de la teoría de la información.
Deberías leer sobre cómo funcionan las neuronas. Admitiste que no sabes esto, pero responde directamente a tu pregunta.

Respuestas (4)

Una de las muchas ventajas de un sistema de todo o nada es que se pueden conservar los recursos para cronometrar eventos que requieren colaboración sincronizada entre muchas células (como la locomoción). El comportamiento binario también puede ser parcialmente un efecto secundario de la velocidad y la transferencia eficiente de información a larga distancia (que es una de las grandes ventajas de las neuronas como células en primer lugar).

Cabe señalar, sin embargo, que las neuronas no son universalmente binarias. Es más exacto decir que las neuronas tienen propiedades binarias que les permiten comportarse de manera binaria (pero no todas las neuronas lo hacen). Además de eso, muchos procesos continuos (es decir, no binarios) subyacen al umbral de excitabilidad de la neurona.

Una cosa que creo que te estás perdiendo: un modelo de perceptrón y un modelo de picos no son mutuamente excluyentes. De hecho, en los perceptrones, las personas suelen utilizar una función sigmoidea. Eso no es una coincidencia: simula un pico. Si tuviera que modelar un organismo como C. elegans, cuyas neuronas no se disparan (pero usan "potenciales de acción graduados"), usaría otro tipo de función de activación (por cierto, si le gusta el Proyecto Cerebro Humano, también debería consultar el proyecto Openworm , que es mucho más realista y ya ofrece algunos resultados interesantes ).

Entonces, volviendo al punto. Cuando intenta modelar el aprendizaje y la generación de memoria, a menudo termina lidiando con la plasticidad. Solo una explicación rápida: una neurona dispara un potencial de acción (AP) cuando su potencial transmembrana supera un límite. El potencial en sí cambia debido a las entradas de otras neuronas. Pero todas las entradas no tienen el mismo peso. Digamos que miras la neurona A, que obtiene sinapsis de las neuronas B, C, D... Si B dispara al mismo tiempo que C, puede ser suficiente para crear un AP de A. Pero, incluso en combinación con B o C, D no provoca suficiente variación de potencial transmembrana para crear un AP; tiene que disparar exactamente al mismo tiempo que E, F, G y H para obtener suficiente "potencia de fuego" para activar A.

Sin embargo, si cada vez que D dispara, A obtiene un AP (debido a la activación simultánea de otras neuronas entrantes), entonces podría decir que D es "útil" para A y (dependiendo del tipo de neurona y otros parámetros) el peso de D puede aumentar, de modo que, después de un tiempo, D puede provocar un AP en A simplemente disparándose al mismo tiempo que cualquier otra neurona entrante. Eso es un fenómeno de plasticidad. Tenga en cuenta que aquí, es un ejemplo hipotético realmente simple. Y también que la idea de que el aprendizaje resulta de la plasticidad es cada vez más cuestionada.

Por lo tanto, si desea comprender cómo suceden el aprendizaje y la memoria, es posible que le interesen solo los pesos de las conexiones y cómo evolucionan según la actividad de la red. En ese caso, un modelo de perceptrón es un buen camino a seguir.

Ahora, la gran novedad en estos días con las redes neuronales artificiales es simularlas con precisión biológica, es decir, con picos.

Entonces, como ya mencionaste en tu pregunta, se trata de elegir un modelo que vas a usar (como investigador que intenta comprender el cerebro). Esto no está tratando de dar una descripción precisa de cómo es realmente el cerebro. Si está interesado en los pesos de las conexiones, puede usar un enfoque de redes neuronales (y esto no está desactualizado ), y no le importa un solo canal de iones en la membrana de una neurona. Pero, alternativamente, también puede dedicar su vida a comprender la estructura de un solo canal de iones y cómo los detalles simples pueden determinar todo el funcionamiento del cerebro.

Proyectos como el Human Brain Project intentan crear un modelo "biológicamente exacto" del cerebro. Por lo tanto, implica modelar los picos, así como la organización de la red, así como los canales de iones individuales. Entonces, en ese caso, no necesitan usar paradigmas como las redes neuronales artificiales, ya que el comportamiento de la red debería ser el resultado del modelado de las neuronas individuales: eso sería una respuesta emergente . Sin embargo, ya no tienen las simplificaciones que traen otros modelos, por lo que necesitan una gran potencia computacional y también se enfrentan a nuevos problemas: por ejemplo, tienen que dar valores a todos los parámetros individuales de sus modelos, algunos de los cuales son actualmente desconocido, e incluso podría no existir en absoluto.

Entonces, creo que esto responde a su pregunta, en el sentido de que no es el cerebro el que evolucionó para elegir un modelo, sino los científicos que intentan modelar un aspecto particular del cerebro.

EDITAR: Veo, de hecho, que esta pregunta es bastante antigua; Lo siento, fue una sugerencia de la derecha lo que me trajo aquí. Pero creo que mi respuesta aún puede traer un aspecto que aún no se mencionó en las otras respuestas. Así que espero que lo veas.

El uso de picos es una mezcla de sus ventajas computacionales y las limitaciones del sustrato biológico en el que se implementan:

  1. Pueden viajar largas distancias a altas velocidades porque pueden beneficiarse de la conducción saltatoria que es mucho más rápida que la difusión y se puede mantener a lo largo de largas distancias. Una señal digital es menos propensa al ruido, razón por la cual nuestras computadoras funcionan digitalmente.
  2. Los picos se pueden modular usando sinapsis químicas que son a) direccionales b) pueden amplificar la señal c) pueden modular la señal d) incluso pueden inhibir la señal. Los voltajes analógicos deben transmitirse a través de uniones eléctricas que no permitan la modulación.
  3. La codificación de frecuencia (la señal se encuentra en el intervalo entre picos) tiene un rango dinámico más amplio que la codificación de voltaje.
  4. La generación de picos puede servir como no linealidad en la función de transferencia.
  5. El pico se puede usar para codificar señales temporales de manera más eficiente al reducir la redundancia (solo cambio de señal).

Por cierto. no espere demasiado del proyecto del cerebro humano: es mucho hablar y no obtener resultados.

¡Sería genial si agregaras algunas referencias a tu respuesta!
Mi respuesta es una mezcla de conocimiento de libros de texto y sentido común. Hay muy pocos documentos lo suficientemente amplios como para corroborar una de las razones.

Las neuronas son binarias, en el sentido de que "disparan" o "no disparan". No hay intermediario, porque el disparo neuronal (bioquímicamente) es un proceso de avalancha. Los desencadenantes excitatorios elevan el potencial de membrana y los desencadenantes inhibitorios lo reducen. Una vez que se alcanza el "voltaje de umbral", la neurona se enciende y dispara. Así es como las neuronas toman "decisiones": se suman las entradas de muchas neuronas inhibitorias y excitatorias, y si la suma está por encima del voltaje umbral, la neurona en cuestión se dispara. Para usar lenguaje computacional, una neurona es una puerta Y lógica con cientos de entradas.

Lea el artículo de wikipedia sobre "potenciales de acción" para una discusión más profunda.

Pero mi pregunta es, ¿cuál es exactamente el beneficio de aptitud evolutiva de usar este mecanismo sobre algún otro mecanismo más similar a las "puertas lógicas no discretas" como lo que se ve en los perceptrones multicapa? ¿Se debe simplemente a que el spiking era el método más fácil de desarrollar y, a medida que los cerebros se volvían más complejos, seguían dependiendo de esta arquitectura? Entiendo principalmente cómo funcionan las neuronas de picos, al menos desde una perspectiva matemática, no electroquímica (necesito leer sobre eso ...), pero no creo que esté dentro del alcance de mi pregunta. Perdón por no ser claro.