¿Cuán distantes están la investigación en neurociencia computacional y redes neuronales/aprendizaje automático?

Si uno está más interesado en entender cómo los algoritmos en el cerebro biológico resuelven problemas (teóricamente, particularmente el aspecto matemático), y posiblemente en construir computación inspirada en el cerebro (teoría aplicada, particularmente neurorrobótica), entonces se sugiere enfocarse más en el estudio computacional. ¿neurociencia en lugar de redes neuronales artificiales/aprendizaje automático? Parece que el último está más orientado hacia cualquier algoritmo solo para resolver problemas a través de simulaciones por computadora sin las limitaciones de los cerebros biológicos, aunque todavía hay grandes áreas para la teoría del aprendizaje automático y las redes neuronales artificiales.

Respuestas (3)

La neurociencia computacional y las redes neuronales se estudian en esta maestría en la Universidad de Sussex . Cuando tomé el curso en 2004/5, el módulo de Redes Neuronales era obligatorio y la Neurociencia Computacional era opcional en el segundo semestre, lo que sugeriría que los diseñadores del curso (líderes mundiales en computación de inspiración biológica) pensaron que estudiar redes neuronales primero podría ayudar al estudio de la neurociencia computacional. Creo que algunos de los otros temas que se enseñan en el curso serían de su interés, por ejemplo, algoritmos genéticos en evolución para el control de robots (consulte Rodney Brooks y la corporación iRobot).

Por último, para responder a la pregunta (!), Creo que probablemente necesite cierta comprensión de las redes neuronales (simples) (artificiales o de otro tipo) para comprender conceptos más profundos en neurociencia computacional.

Las redes neuronales constituyen un nivel (muy importante) de organización que se modela computacionalmente en la investigación del cerebro. La neurociencia computacional intenta hacer que estos sean lo más biológicamente realistas posible, a menudo creando modelos que operan en múltiples niveles, como que las redes neuronales exhiban dinámicas electroquímicas.- algo que obviamente no es el objetivo de la investigación de aprendizaje automático estándar. Por lo tanto, en cierto sentido, estudiar neurociencia computacional necesariamente lo convertirá en un experto en redes neuronales artificiales de lo que nunca lo hará estudiar aprendizaje automático. El tipo de redes neuronales utilizadas en el aprendizaje automático son demasiado básicas para explicar el cerebro. Sin embargo, los textos de aprendizaje automático podrían brindarle una idea de cómo la información sobre el medio ambiente podría guardarse en el cerebro. La neurociencia computacional como campo aún está en pañales, especialmente en lo que respecta al modelado del aprendizaje en el cerebro. Incluso el modelo de red neuronal de picos Spaun de Chris Eliasmith (¡que es bastante impresionante!) ha sido criticado por Henry Markram .(el tipo que recibió mil millones de euros de la UE para el Proyecto Cerebro Humano) por ser biológicamente poco realista. En resumen, no evitará la teoría básica de ANN al estudiar la neurociencia computacional, y la ampliará significativamente en términos biológicos. Sin embargo, es posible que desee consultar los textos de aprendizaje automático para ver cómo las redes neuronales podrían almacenar patrones.

No muy relacionado en la medida, por desgracia. Si bien la inspiración original para las redes neuronales artificiales (ANN) fue biológica, la mayor parte del progreso posterior en ANN para lo que se denomina "aprendizaje automático", que generalmente se ocupa de optimizar alguna función, provino de conocimientos matemáticos que no se basaron en la biología; citando a Marblestone et al. (2016) :

Las redes neuronales artificiales que ahora destacan en el aprendizaje automático se inspiraron, por supuesto, originalmente en la neurociencia (McCulloch y Pitts, 1943). Si bien la neurociencia ha seguido desempeñando un papel (Cox y Dean, 2014), muchos de los principales desarrollos fueron guiados por conocimientos sobre las matemáticas de la optimización eficiente, en lugar de hallazgos neurocientíficos (Sutskever y Martens, 2013). El campo ha avanzado desde sistemas lineales simples (Minsky y Papert, 1972) hasta redes no lineales (Haykin, 1994) y redes profundas y recurrentes (LeCun et al., 2015; Schmidhuber, 2015). La retropropagación del error (Werbos, 1974, 1982; Rumelhart et al., 1986) permitió que las redes neuronales se entrenaran de manera eficiente, al proporcionar un medio eficiente para calcular el gradiente con respecto a los pesos de una red multicapa. Los métodos de entrenamiento han mejorado para incluir términos de impulso, mejores inicializaciones de peso, gradientes conjugados, etc., evolucionando a la generación actual de redes optimizadas usando descenso de gradiente estocástico por lotes. Estos desarrollos tienen poca conexión obvia con la neurociencia.

Marblestone (que es un investigador de IA) y sus colegas argumentan (de hecho, este es el punto de su artículo) que

sin embargo, que la neurociencia y el aprendizaje automático están maduros nuevamente para la convergencia

Su lista de argumentos es bastante larga y ciertamente no les haré justicia aquí, pero, por ejemplo, citan un artículo reciente que propone explicar que la plasticidad hebbiana es una forma de optimización:

A menudo, estos tipos de autoorganización local también pueden verse como la optimización de una función de costo: por ejemplo, ciertas formas de plasticidad hebbiana pueden verse como la extracción de los componentes principales de la entrada, lo que minimiza un error de reconstrucción ( Pehlevan y Chklovskii, 2015 ). .

Marblestone et al. dedican una cantidad sustancial de su artículo a revisar trabajos bastante recientes que intentan identificar la retropropagación (un método clave para el éxito de ANN en la optimización) en el cerebro. La lista de hipótesis sobre cómo podría ocurrir la retropropagación en el cerebro es bastante larga, por desgracia, así que no las revisaré aquí; Solo estoy señalando algunos artículos y charlas Hinton (2016) ; Liao (2015) que examinan cómo la retropropagación está (o no está) relacionada con las redes biológicas o que incluso proponen alternativas inspiradas biológicamente para ser utilizadas en ANN, por ejemplo, Balduzzi (2014) .

Otro tema que Marblestone et al. cubrir en profundidad es cómo se pueden representar las funciones de costo en el cerebro. Y esto encaja con la forma en que se representan los recuerdos y las metas en el cerebro. Esta es obviamente una vasta área de investigación. Dado que los artículos de biología profunda generalmente están más allá de mi nivel de pago, solo señalaré un artículo reciente (destacado por Marblestone) que propone que un "Cálculo de utilidad ingenuo" subyace en gran parte de la "Psicología del sentido común"; Jara-Ettinger et. al (2016) .

Para el problema más específico con la retropropagación, consulte psicología.stackexchange.com /questions/16269/…