Cerebro-construcción

Actualmente estoy leyendo una eterna trenza dorada , he llegado a varios capítulos extensos sobre el cerebro.

Habla sobre neuronas y símbolos, qué es el "significado" y hay muchas hipótesis en marcha. A mí me parecen suposiciones sobre nuestra mente de una mente fuertemente afectada por su conocimiento sobre las computadoras. De todos modos me intriga! Me dio la impresión de que el cerebro se comprende bastante bien en el nivel micro (nivel de neurona, no nivel de neutrones) pero que todo se desmorona cuando se trata de comprenderlo en niveles más altos. (este libro, por supuesto, fue escrito hace décadas)

Dada la tecnología de electroingeniería actual y los recursos subinfinitos, ¿qué tan lento/grande se volvería nuestro modelo de la red neuronal del cerebro? Las neuronas en el modelo deben reflejar nuestra comprensión biológica actual de ellas.

tamaño/velocidad son todas las variables libres en esta pregunta. Considero que hacer algo cercano a 86 mil millones de células cerebrales tiene que ser demasiado lento/requiere mucha memoria para hacerlo en software en supercomputadoras no especializadas en general.

Por velocidad me refiero a cuánto tiempo tomaría un 'pensamiento' en comparación con un ser humano si de alguna manera la red se construyera y se pusiera en marcha y realmente se convirtiera en un 'yo'. ¿Qué tan factible sería para una megacorporación en el futuro cercano permitirse el lujo de intentar hacer uno?

Esto parece lo más cercano que tenemos ( telegraph.co.uk/technology/10567942/… )
Cuando dices "megacorporación del futuro cercano", ¿te refieres a una empresa como Google, IBM o Tesla?
@Michael sí, más o menos como ellos
Las redes neuronales se han estudiado matemáticamente durante mucho tiempo. Hay límites estrictos sobre lo que pueden hacer. El cerebro no está estructurado como una red neuronal en el sentido que tiene esta frase en informática. El cerebro no funciona como una computadora digital. Una emulación directa del cerebro no es técnicamente factible, porque el cerebro es una estructura analógica formada por cien mil millones de sumadores analógicos (" neuronas ") con muchas conexiones, y muchas más células " gliales " de soporte, cuyo papel no se conoce bien. .

Respuestas (2)

Simular el cerebro humano actualmente no es absolutamente factible por varias razones (lo detallaré más adelante).

AFAIK, las únicas simulaciones exitosas (es decir: el resultado simulado coincidió con lo que realmente hizo la red neuronal biológica en un grado razonable) se realizaron para organismos muy simples, si la memoria ayuda, el más complejo fue un caracol con varios miles de neuronas.

Estas simulaciones, sin embargo, se realizaron simulando los efectos de los neurotransmisores y la membrana neuronal; Las Redes de Neuronas Simuladas (SNN, el tipo de Redes de Neuronas que en realidad se utilizan para resolver muchos problemas, incluida la preparación de pronósticos meteorológicos) funcionan de una manera completamente diferente, el resumen del funcionamiento real de una neurona de una manera "estilizada" que no tiene nada en común con la operación real de Neuron. Son modelos de la neurona dejando de lado muchos detalles para captar principios generales de funcionamiento.

Hacen un buen trabajo, lo suficiente como para ser realmente útiles en la construcción de IA.

Son lo suficientemente poderosos como para asustar a personas como Elon Musk y Bill Gates con resultados de perspectiva.

Existe un acalorado debate sobre si estos SNN realmente capturan suficientes neuronas en funcionamiento para permitir la replicación de un cerebro complejo.

En general, los problemas que surgen al intentar simular el cerebro humano se encuentran en varios niveles:

  • Problemas de escala
    • No está claro si SNN realmente se comporta de una manera comparable con los sistemas biológicos.
    • Los SNN muy grandes contienen varios cientos de miles de neuronas simuladas, nuestro cerebro tiene cerca de cien mil millones de neuronas.
    • Cada SN tiene, como máximo, unas 100 conexiones; neurona típica tiene más de 100 mil conexiones.
  • Problemas fisiológicos:
    • No sabemos exactamente cómo están conectadas las neuronas en nuestro cerebro.
    • Sólo tenemos una vaga idea de la localización de funciones.
    • Hemos entendido algo de la interacción entre las neuronas y los neurotransmisores en el torrente sanguíneo.
    • Recientemente, estamos comenzando a comprender que las neuronas que no se encuentran en el cerebro (como los ganglios cardíacos) tienen un papel importante en la memorización a largo plazo (lo que le da un significado completamente nuevo a la frase "aprender de corazón").
    • Similar importancia para el funcionamiento general del cerebro tienen los ganglios abdominales.
  • Problemas filosóficos:
    • Todavía no existe un consenso universal (aunque tengo ideas definidas sobre el tema) si la bioquímica cerebral puede explicar completamente nuestro comportamiento subjetivo y objetivo.
    • Todavía no hay consenso de qué es en realidad eso que llamamos "Conciencia".
    • Todavía no hay consenso sobre si la simulación puede capturar las partes relevantes de lo que llamamos "yo".

El libro de Hofstatter citado es muy interesante y es lo que generó mi interés sobre el tema, pero es, en mi humilde opinión, tratando de demostrar una tesis filosófica y, por lo tanto, al final, es bastante poco convincente.

Nota: resumí mi comprensión personal del asunto en un pequeño sitio que desearía tener más tiempo para mantener. Allí encontrará muchas referencias a artículos académicos publicados.

¡Interesante! Mi ángulo hacia todo el tema fue más renunciar a la comprensión de cómo podría funcionar en el alto nivel y simplemente modelar lo que entendemos lo más cerca posible. Es decir, todos los problemas de escala que mencionas tendrían que resolverse. En el libro se menciona a Turing hablando de masa crítica con respecto a la masa cerebral, tal vez si se creara un SNN con billones y billones de conectores, entonces tal vez surgiría algo imprevisto.
Eso es exactamente lo que asusta a Musk, Gates y muchos otros, incluyéndome a mí.

Su computadora moderna es deslumbrantemente rápida. Un quad core 3Ghz i7 con hyperthreading realiza más de 12e9 cálculos por segundo. Una GPU GTX1080 tiene ~2600 núcleos a ~1,6 ghz, o 4160e9 cómputos por segundo. Tu cerebro, por otro lado, tiene 100e9 neuronas, todas trabajando en paralelo. Una neurona puede disparar unas 200 veces por segundo. dándonos una tasa de 20,000,e9 disparos(?) por segundo.

Entonces, si decimos que se necesitan 100 instrucciones de computadora (número sacado del sombrero) para simular una neurona e ignorar nuestros requisitos de RAM y tiempos de búsqueda. Si cargamos eso en una sola GTX 1080, y si de alguna manera ensamblamos las neuronas en un cerebro, ¿qué tan rápido funcionará?

En una sola GTX1080, será 500 veces más lento ignorando las búsquedas de RAM, asumiendo 100 instrucciones por neurona.

GTX1080 
      -> 4,000e9 instructions per second *  (1 artificial_neuron_triggers / 100 instructions)
      -> 40e9 artificial_neuron_triggers per second

HUMAN BRAIN
      -> 100e9 neurons * (200 neuron_triggers / 1 neuron) per second
      -> 20,000e9 neuron_triggers per second

Así que no estamos tan lejos. Tome un par de cientos de GPU y puede estar en el mismo orden de magnitud. ¿Por qué no podemos (actualmente) simular un cerebro en tiempo real con un montón de GPU súper rápidas?

Puedo pensar en algunas razones (también vea la respuesta de ZioByte):

  1. No tenemos ni idea de cómo encaja el cerebro aparte del nivel micro (neuronas individuales) y un toque del nivel macro (p. ej., resonancias magnéticas), o si lo tenemos, no he oído hablar de ello (si tener, publicar enlaces o editar esta respuesta). Como tal, si bien podemos simular redes de neuronas, (hasta donde yo sé) no podemos ensamblarlas en un cerebro humano.
  2. Una neurona no es un solo cálculo. Una GPU es un procesador vectorial y, al igual que su CPU, puede hacer cosas como sumar números o multiplicarlos. ¿Qué hace una neurona? Puede encontrar páginas y páginas de matemáticas que representan el comportamiento de una sola neurona. No hace falta decir que necesitará un orden de magnitud o más potencia de cálculo en exceso para simular un número equivalente de neuronas. Asumí 100 instrucciones por 'disparador' de neurona, pero sospecho que es demasiado bajo.
  3. Las búsquedas en la memoria son muy lentas. Si tiene 100 mil millones de neuronas, necesita 100 gigabytes de RAM para almacenar el estado del sistema (suponiendo un solo byte por neurona, por lo que necesitará más). Si bien esto es posible mediante el almacenamiento en caché en el disco, el acceso será increíblemente lento. La operación más lenta en la mayoría de los sombreadores de los juegos de computadora es la búsqueda de texturas. Dudo que esto sea diferente para buscar estados neuronales. En un cerebro real, cada neurona almacena su propio estado, pero no tenemos 100 mil millones de cachés L1 (los realmente rápidos) en nuestra GPU. Solo tenemos 2600 (uno por núcleo).
  4. La arquitectura está mal. Incluso en una GPU altamente paralelizada, las cosas siguen siendo sincrónicas y su cerebro se simulará en pasos individuales. Hasta donde yo sé, un cerebro no tiene un reloj [cita requerida] y, por lo tanto, es una máquina asíncrona. Será difícil cambiar esto en un futuro próximo, y sospecho que no se pueden realizar simulaciones neuronales adecuadas con las arquitecturas de máquinas actuales.
  5. Samwise señala en los comentarios que esto ignora el papel de las sinapsis. Es probable que esto aumente enormemente el cálculo requerido.
Algunas de las últimas investigaciones indican que incluso todas las sinapsis pueden realizar cálculos útiles, y dado que hay ~10 000 sinapsis por neurona, eso aumenta el límite en 10 000x (lo que eleva el límite a algo así como 10e18 cálculos en total), no es de extrañar nadie ha hecho un cerebro todavía...