Actualmente estoy leyendo una eterna trenza dorada , he llegado a varios capítulos extensos sobre el cerebro.
Habla sobre neuronas y símbolos, qué es el "significado" y hay muchas hipótesis en marcha. A mí me parecen suposiciones sobre nuestra mente de una mente fuertemente afectada por su conocimiento sobre las computadoras. De todos modos me intriga! Me dio la impresión de que el cerebro se comprende bastante bien en el nivel micro (nivel de neurona, no nivel de neutrones) pero que todo se desmorona cuando se trata de comprenderlo en niveles más altos. (este libro, por supuesto, fue escrito hace décadas)
Dada la tecnología de electroingeniería actual y los recursos subinfinitos, ¿qué tan lento/grande se volvería nuestro modelo de la red neuronal del cerebro? Las neuronas en el modelo deben reflejar nuestra comprensión biológica actual de ellas.
tamaño/velocidad son todas las variables libres en esta pregunta. Considero que hacer algo cercano a 86 mil millones de células cerebrales tiene que ser demasiado lento/requiere mucha memoria para hacerlo en software en supercomputadoras no especializadas en general.
Por velocidad me refiero a cuánto tiempo tomaría un 'pensamiento' en comparación con un ser humano si de alguna manera la red se construyera y se pusiera en marcha y realmente se convirtiera en un 'yo'. ¿Qué tan factible sería para una megacorporación en el futuro cercano permitirse el lujo de intentar hacer uno?
Simular el cerebro humano actualmente no es absolutamente factible por varias razones (lo detallaré más adelante).
AFAIK, las únicas simulaciones exitosas (es decir: el resultado simulado coincidió con lo que realmente hizo la red neuronal biológica en un grado razonable) se realizaron para organismos muy simples, si la memoria ayuda, el más complejo fue un caracol con varios miles de neuronas.
Estas simulaciones, sin embargo, se realizaron simulando los efectos de los neurotransmisores y la membrana neuronal; Las Redes de Neuronas Simuladas (SNN, el tipo de Redes de Neuronas que en realidad se utilizan para resolver muchos problemas, incluida la preparación de pronósticos meteorológicos) funcionan de una manera completamente diferente, el resumen del funcionamiento real de una neurona de una manera "estilizada" que no tiene nada en común con la operación real de Neuron. Son modelos de la neurona dejando de lado muchos detalles para captar principios generales de funcionamiento.
Hacen un buen trabajo, lo suficiente como para ser realmente útiles en la construcción de IA.
Son lo suficientemente poderosos como para asustar a personas como Elon Musk y Bill Gates con resultados de perspectiva.
Existe un acalorado debate sobre si estos SNN realmente capturan suficientes neuronas en funcionamiento para permitir la replicación de un cerebro complejo.
En general, los problemas que surgen al intentar simular el cerebro humano se encuentran en varios niveles:
El libro de Hofstatter citado es muy interesante y es lo que generó mi interés sobre el tema, pero es, en mi humilde opinión, tratando de demostrar una tesis filosófica y, por lo tanto, al final, es bastante poco convincente.
Nota: resumí mi comprensión personal del asunto en un pequeño sitio que desearía tener más tiempo para mantener. Allí encontrará muchas referencias a artículos académicos publicados.
Su computadora moderna es deslumbrantemente rápida. Un quad core 3Ghz i7 con hyperthreading realiza más de 12e9 cálculos por segundo. Una GPU GTX1080 tiene ~2600 núcleos a ~1,6 ghz, o 4160e9 cómputos por segundo. Tu cerebro, por otro lado, tiene 100e9 neuronas, todas trabajando en paralelo. Una neurona puede disparar unas 200 veces por segundo. dándonos una tasa de 20,000,e9 disparos(?) por segundo.
Entonces, si decimos que se necesitan 100 instrucciones de computadora (número sacado del sombrero) para simular una neurona e ignorar nuestros requisitos de RAM y tiempos de búsqueda. Si cargamos eso en una sola GTX 1080, y si de alguna manera ensamblamos las neuronas en un cerebro, ¿qué tan rápido funcionará?
En una sola GTX1080, será 500 veces más lento ignorando las búsquedas de RAM, asumiendo 100 instrucciones por neurona.
GTX1080
-> 4,000e9 instructions per second * (1 artificial_neuron_triggers / 100 instructions)
-> 40e9 artificial_neuron_triggers per second
HUMAN BRAIN
-> 100e9 neurons * (200 neuron_triggers / 1 neuron) per second
-> 20,000e9 neuron_triggers per second
Así que no estamos tan lejos. Tome un par de cientos de GPU y puede estar en el mismo orden de magnitud. ¿Por qué no podemos (actualmente) simular un cerebro en tiempo real con un montón de GPU súper rápidas?
Puedo pensar en algunas razones (también vea la respuesta de ZioByte):
Pirotren
usuario
Adán
AlexP