¿Qué potencia de ordenador necesito para simular y emular un cerebro humano?

El título es bastante autoexplicativo. ¿Qué tan poderosa debe ser una computadora antes de tener la capacidad de hardware para simular y emular una mente humana en tiempo real?

Dejo la cuestión del software necesario para más adelante, pero siéntete libre de abordarla si es una parte vital de la respuesta.

Criterios para juzgar una respuesta:

  • Esto casi debería ser evidente, pero un sistema con tal capacidad debería poder pasar la prueba de Turing .
  • La capacidad debe ser al menos en tiempo real , es decir, no puede llevar 5 meses simular 10 segundos de actividad cerebral.
  • La capacidad debe ser capaz de operación continua , es decir, no puede estar encendida por un minuto y apagada por el resto del año. Sin embargo, no es necesario que el funcionamiento continuo sea obligatorio.
  • La capacidad debe ser tal que el 'cerebro' pueda reaccionar a nueva información, aprender y comunicar sus resultados.
  • Idealmente, me gustaría una respuesta o rango físicamente preciso . No estoy seguro de cuál es la métrica adecuada, por lo que, a falta de mejores ideas, diré que optamos por petaflops. Si tiene una métrica mejor, siéntase libre de usarla en su lugar.
  • Puntos de bonificación: (no es obligatorio, pero es bueno tenerlo) ¿Qué tan pronto podemos llegar allí y cuál sería la factura de electricidad? ¿Qué tan pequeño podemos hacerlo, en el límite? ¿Qué tan rápido podemos hacerlo, en el límite?

La motivación detrás de colocar esto en Worldbuilding es tener una respuesta de referencia canónica sobre problemas de computación relacionados con los caminos basados ​​​​en emulación hacia la singularidad , computronium, sim-humans y otros temas relacionados, para ayudar en la construcción de una sociedad futurista realista. No hace falta decir que la pregunta asume que es posible construir tales emulaciones.

PS Para evitar confusiones ontológicas, definiciones adicionales:
Emulación es el proceso de imitar el comportamiento observable externamente para que coincida con un objetivo existente. El estado interno del mecanismo de emulación no tiene que reflejar con precisión el estado interno del objetivo que está emulando.
La simulación , por otro lado, implica modelar el estado subyacente del objetivo. El resultado final de una buena simulación es que el modelo de simulación emulará el objetivo que está simulando.

Buenas preguntas, espero que obtengas respuestas perspicaces. Aunque necesito objetar fuertemente a la causa misma: "No harás una máquina a semejanza de la mente humana"
¡Cualquier votante está invitado y bienvenido a dejar comentarios! Feliz de refinar la pregunta si es necesario.
¿Necesita que la computadora en cuestión sea del tipo que tenemos actualmente? Es decir, ¿su lógica subyacente debe ser booleana y estar construida como las computadoras de la mayoría de las personas?
Hmm, el uso de "simular el cerebro humano" no parece que realmente aborde la singularidad. Una pregunta relacionada "proporcionar verdadera inteligencia artificial" sería mejor.
@TimB Bueno, eso dependería en parte de la velocidad del simulador. Una versión de un simulador similar a un humano que se ejecuta a una velocidad de 10e6 sería efectivamente una IA sobrehumana, a pesar de no tener habilidades sobrehumanas subjetivas. Hay otras versiones de IA, por supuesto.
No creo que "pasar la prueba de Turing" sea un requisito tan fuerte. A pesar de los debates sobre el estándar adecuado y la administración de la prueba, la Prueba de Turing ya se aprobó, sin usar supercomputadoras.
@KSmarts Me preocupa principalmente el hardware. El bit de prueba de Turing simplemente está ahí para limitar el rango de respuestas aceptables. Si bien es quizás una prueba débil, no conozco una mejor diseñada.
@SerbanTanasa Mi punto es que es casi seguro que la inteligencia artificial "verdadera" no provendrá de la simulación de un cerebro humano. Simular un cerebro humano sería útil para todo tipo de cosas, pero es poco probable que sea una forma eficiente de crear IA.
Creo que también, tratar de simular un cerebro vivo y completamente activo sería increíblemente difícil, su entrada, salida, una química necesitaría ser simulada, tal vez factible en 100 años.
Vamos a referirnos a una inteligencia humana como Inteligencia Natural (NI) en contraste con Inteligencia Artificial (AI). Entiendo que esta pregunta es sobre los requisitos mínimos para una NI alojada en una máquina a velocidad humana.
Tengo que estar de acuerdo con @TimB aquí. No podemos alcanzar la inteligencia artificial "verdadera" hasta que comprendamos qué es realmente la inteligencia y la conciencia. Pretender ser inteligente es diferente de ser inteligente.
Los cerebros humanos no funcionan continuamente durante un año... ¿por qué agregar esto a la versión para computadora?
>Puntos de bonificación: (No es obligatorio, pero es bueno tenerlo) ¿Qué tan pronto podemos llegar allí y cuál sería la factura de electricidad? ¿Qué tan pequeño podemos hacerlo, en el límite? ¿Qué tan rápido podemos hacerlo, en el límite? ¿Qué tan pronto podemos llegar allí? Primero escriba su software (!). Luego escribe un virus que se apodere de todo Internet. Probablemente tendría suficiente poder de cómputo allí mismo, pero pronto se apagaría. ¿Cuál sería la factura de la luz? Casi cero para ti si hiciste lo anterior. La factura mundial sería exactamente la misma que ahora, pero no la estarías pagando. Continuando... **Qué tan pequeño puede
Primero, la razón por la que no estoy comentando es que no tengo suficiente reputación para comentar, segundo, ¿entonces PAMA en el episodio 7 del modo historia de Minecraft no puede existir? Me refiero a que la computadora no se está apoderando de todos con un chip Redstone, alerta de spoiler para aquellos que aún no lo han jugado.
La pregunta también asume que el intelecto humano es enteramente el producto del cerebro humano.

Respuestas (7)

Un resumen completo está en esta página de Wikipedia .ingrese la descripción de la imagen aquí

Si ya supiera cómo funciona el cerebro para producir inteligencia, escribir ese programa de manera bastante directa requeriría 10 15 FLOPS (Blue Gene/P alrededor de 2007) y 100 Terabytes. Sin comprender el comportamiento emergente, solo simular las neuronas llevaría 10 18 a 10 19 FLOPS y 10.000 Terabytes de memoria, que se espera que cuesten un millón de dólares en 2019.

En el gráfico, puede ver cuántos cálculos se necesitarían para simular el metabolismo y permitir que emerja el comportamiento de la neurona, etc.

El proyecto Blue Brain está estudiando simulaciones profundas de una pequeña parte de la neocorteza cerebral , lo que está conduciendo a la comprensión para simular el comportamiento de las columnas corticales y grupos de células nerviosas, que es 100 veces más eficiente que las simulaciones detalladas de las células individuales. Eso lo colocaría entre las dos líneas mencionadas anteriormente, pero usaría mucha menos memoria que la línea superior.

Es decir, sin comprender qué comportamiento surge al conectar una corteza cerebral humana pensante, conectar simulaciones de software de estas "columnas" (que son modulares y tienen muchas conexiones dentro de la unidad) usará de 10 a 100 petaflops, que ha sido en la gama de superordenadores desde 2012 ( actualmente 33,8 Petaflops , justo en la mitad de esa gama).

Pero, una simulación de cerebro en funcionamiento podría estar especialmente diseñada para tener la combinación correcta de procesamiento y almacenamiento local y conectividad, y por lo tanto ser más rápida que los clústeres de supercomputación de procesamiento de números.

Mi opinión: la adquisición y el estudio de datos es más lento que la curva de Moore del hardware proyectado. Proyectos como Blue Brain seguirán su curso, y los seguimientos en el diseño de simulaciones de columna cortical se llevarán a cabo en equipos de laboratorio de la Universidad, con posibles ejecuciones a mayor escala en Computación de Alto Rendimiento de la Universidad o recursos informáticos distribuidos. Cuando un plan sólido esté listo, el hardware para una implementación del cerebro humano a gran escala costará menos de un millón de dólares, pero comenzarán con sistemas más pequeños como ratones, perros, etc. Si el hardware es personalizado, los prototipos y los lotes pequeños proporcionará hardware para los ratones, etc. Si puede ejecutarse en la computadora de alto rendimiento de uso general (para entonces no clasificada como una supercomputadora), ya sabealguien lo va a probar mucho antes de que esté listo.


Actualización: video de Computerphile Este es un proyecto de red neuronal en aumento (ref. línea azul en el gráfico con ese nombre, tendencias de la supercomputadora más rápida en 2019 o 2020) llamado SpiNNaker . En la pantalla, mostraron un bastidor completo con 100 000 núcleos que emulan 25 millones de neuronas (a ¼ de la eficiencia; eventualmente ejecutará 1000 neuronas por núcleo). El proyecto completo será de mil millones de neuronas.

El único bastidor, que funciona ahora, es el equivalente funcional del cerebro de un ratón. Ahora pueden jugar con él para descubrir más detalles de un cerebro de ratón funcional.

Si bien un bastidor es funcionalmente equivalente al cerebro de un mouse, no puede hacer las cosas que puede hacer un mouse. No puede encontrar queso, evitar gatos, encontrar una pareja adecuada, mantener viva a su descendencia. ¿Por que no? Porque nadie lo ha programado para que lo haga. Nadie ha programado un 'olfateador' para detectar el queso y la dirección de donde viene, nadie lo ha programado para que deje de moverse y escuche cuando hay ruidos de gatos, y cualquier otra cosa que hagan los ratones. Seguro que puedes tener el poder de procesamiento para emular un cerebro humano, pero ¿quién va a programar la computadora para que piense como uno?
Creo que se escanearán los cerebros naturales existentes.
¿Cómo convertir un cerebro a binario? Daría un brazo por ver los archivos fuente de mi cerebro. Ciertamente comenzaría eliminando la función compulsively_check_worldbuilding_for_comments()
Un escaneo le indica cómo conectar la simulación neuronal . No te dice cómo escribir una simulación funcional .
Creo que Heisenberg no te permitirá crear una réplica exacta del estado de un cerebro, por lo que no creo que una simulación neuronal funcione. Pero esto es bastante especulativo, así que no tiene sentido discutir, de verdad. Descubriremos si tienes razón antes de morir, supongo.
El estado en el que las neuronas están conectadas y los ajustes potenciales están bien en el régimen clásico y no son cuánticos. Considere que los giros invertidos (en un escáner CT) no tienen ningún efecto sobre el funcionamiento del cerebro a pesar de que altera el nivel cuántico.

Usando tecnología moderna, el desafío no es producir hardware que pueda hacer lo mismo que un cerebro humano: el desafío es cómo programar el hardware para que lo haga.

Considere la supercomputadora K , construida por Fujitsu. Tiene más memoria y realiza más operaciones por segundo que el cerebro humano. Sin embargo, no puede imitar a uno, no solo porque la arquitectura no está configurada para hacerlo, sino también porque no sabemos cómo programar una computadora para que actúe como una persona.

Sin embargo, tiene la capacidad de hardware en bruto para comportarse como un ser humano. La supercomputadora K utiliza 9,9 millones de vatios y tiene una capacidad equivalente a aproximadamente cuatro cerebros. Suponiendo 2500 kilovatios de energía y un precio de electricidad de quince centavos por kWh, hacer funcionar nuestro cerebro durante una hora costaría $ 375 por hora. Nuestras supercomputadoras han mejorado un poco desde que construimos la K, con la supercomputadora más poderosa actual, la Tianhe-2 , que utiliza el equivalente a 730 kilovatios de potencia por cerebro humano de rendimiento.

En cuanto al costo de emular versus simular un cerebro, depende de qué tan buenos seamos haciendo cada una de esas cosas y qué tan alta sea la resolución que queramos en nuestra simulación. Teóricamente, realizar las mismas operaciones que hace el cerebro humano debería requerir el mismo poder de cómputo que el cerebro humano. Sin embargo, si queremos simular las reacciones químicas internas en cada canal de calcio, necesitaremos órdenes de magnitud más de poder de cómputo.

¿Confías en esa fuente? El recuento de petaflop representado en el gráfico de un cerebro humano parece un poco bajo...
Las estimaciones de petaflop para el cerebro humano varían significativamente según la fuente. La mayoría de las estimaciones están entre 2 y 50 petaflops, por lo que mi respuesta podría estar equivocada por un factor de aproximadamente 20.
Esa supercomputadora de 8Pflops de 2011 se ve superada por una nueva y brillante supercomputadora china de 33,8 Pflops (a partir de agosto de 2014). 15 centavos por kWh es alto: estoy gastando 6, más los costos de distribución lo que lo acerca a 11. Ponga la supercomputadora al lado de la planta de energía para reducir los costos de distribución y las pérdidas de transmisión. Ponga en Islandia, funcionando con energía geotérmica y refrigeración ambiental.
En todo caso, el recuento de fracasos que dieron para el cerebro humano es cómicamente alto. Los FLOP miden operaciones de punto flotante, un cerebro humano capaz de 2,2 exaflops, como afirmaron, podría sumar 2,2 quintillones de números de 32 bits cada segundo. Lo cual es claramente falso. Los cerebros pueden hacer 2,2 quintillones de cosas por segundo, pero esas cosas ciertamente no son fracasos.
La imposibilidad de programarlo es un punto que parece pasarse por alto. Si supiéramos cómo hacerlo, podríamos hacerlo hoy, con la tecnología disponible en Best Buy. Simplemente funcionaría muy, muy lento hasta que el hardware se pusiera al día. Es decir, si un cerebro requiere X cálculos por segundo para ejecutar "tiempo real" y el hardware solo puede hacer X/10000, entonces el cerebro funciona, pero a 1/10,000 de la velocidad que debería, como intentar buscar en un enorme base de datos en un 8086. Funcionará, si tiene el código para hacerlo; simplemente será lento. Lo que tenemos hoy no es falta de velocidad, sino falta de conocimiento sobre cómo construirlo.
Tome una de las tareas cognitivas más simples que un niño pequeño puede realizar: mirar una imagen o un dibujo de un objeto familiar e identificar qué es. Las técnicas de programación de IA más avanzadas que hemos desarrollado hasta la fecha pueden engañarse para obtener identificaciones erróneas que no solo están "apagadas", sino que son espectacularmente incorrectas. evolutionai.org/fooling theverge.com/2017/11/2/16597276/…

El mayor obstáculo para el uso de la CPU para la emulación del cerebro es que procesa los comandos en secuencia, mientras que todas las neuronas funcionan en paralelo. Necesitaría una cantidad alucinante de núcleos de CPU para comenzar a acercarse a la velocidad del cerebro humano. Por lo tanto, la CPU no es el camino. Necesitamos un chip que pueda procesar mucho en paralelo: FPGA.

Con 4 millones de celdas lógicas y aproximadamente 10 celdas para emular una sola neurona, una sola placa FPGA puede emular 400 000 neuronas a la vez, trabajando simultáneamente. Con 86 mil millones de neuronas en un cerebro humano , necesitaría interconectar alrededor de 215 000 chips FPGA para alcanzar la capacidad cerebral.

23x23 mm para el factor de forma más pequeño del FPGA vinculado, por ejemplo, 40x40 mm para contener uno en una PCB, eso sería 344 m^2 de PCB; dividirlo en 20x50cm. Tome un rack típico de 42U ; albergaría 40 placas de 0,5 mx 0,5 m más su fuente de alimentación e infraestructura de red, lo que significa 10 m ^ 2 de PCB. 35 de estos racks conforman una sala de servidores de tamaño muy modesto.

Agreguemos 20,000 USD por el nuevo chip. $ 43 millones solo para los chips, probablemente más cerca de 100 millones de dólares para el proyecto completo.

Y esto es sólo el hardware. Ahora viene la parte difícil: conectar las 86 mil millones de neuronas de tal manera que están conectadas en el cerebro humano. ESTA es la razón por la que aún no se ha hecho.

Conexión: de hecho, el fan-in es de alrededor de 10000. Conectar neuronas de silicio le daría órdenes de magnitud más de conexión que cuerpos nerviosos. Un enfoque más realista es virtualizar un grupo de neuronas en un procesador y también usar buses para enrutar señales, y no ejecutar sincronización paralela.
Un pequeño detalle: probablemente usaría FPGA para la experimentación, pero una vez que tuviera un buen diseño y quisiera ir a lo grande, movería su diseño a un ASIC que tiene una lógica interna fija pero puede ser producido en masa por un precio mucho más bajo. costo que los FPGA.
@ScottWhitlock: No necesariamente: el cerebro puede formar nuevas conexiones similares a "reconectar" el FPGA sobre la marcha. Si bien las intensidades de la señal/las rutas neuronales estarían en el software, cambiar el mapa de neuronas físicas requeriría "reconectar" el sistema, fácil en FPGA, no tanto en ASIC.
@SF: cierto, pero asumí que las interconexiones se modelarían en una capa de interconexión separada. El FPGA/ASIC era solo los modelos de neuronas. Es cierto que ha pasado mucho tiempo desde que miré las redes neuronales.
@ScottWhitlock: Con la cantidad de interconexiones en un cerebro, la gran cantidad de GPIO necesarios para aislar las conexiones de las neuronas lo haría imposible. Es cierto que habría conexiones a través de alguna red o algún bus, entre los chips, simulando conexiones neuronales entre ellos (agrupados en un 'tejido' continuo), pero ese sería un número relativamente pequeño en comparación con el gran total: superficie frente a volumen. Y realmente no se parecería a las "redes neuronales" matemáticas / CS, siendo una aproximación mucho más cercana al "wetware" que la abstracción matemática.

Probablemente no pueda responder a su pregunta, por una simple razón: no sabemos lo suficiente sobre el cerebro para simularlo. Todavía estamos aprendiendo cómo funciona: ¿cómo puedes simular algo si no sabes cómo funciona?

Sin embargo, le daré una oportunidad:

1) Cada neurona podría almacenarse como un bit (encendido/apagado), y el estado de las sinapsis como un byte (encendido/apagado, resistencia) Por lo tanto, necesita una computadora con al menos 410 GB de RAM para almacenar el estado de cada neurona y sinapsis (200 GB para neuronas, 200 GB para sinapsis, 10 GB para cálculos para ejecutar la simulación)

2) Necesita un procesador lo suficientemente rápido para averiguar cómo interactúan todas esas neuronas y sinapsis, y actualizarlas todas, miles de veces por segundo. Esto supone que existen reglas y algoritmos sobre cómo fluye la electricidad a través del cerebro.

3) Necesita aún más potencia de procesamiento y RAM para manejar la salida del cerebro y la entrada sensorial al cerebro (y alguna forma de obtener la entrada sensorial).

4) Necesita mapear las neuronas que se activan en los pensamientos; eso puede ser imposible, lo que significa que tendría un cerebro simulado que no podría aprender o controlar su mundo de ninguna manera.

Entonces, para un cerebro simplificado a nivel de neurona/sinapsis, necesitará una computadora con quizás 500 GB de RAM (que preferiblemente debería ser caché para simulación en tiempo real) y un procesador de 2 THz.

Esto te permitirá simular una representación matemática del cerebro , actualizándose 1 millón de veces por segundo (bueno, un poco más lento, ya que los buses no son instantáneos y estoy redondeando y simplificando mucho).

El problema no es el hardware o el software necesarios para la simulación, es obtener datos hacia y desde la simulación de una manera que la simulación (y usted) puedan interpretar.

No entiendo #4.
los humanos podemos comunicarnos porque usamos nuestros cerebros para controlar nuestros cuerpos. Si solo tiene una simulación de un cerebro por sí solo, no tiene forma de comunicarse, no puede controlar nada. Todo lo que puede hacer es pensar.
@RyanKrage ¿Eres diferente ?
En realidad, 410 GB de RAM no es tanto como podría parecer. 64-128 GB es una pequeña cantidad de memoria en muchos servidores que realizan varios tipos de tareas intensivas de RAM. 256 GB ciertamente no es raro. Dos de estos últimos trabajando juntos lo llevarían allí con espacio de sobra, y es algo que podríamos hacer hoy, con hardware que está disponible más o menos listo para usar (quizás un poco caro, pero las empresas ya compran esto para hacer cosas que son mucho menos complejo que simular un cerebro humano).

Me sorprende que nadie haya mencionado las computadoras cuánticas. Debido a las leyes de superposición y la teoría del entrelazamiento cuántico, un solo bit cuántico puede ser un cero o un uno, por lo que esto le permitiría calcular todas las soluciones posibles junto con varios bytes, como este si un byte tiene ocho bits cada bit le permitiría tener 256 soluciones posibles. Si tuviera 50 qbits, podría calcular dos a la quincuagésima potencia de soluciones en tándem. Esto le permitiría crear una simulación compleja del cerebro hasta el nivel subatómico, siempre que amplíe el hardware en consecuencia. Esta sería la solución ideal, pero el problema es que una computadora cuántica es una máquina enorme y voluminosa que requiere enfriamiento criogénico, y el más mínimo movimiento puede alterar los estados cuánticos y causar errores.

La inteligencia a nivel humano no es solo un reflejo del poder de procesamiento involucrado.

En primer lugar, la evolución comete toneladas de errores y elecciones estúpidas en su proceso de diseño que no siempre se corrige y, como resultado, solo podríamos necesitar una pequeña fracción del poder que tiene nuestro cerebro.

En segundo lugar, suponiendo que tengamos la capacidad de procesamiento, no conocemos los algoritmos correctos para hacer que un cerebro funcione. Nos estamos acercando en varias áreas, pero esa es la cuestión, los diferentes bits funcionan de manera diferente y requieren que cada área se programe y luego se interconecte de la manera adecuada.

En tercer lugar, suponiendo que tengamos que no tienes una inteligencia/cerebro humano como lo reconocerías. Tienes algo que puede convertirse en uno dadas las circunstancias adecuadas. Las circunstancias adecuadas requerirían biotecnologías o simulaciones bastante sofisticadas con las que los humanos puedan interactuar 1 a 1.

Una vez que haya hecho eso, es posible que tenga un cerebro humano y pueda responder a su pregunta, pero para averiguarlo, debe tomar el cerebro que ha desarrollado y luego escribir uno de esos programas evolutivos que modifican y prueban. compararlo con un conjunto de resultados conocidos (en este caso, los datos del cerebro que creamos) y seguir ejecutándolos, descartando los que coincidan menos.

luego, una vez que obtenga el diseño más óptimo, puede decir cuánto procesamiento se necesita...

Pero según algunos sitios, Internet ha pasado el punto de hacer coincidir 1 cerebro humano hace unos años y para 2020 se predice que las supercomputadoras podrán calcular los "fracasos" sin procesar que generalmente se calculan como el poder de procesamiento de un cerebro humano. , pero no lo sabemos de verdad.

Creo que a medida que la tecnología evolucione, convergeremos naturalmente hacia el "wetware" porque es mucho más eficiente energéticamente. Por wetware, me refiero a chips biológicos. Nuestro cerebro usa solo unos pocos vatios de energía. Incluso si usáramos un proceso de 1nm, el silicio nunca será tan eficiente energéticamente como las proteínas. No estoy seguro de esto, pero creo que el ADN también tiene una enorme densidad de datos. El programa de televisión Battle Star Galactica señaló esto de una manera interesante. Si una IA fuera lo suficientemente inteligente como para ganar sensibilidad y comenzar a duplicarse, haría I + D y comenzaría a construir androides. Con el tiempo, la noche evoluciona naturalmente hacia robots "biológicos".