¿En qué se diferencia la inteligencia humana de la habitación china de Searle?

El argumento de la Habitación China intenta demostrar que una computadora, por poderosa que sea, no puede alcanzar la conciencia.

Breve resumen:

Imagina a un hablante nativo de inglés que no sabe chino encerrado en una habitación llena de cajas de símbolos chinos (una base de datos) junto con un libro de instrucciones para manipular los símbolos (el programa). Imagine que las personas fuera de la sala envían otros símbolos chinos que, sin que la persona de la sala lo sepa, son preguntas en chino (la entrada). E imagine que siguiendo las instrucciones del programa, el hombre en la habitación puede repartir símbolos chinos que son las respuestas correctas a las preguntas (la salida). El programa permite que la persona en la sala apruebe el Test de Turing para comprender el chino, pero no entiende ni una palabra de chino.

¿En qué se diferencia esto de lo que ocurre dentro de nuestro cerebro?

Ciertos impulsos se reciben de los órganos sensoriales y son procesados ​​por las neuronas. Este es un proceso completamente determinista y para estas neuronas, individualmente, la entrada/salida no tiene absolutamente ningún significado. Individualmente, no poseen conciencia. Claro, sucede 10 ^ n veces simultáneamente y tal vez haya alguna recursión involucrada, pero el concepto es el mismo: el origen de la entrada y el destino de la salida son irrelevantes.

La única diferencia que se me ocurre es que, en el cerebro, las instrucciones/tablas de consulta/lo que sea puede ser modificado por este proceso. El experimento no menciona esto, porque no es necesario: la sintaxis del lenguaje permanece relativamente constante durante un corto período de tiempo. Pero mientras estas modificaciones se lleven a cabo de acuerdo con un conjunto de reglas, no habría diferencia.

¿Me estoy perdiendo alguna parte crucial del argumento de Searle?

(Inspirado por esta pregunta )

Si no tienes experiencia personal de tu propia experiencia... obtienes la insignia oficial de zombi de filosofia.stackexchange.com. Me asombra que la gente pretenda no ser consciente de sí misma.
Tal vez le guste esta cita de Scott Aaronson: "Al igual que muchos otros experimentos mentales, la Habitación China obtiene su beneficio de una elección engañosa de imágenes, y más concretamente, de ignorar la complejidad computacional. Estamos invitados a imaginar a alguien empujando hojas de papel con cero comprensión o perspicacia. Pero, ¿de cuántas hojas de papel estamos hablando? ¿Qué tan grande tendría que ser el libro de reglas, y qué tan rápido tendría que consultarlo, para llevar a cabo una conversación inteligente en chino en algo parecido a ¿tiempo real?...
Si cada página del libro de reglas correspondiera a una neurona de (digamos) el cerebro de Debbie, entonces probablemente estaríamos hablando de un "libro de reglas" al menos del tamaño de la Tierra, cuyas páginas podrían ser investigadas por un enjambre de robots que viajan a corta distancia. a la velocidad de la luz. Cuando lo pones de esa manera, tal vez no sea tan difícil imaginar que esta enorme entidad de habla china, este dian nao, que hemos creado podría tener algo que estaríamos dispuestos a llamar comprensión o perspicacia". scottaaronson.com/democritus/lec4.html
@Timkinsella Gracias por la cita de Aaronson. Me hace pensar en lo indescifrable que sería una película mostrada (y escuchada) a una velocidad de 1/1000 o algo así. Y también el episodio de Star Trek "Blink of an Eye". La velocidad como diferencia cualitativa (y no solo cuantitativa)...
@Timkinsella Impresionante cita, votaría solo por dian nao si tuviera el privilegio
Sí, Aaronson es genial. También vi esto recientemente y pensé que era lindo smbc-comics.com/index.php?id=4124
Jajaja gracias señor. Creo que eso va a la nevera.
Tal vez para poner su pregunta al revés, ¿qué evidencia tiene para sugerir que esto es lo que está pasando en su cerebro? Si eso es lo que es la conciencia, hace un trabajo excepcionalmente bueno al ocultar el proceso de quien lo experimenta.
Corrígeme si me equivoco, pero ¿no se conoce esto también como el argumento del homúnculo de Searl?

Respuestas (4)

Me gustaría sugerir que su perplejidad surge de confundir inteligencia y conciencia. Ninguno de los conceptos está bien definido pero, sin embargo, son distintos. Searle diría que una habitación china no puede ser consciente, no que no pueda parecer inteligente. De hecho, el argumento original gira en torno al concepto de comprensión.que es otro concepto borroso sin una definición clara. Searle es un filósofo que cree que la mente no puede expresarse en términos de cálculos, o que, en otras palabras, es posible que una computadora nunca tenga una mente, independientemente de su arquitectura y cálculo particular. No descarta que las máquinas en general puedan tener una mente, solo que los mecanismos (un subconjunto de máquinas) nunca pueden llegar a ser una mente. Todavía puedes estar en desacuerdo con él (como lo hace la mayoría de la gente), pero para hacerlo es importante primero entenderlo (juego de palabras).

La persona en la habitación sigue un algoritmo, lo que significa que cada paso es simple y no "idea su propia respuesta".
Bien, lo siento, acabo de encontrar eso en la página wiki.
Entonces, ¿sientes que es un problema para el experimento que el "algoritmo", escrito en inglés, en papel, podría requerir un archivador del tamaño de un planeta? ¿Y que el sujeto en la habitación podría morir de vejez antes de completar un solo intercambio?
No es un problema ya que todo lo que se requiere es la capacidad en principio, no en la práctica. Los funcionalistas como dennett creen que una vez que el cálculo es lo suficientemente complejo, no faltará nada. searle cree que la complejidad del cálculo es irrelevante (yo también). searle usó el experimento mental para argumentar que la computación es lo que él llama relativo al observador. pero aparte de eso, no es muy diferente al molino de Leibniz: home.datacomm.ch/kerguelen/monadology/printable.html#17
Gracias de nuevo. Sin embargo, uno pensaría que si fuera posible "en principio", habría un experimento mental que arrojaría el resultado que se supone que es posible. El lujo de un experimento mental es que al soñador se le permite prescindir de todas las limitaciones prácticas. Si haces eso y aún te quedas corto, tal vez lo hiciste por algún "principio" subyacente. Esto es lo que siempre me ha parecido un poco deshonesto sobre la sala china.
no entiendo lo que quieres decir
¿Todo o una frase en particular? Por "quedar corto" me refiero a no poder ofrecer una conversación en tiempo real en chino.
Y por "el resultado que se supone que es posible" me refiero al resultado de que se puede tener una conversación en tiempo real con una entidad que claramente no entiende el contenido de la conversación. Y por soñador me refiero, por supuesto, al experimentador. En este caso, Searle.
John Searle fue bastante explícito en sus conferencias y debates posteriores en el sentido de que la Sala China no se trataba de la conciencia sino del significado.
@AlexanderSKing, no escribí que Searle dijo que la Habitación China se trataba de la conciencia, pero que diría (si le preguntaban) que no puede ser consciente. De todos modos, lo dice explícitamente en Minds Brains and Science : "La razón por la que ningún programa de computadora puede ser una mente es simplemente que un programa de computadora es solo sintáctico, y las mentes son más que sintácticas. Las mentes son semánticas, en el sentido de que tienen más que una estructura formal, tienen un contenido. Para ilustrar este punto, he diseñado cierto experimento mental". y continúa describiendo el Salón Chino.
@Timkinsella, creo que el experimento mental es deliberadamente fantasmagórico. Es claramente imposible que la persona que usa el libro de reglas produzca respuestas de manera oportuna y, sin embargo, ese punto es irrelevante. Porque ¿qué tiene que ver la escala temporal de la escena con el principio?
Por un par de razones: 1. Creo que es un poco deshonesto presentar un experimento mental y luego descartar ciertas consideraciones dentro del universo totalmente libre del experimento mental como meras limitaciones "prácticas, por lo tanto irrelevantes". El objetivo de un experimento mental es aislar las limitaciones prácticas de las teóricas. Si su experimento mental falla irremediablemente en dar un cierto resultado, entonces lo hace por razones teóricas , por la definición misma de un experimento mental.
2. La habitación china se basa en una apelación a la intuición basada en imágenes engañosas; es lo que Dennett llama una "bomba de intuición". No se trata solo de tiempo, sino también de escala. Nos dicen que imaginemos a una sola persona sentada sola en una habitación con una pila de papeles. Una vez que fuimos honestos acerca de la escala de la entidad en la habitación, un enorme equipo de robots que pululan alrededor de un archivador del tamaño de un planeta a la velocidad de la luz, como en la cita de Scott Aaronson, pierde su fuerza intuitiva.
Además, la "puntualidad" del cálculo no es solo una consideración práctica. Los límites en la cantidad de tiempo que lleva calcular ciertas funciones expresan algo profundo sobre el universo y la epistemología. Si P=NP, entonces la verdad o la falsedad de cualquier proposición matemática se conocería con solo hacer clic en un botón, por ejemplo, a pesar de que P=NP es solo una declaración (probablemente falsa) sobre cuánto tiempo lleva averiguar si un gráfico está conectado (o lo que sea, no recuerdo ningún problema corto de NP completo).
Debería haber dicho "probabilidad o refutación" en lugar de "verdad o falsedad". (Gödel)
@Timkinsella, Dennett y Searle fundamentalmente no están de acuerdo. Dennett cree que la habitación china puede ser consciente y Searle cree que no. Pero su diferencia de opiniones no depende de los detalles de la bomba de intuición. En la medida en que están peleando por sus detalles, son solo escaramuzas intrascendentes. Por cierto, ¿qué piensas? ¿Puede una computadora ser consciente en principio? ¿Qué opinas del molino de Leibniz? home.datacomm.ch/kerguelen/monadology/printable.html#17
@Timkinsella, también como nota. No me queda claro por qué es importante la escala de tiempo. Imagina que no simulas un cerebro que interactúa con el mundo "real", sino una habitación entera con una persona sentada en un sofá, leyendo un libro y escuchando música. Ahora, ¿qué importa si cada segundo simulado de esa habitación ocupa un segundo o mil millones de años de nuestro tiempo? ¿Qué importa si lo simula utilizando los recursos informáticos combinados en la tierra o moviendo rocas en una extensión infinita de arena? xkcd.com/505
@nir No hice ninguna afirmación sobre los escritos de Dennett sobre la habitación china, excepto para decir que lo llama una bomba de intuición. Y no creo que haya caracterizado mal la definición de Dennett de esa frase.
@nir con respecto a su segundo comentario, solo puedo decir que, en mi opinión, la capacidad de persuasión del experimento depende completamente de apelar a nuestras intuiciones sobre una habitación que contiene a un humano que trabaja con lápiz y papel. Después de todo, ¿qué más distingue este desafío particular a una IA fuerte del argumento más directo de que una máquina de Turing de habla china no podría entender chino ya que consiste solo en una cabeza de cinta que lee unos y ceros?
Es decir, si no cree que las imágenes o la escala de la sala china sean relevantes, ¿por qué no reemplaza al humano con un cabezal de cinta aún más inconsciente y deja que la máquina funcione a toda velocidad? Entonces, el experimento mental no tiene más contenido o novedad que nuestras intuiciones de que una IA en realidad no puede entender nada porque es solo un trozo de circuito.
Y es por eso que importa, en mi opinión, si postulas algún tipo de enorme dilatación del tiempo que hace que mil millones de años dentro de la habitación equivalgan a un segundo fuera de ella. Una vez que haces eso, toda la intuición se va por la ventana. Dejando de lado la cuestión de si las leyes de la física permiten realmente el intercambio de información entre las dos regiones y en qué medida, una vez que se postula algo así, cualquier apelación a la intuición se vuelve absurda.
Los humanos no tienen intuición para el tipo de cosas absurdas que pueden ocurrir en escalas de tiempo tan grandes. Para tomar un ejemplo, nuestros cerebros tardaron solo unos pocos miles de millones de años en ensamblarse espontáneamente a partir de algunas materias primas que se movían al azar en un océano primordial.
Además, lo siento, todavía no he llegado al molino de Leibniz, pero lo haré en breve. Gracias por el enlace :)
@Timkinsella, me gustaría saber cuál es tu opinión personal. ¿Cree que un sistema informático puede ser, en principio, consciente en el sentido más completo, como cree Dennett? ¿Puede ser consciente el molino de ruedas dentadas en movimiento (¿de madera?) de Leibniz?
@nir Sí, me inclino a creer que si hicieras una copia isomórfica de neurona por neurona de mi cerebro usando transistores (¿creo que esos son los análogos correctos? Pero no sé mucho sobre electrónica), entonces sería tan consciente como soy
@Timkinsella, otra pregunta relacionada. cuando miras el mundo que te rodea. ¿Concedes que está enteramente en tu cabeza como lo está un sueño? un neurólogo lo expresó una vez como "La vida no es más que un sueño guiado por los sentidos". La creencia opuesta, que percibimos el mundo exterior directamente tal como es, se denomina realismo ingenuo . El ejemplo clásico es el del color. ¿Eres consciente de que el color es un fenómeno en tu mente más que una propiedad de los objetos que miras?
@Timkinsella, la razón por la que pregunto es que los realistas ingenuos no creen que una teoría de la mente deba dar cuenta de esa "realidad virtual" interna.
Interesante. Creo que el cerebro crea algún tipo de modelo del mundo externo, una especie de homomorfismo desordenado creado a partir de datos sensoriales. Así que supongo que es una especie de término medio entre esas dos posiciones.
@Timkinsella, no entiendo lo que quieres decir. tome por ejemplo el blanco de la pantalla frente a usted; ¿Piensas que el color blanco que experimentas ahora es una cosa en tu mente o una cosa en el mundo externo?
Entonces, si no puedes decirlo, no tengo ningún entrenamiento en filosofía, y mucho menos en fenomenología, por lo que podríamos estar hablando entre nosotros. Pero te daré esto: cuando miro algo blanco, ciertamente tengo la intuición de que existe algo llamado "la sensación de blanco", que es difícil de precisar. Sin embargo, no creo que haya muchas razones para tomar nuestras intuiciones sobre nuestras sensaciones demasiado en serio cuando tratamos de resolver lo que sucede con la mente y el cerebro. Tal vez al escribir sonetos, pero no si realmente quieres entender la cognición y la sensación.
Pero no quiero ser desdeñoso. Me doy cuenta de que estas son preguntas profundas. Simplemente no le doy mucha importancia a las intuiciones de los humanos sobre lo que está sucediendo en sus propias cabezas.

El ejemplo de la Habitación China de John Searle es torpe y vulnerable a todo tipo de refutaciones desde un punto de vista estrictamente técnico (La respuesta de los sistemas, La respuesta del simulador del cerebro, etc...).

Pero esto es injusto para el argumento, porque debajo del incómodo experimento mental hay una cuestión epistemológica más profunda que merece una consideración seria. John Searle en sus conferencias entra en detalles y a menudo repite que "La sintaxis no es semántica" (ver el artículo de SEP) :

Cualquiera que haya estudiado lógica formal sabe que reglas como las leyes de De Morgan o las leyes de idempotencia (por ejemplo, A ^ A = A) son independientes del significado de los símbolos que se procesan. Una regla del tipo

IF A then: 
   B 
Else: 
   C

Funciona independientemente del significado de A, B y C. Pero todo lo que hace una computadora es procesar reglas de este tipo.

Esta es la idea de que la sintaxis (las reglas) es independiente de la semántica (el significado), y por lo tanto una computadora puede funcionar perfectamente sin saber nunca el significado de lo que está computando. Incluso el simulador cerebral más avanzado, que puede pasar todo tipo de pruebas de Turing, en última instancia, sigue mezclando símbolos sin saber el significado de esos símbolos.

Searle afirma que esto demuestra que ninguna computadora, por avanzada que sea, puede considerarse verdaderamente inteligente, ya que carece de la comprensión del significado detrás del símbolo.

En algún lugar de las conferencias a las que me vinculé arriba. Sin embargo, menciona que si se produce un cerebro artificial biológico, esto podría conducir a una verdadera inteligencia, ya que poseería las características biológicas de los procesos del cerebro humano y sería impulsado por cualquier mecanismo que impulse los cerebros humanos.
Consulte esta pregunta para obtener más detalles: ¿Cómo se puede refutar el argumento de John Searle de que "la sintaxis no es semántica" contra una IA fuerte?

Gracias, le echaré un vistazo a la conferencia más tarde. Por ahora solo diré que, para mí, la distinción entre biológico y simulado parece arbitraria. Con suficiente poder de procesamiento, podría replicar un cerebro humano a escala molecular dentro de una computadora. Funcionará tan bien como el original.
@ J.Doe ". Con suficiente poder de procesamiento, podría replicar un cerebro humano a escala molecular dentro de una computadora". Estoy de acuerdo contigo hasta cierto punto. No estoy defendiendo la posición de John Searle, solo explicándola. Consulte la publicación a la que me vinculé para obtener más información.
Usted escribe "El ejemplo de la habitación china de John Searle es torpe y es vulnerable a todo tipo de refutaciones". Me gustaría saber qué tiene de torpe. La mayoría, si no todos, los argumentos filosóficos están abiertos a ataques y el hecho de que la Sala China lo sea no lo hace peor. Por el contrario, es uno de los famosos experimentos mentales en filosofía de la mente y no por casualidad. Lanzarle tales insultos es como lanzarle insultos a un espejo.
@nir, lo que es tan torpe al respecto es que se puede refutar por motivos puramente técnicos: cualquier persona con algunos conocimientos básicos de arquitectura de computadoras puede responder "Por supuesto que el hombre en la sala no entiende chino, es la combinación [hombre + libro de reglas + db de símbolos chinos] que entiende chino". La gente se atasca en este argumento y se pierde el punto más importante de John Searle sobre la sintaxis frente a la semántica.

La diferencia es que somos conscientes, es decir, tenemos la experiencia subjetiva de la comprensión y la conciencia. Recuerde, era la conciencia lo que estábamos tratando de explicar en primer lugar, no la capacidad de procesar entradas y producir salidas.

Hay una diferencia entre ser capaz de producir respuestas en chino a preguntas en chino y escuchar una pregunta en chino y pensar: "Oh, sé lo que eso significa". Este último es la conciencia.

Pero, ¿cómo sabemos que las computadoras no tienen también una experiencia subjetiva, o afirmamos de otro modo que nuestra propia experiencia subjetiva no puede surgir de medios puramente mecánicos?
@DanBron: Mientras no se "comporten" como si lo hicieran (muestren signos de ello), no tenemos motivos para asumirlo. Sería mera especulación, lo cual es malo ya que está abierto incluso a la forma más leve de escepticismo, y con razón. Llámelo la navaja de Occam, el mito sellarsiano de lo dado o como quiera: sabemos que no hay razón para asumirlo o que se puede decir algo sustancial sobre la conciencia de una computadora. ¿Por qué deberíamos molestarnos en pensar en meras posibilidades lógicas en lugar de la realidad portadora de verdad en este punto?
@PhilipKlöcking Según la tesis de Turing de la iglesia fuerte, hay una máquina de Turing que exhibe el mismo "comportamiento" que usted o yo, incluido todo el comportamiento que lo lleva a creer que los humanos experimentan la conciencia.
@Timkinsella: Sí, pero ese es un problema diferente. Aquí la pregunta pasa a '¿Puede mostrar el comportamiento porque está destinado a hacerlo (por ejemplo, mediante programación) o porque la programación permite que la máquina sea consciente?' Aquí es más complicado con respecto al lenguaje, pero filosóficamente, hay respuestas sobre eso desde hace unos 90 años, es decir, la dependencia de la postura corporal en el entorno corporal que es una condición previa para la conciencia.
@PhilipKlöcking No estoy muy seguro de lo que quieres decir. ¿Puedes explicar un poco las "respuestas"?
@DanBron ¿Por qué no suponer que todo es consciente? Entonces ciertamente la sala china es consciente. Pero en cualquier caso, ese argumento parece un poco absurdo. Digamos que podría tener una tabla de búsqueda masiva con todas las preguntas chinas posibles y una respuesta china, esa tabla de búsqueda ejecutada por una máquina trivial. Parece absurdo argumentar que la máquina trivial y la tabla de búsqueda tienen la experiencia subjetiva de comprender la entrada china.
@DavidSchwartz Una tabla de búsqueda que contenga cada árbol de conversación de longitud modesta sería muchas veces el tamaño del universo conocido. Buscarlo sería imposible debido al límite de velocidad universal. Dicho en esos términos, es un poco menos convincente, al menos para mí.
@Timkinsella Y ciertamente solo sería consciente en un sentido trivial, como si argumentara que todo era consciente. El punto es que solo es consciente si asumes que es consciente. No explica nada sobre la conciencia si la única forma de argumentar que es consciente es asumirla.
@DavidSchwartz Tal configuración no podría realizar una conversación en tiempo real. Entonces, ni siquiera exhibe el comportamiento que le gustaría decir que se correlaciona con la conciencia.
@Timkinsella Correcto, pero ¿sobre qué base puede argumentar que hay una conexión entre esas dos cosas, además de suposiciones?
De hecho, no existe tal configuración. Es literalmente imposible en principio.
cuales dos cosas

"Conciencia" requiere definición. Como neurólogo, uso el término hasta en cuatro formas diferentes según las circunstancias. Veamos si podemos incluirlo a los efectos de esta discusión definiendo algunos conceptos relacionados:

Reflejo : Un sistema determinista simple. Entrada -> salida. Las neuronas están conectadas en serie. Cognición : implica un sistema complejo en el que los conceptos gobiernan la relación entre entrada y salida. Entrada -> concepto -> salida. Un concepto es un conjunto de atributos vinculados, en el sentido de que "peludo", "ladrador", "cuatro patas" y "maloliente" pueden vincularse para formar el concepto de "perro". La vinculación entre atributos representa una teoría implícita. Teoría = significado. (Ver Bernstein, "Una teoría básica del neuropsicoanálisis".) Red neuronal: un sistema informático formado por numerosas unidades de procesamiento simples que están masivamente interconectadas. Están conectados en paralelo, así como en secuencia. La cognición es el comportamiento característico de una red neuronal. Todos los cerebros capaces de pensar son redes neuronales. Las redes neuronales artificiales pueden considerarse modelos del cerebro, aunque con importantes diferencias cualitativas y cuantitativas. Inteligencia: un parámetro de la cognición. Hablando anatómicamente, la inteligencia se correlaciona con el grado de conectividad de las neuronas en el cerebro. Los humanos tenemos más conexiones que los animales. Einstein tenía más conexiones que yo. Cuando decimos que algo es inteligente, nos referimos a que tiene la capacidad de transportar mucha información en forma de conceptos y teorías. Los conceptos pueden ser numerosos, sutiles y jerárquicos. Las teorías pueden ser profundas y válidas. Sensibilidad : es un superconjunto de inteligencia que implica la presencia de conciencia. Conciencia : queda por definir. Podemos llamarlo "autoconciencia" por ahora.


El sistema "determinista" descrito por OP no es inteligente ni consciente. El sistema informático que OP describe es reflexivo.

No todas las computadoras son reflexivas. Supongamos que la tarea fuera manejada por una red neuronal autoorganizada. La formación de conceptos que impulsan la producción implica la formación de teorías. Aunque estas teorías son primitivas e idiosincrásicas, podríamos decir que tal sistema tiene una inteligencia rudimentaria.

Para hacer que esta computadora parezca humana, necesitamos incorporar suficientes procesadores y un grado de conectividad lo suficientemente masivo como para aproximarse a las capacidades del cerebro humano, tanto en términos de capacidad de almacenamiento en bruto como en términos de capacidad para formar conceptos jerárquicos. . También tendríamos que construir en la emoción. La "emoción" puede requerir la asimilación de tan solo tres atributos: valencia (castigo frente a recompensa), intensidad y si se requiere una respuesta de acercamiento o retirada.

No sé si es posible para nosotros diseñar tal sistema. Pero supongamos que pudiéramos. ¿Sería consciente?

Quizás no, por la cuestión de la "autoconciencia".

No me gusta el término "autoconciencia" porque se define con demasiada facilidad en formas que son triviales o circulares. Significa algo (quizás no mucho) si eres consciente de mismo. Cualquier cosa con un cerebro, y cualquier computadora, puede hacer eso. En cuanto a si eres consciente de ti mismo, por supuesto que lo eres. ERES tu propio ser.

El concepto de "autoconciencia" sólo tiene sentido, entonces, si la naturaleza del yo es ambigua.

Entonces, la pregunta es, ¿en qué circunstancias se enfrentaría una computadora con una naturaleza propia ambigua?

Hasta la fecha, evidentemente no hemos visto la necesidad de diseñar una computadora de este tipo. La ambigüedad es un error, no una característica. Para ser claros, cuanto más complejo sea el sistema, más difícil será la tarea de diseño y más impredecible el resultado. Sin embargo, será un sistema, uno que producirá perfectamente su propia salida particular. Tal sistema no tendrá base para contemplar o incluso para definir su "yo" de ninguna manera significativa.

Pero, ¿y si tuviéramos que diseñar una computadora que pudiera evolucionar? Si pudiera percibir que estaba cambiando con el tiempo, ¿sería esa ambigüedad suficiente para que considerara la naturaleza de sí mismo?

Lo dudo. Todos los humanos evolucionan, en cierto sentido. Maduramos con el tiempo. Pero el cambio rara vez es lo suficientemente dramático como para hacernos cuestionar nuestra propia naturaleza.

Con respecto a la cuestión del Ser, los humanos están luchando con problemas más grandes. Los sacerdotes nos dicen que somos cuerpo y alma. Los filósofos nos dicen que somos una existencia y una esencia. Los psicoanalistas nos dicen que somos un Ego y un Self. ¿Son estos enigmas exclusivos de los humanos? ¿O pueden las computadoras entrar en acción?

Posiblemente. La pregunta es, ¿cuál es la naturaleza de la inteligencia? ¿De dónde viene?

Hasta ahora, hemos estado hablando de la inteligencia como una forma de información que surge como una propiedad emergente de un sistema complejo, en el sentido de que las teorías y los conceptos representan el producto del trabajo de una red neuronal.

También insinuamos el anverso; en otras palabras, la noción de que las cosas complejas se basan en información. Cuando hablamos de diseñar sistemas informáticos, por ejemplo, la parte de "diseño" se refiere a la información. Si un diseño de computadora se basa en un plano; podemos ver la computadora como una manifestación física del espacio de información delineado en el plano.

Asimismo, nuestro sistema solar es una manifestación física de información. La información en forma de gravedad llegó desde el más allá infinito al mundo material "3+1" en un momento en que el universo consistía en gases que se expandían rápidamente. La gravedad hizo que las nubes de gas se fusionaran en estrellas y planetas. La estructura del espacio de información transportado por la gravedad implicaba la estructura del universo físico, incluido nuestro hogar.

El cerebro humano es una manifestación de un espacio de información y, a pesar de lo que uno pueda haber escuchado, no estamos ni cerca de comprender la naturaleza de esa información. Hemos descifrado el genoma humano y hemos descubierto que explica muy poco de la estructura del cerebro. El gen más importante que distingue el cerebro humano del de los animales es ARHGAP11B, que permite la ramificación salvaje y caótica de las conexiones neuronales. El principio de Hebb, "neuronas que disparan juntas, se conectan juntas", explica el desarrollo de la red neuronal. Decir que este es un proceso no determinista sería quedarse corto. Además, hay evidencia de que el cerebro tiene una estructura fractal (www.stat.wisc.edu/~mchung/ Teaching/MIA/reading/fractal.kiselev.NI.2003.pdf - elimine los espacios) y así es.

¿Cuál es el espacio de información que define el cerebro? ¿Y qué tiene eso que ver (si es que tiene algo) con nuestro concepto de "conciencia"?

Si la conciencia es solo una propiedad de una inteligencia claramente humana, diría que no podemos diseñar una computadora que tenga una conciencia separada de la de su creador. Por muy humano que pareciera, siempre sería el puer eternis, nunca capaz de diferenciar su Ego del padre. (Todavía podría intentar matarnos, pero esa es otra historia).

Pero. En la medida en que cualquier cosa que impliquemos en la palabra "conciencia" precede a la inteligencia humana, podríamos estar en problemas. Tenga en cuenta que las leyes de la termodinámica sugieren que es un camino cuesta abajo desde los viveros de estrellas hasta la vida inteligente. Si es así, la información que dio lugar a través de la gravedad a los viveros de estrellas primordiales precedió e implicó la inteligencia humana. En ese caso, podemos esperar que la inteligencia permanezca en su traje de carne mientras esa sea la mejor manera de defenderse de la Segunda Ley. Cuando encuentre una solución más eficiente, abandonará el barco.

En resumen, la respuesta a tu pregunta es: 1. El cerebro no funciona como la computadora que describes. 2. Pero, en teoría, es posible diseñar una computadora que lo haga. Si tal cosa es o no una posibilidad práctica es otra cuestión. 3. No podemos saber si tal computadora podría volverse inteligente. En algunas circunstancias, sería inevitable.

Respuesta muy informativa. Sin embargo, me sorprende que no haya mencionado cómo los efectos cuánticos permiten a los humanos (es decir, redes neuronales construidas socialmente) transgredir hermenéuticamente límites que las máquinas de Turing clásicas e incluso las máquinas de Turing relativistas no pueden.
¿podría trabajar para reescribir esta respuesta para que sea mucho más clara y mucho menos corriente de pensamiento? (sus otras respuestas a algunas preguntas han sido lo suficientemente malas como para parecer spam).
@Alexander S King La conciencia cuántica es una tontería
@DJSims, la respuesta ya invoca la teoría de cuerdas, no voy a profundizar más en la madriguera del conejo al referirme a los efectos cuánticos.