¿Este razonamiento refuta el argumento de la habitación china de John Searle?

Soy un programador interesado en el desarrollo de inteligencia artificial. Acabo de leer sobre el argumento de la habitación china de John Searle y me gustaría saber si mi razonamiento refuta con éxito su argumento.

El argumento de la habitación china más o menos señala que un programa de computadora podría simular la conciencia/sensibilidad, pero nunca experimentarla de la misma manera que un hombre, ignorante del idioma chino, podría simular el conocimiento del idioma chino a través de un conjunto de instrucciones, sin alguna vez experimentando la capacidad de entender el chino por sí mismo.

Puedo ver cómo llegaría el Sr. Searle a esta conclusión, pero creo que cometió un error.

Una IA, tal vez Siri de Apple, actualizada 20 años en el futuro con capacidades adicionales sería programada a través de algoritmos, instrucciones, para interpretar información y responder a estímulos, demostrando sin experimentar realmente la gran complejidad de los patrones de pensamiento que forman la sensibilidad, como argumentó Searle. la Sala China.

Sin embargo, considere una forma diferente de esta simulación de IA, una que refleje perfectamente el cerebro humano:

¿Qué pasaría si inventáramos una máquina capaz de escanear y registrar cada célula, cada electrón, cada velocidad de cada átomo en un cerebro humano, y luego alimentáramos esos datos a una computadora lo suficientemente poderosa como para simular computacionalmente la existencia de todo el cerebro?

Este cerebro simulado, como estructura de datos modificable, sería una poderosa IA capaz de desarrollarse más allá de las limitaciones físicas de un cerebro humano físico. El cerebro, independientemente de su medio de existencia (una simulación por computadora), estaría completamente ciego al hecho de que está en una simulación por computadora. Sin embargo, funcionaría de una manera perfectamente idéntica al cerebro de la persona escaneada, suponiendo que todos los estímulos y la física adecuados estén presentes en la simulación.

Por lo tanto, ¿quién puede decir que esta IA, este cerebro simulado, es menos sensible que tú o yo?

Y, por cierto, originalmente pregunté esto después de leer en algún lugar de este sitio que la Sala China aún no había sido refutada válidamente, pero ahora veo que hay una pregunta aquí que cubre varias formas en las que se ha argumentado en contra. Aunque creo que mi pregunta sigue siendo válida.
El argumento de la habitación china es un argumento en el sentido de que simular nuestro cerebro no sería suficiente para producir una experiencia consciente. Estás sugiriendo que podríamos simular nuestros cerebros. ¿Cómo refuta eso el argumento?
La habitación china es un argumento en contra de la "IA fuerte". Según Searle, la "IA fuerte" promete la certificación de "estados mentales" más allá de lo que le pedimos incluso a otras personas, desde dentro de la habitación, por así decirlo. Por lo tanto, imitar los cerebros humanos no hace nada, no poder dar una descripción detallada de cómo surgen los "estados mentales" pierde el punto y ya reconoce una "IA fuerte". El punto débil de Searle es la reificación de los "estados mentales" y los "significados", no los problemas de imitación.
El argumento de la habitación china es irrefutable exactamente por la misma razón por la que el solipsismo es irrefutable: tampoco hay forma de probar que la mente de otra persona existe. El hecho de que otras personas aparezcan y afirmen ser conscientes no es evidencia del hecho de que lo sean; Del mismo modo, la duplicación de un cerebro humano con tecnología podría producir algo que parece ser sensible, afirma ser sensible, etc., pero nunca podría demostrarle a John Searle que es sensible, incluso si fuera un duplicado de su madre. . Es una forma absurda de escepticismo.
Debe profundizar más en lo que dice Searle sobre la IA. Está completamente abierto a la idea de que una máquina pueda pensar como nosotros, pero para simular un cerebro tendremos que tener una comprensión TOTAL de todos los procesos del cerebro. No estamos ni cerca de eso.
La conciencia es solo percepción que se puede programar.

Respuestas (6)

la respuesta corta

No, lo siento, esto no refuta el argumento de la habitación china.

Una respuesta más detallada

En esta pregunta hablo brevemente sobre el difícil problema de la conciencia, y cómo no es una cuestión de qué, sino una cuestión de por qué.

Tener un diagrama perfecto que imite en tiempo real los movimientos de las neuronas de un cerebro, por ejemplo, un cerebro en una cubeta , sería seguro que sería interesante. Pero la simulación y la de la cubeta, aunque idénticas en estructura (aunque una no es física, al menos en el sentido de que no es un cerebro, sino un circuito) tienen una diferencia crucial.

Esa diferencia es conciencia, qualia, experiencia. Su IA hipotética se basa en alguna respuesta al difícil problema de la conciencia. De lo contrario, es como una película, reproduce los mismos movimientos que el cerebro en una tina, pero no tiene pensamientos reales. Al igual que el experimento mental filosófico del zombi.

¿Qué? La mente creada por la simulación no piensa diferente al cerebro en tu cabeza. ¿Quién puede decir que eso es diferente de la posibilidad de que nuestro propio universo sea una simulación por computadora? Entonces, ¿podríamos ser también zombis filosóficos? ¿Por qué o por qué no?
@MediaWebDev Entonces, una simulación de los movimientos de las neuronas no es igual al pensamiento que crean las neuronas. Para que fueran lo mismo, sería necesario resolver el difícil problema de la conciencia. Esa no es una tarea baladí.
Afirmas que el resultado sería similar a un zombi filosófico, pero eso se define como algo sin sensibilidad. ¿Entiendes algo de neurología? El cerebro no es mágico. La sensibilidad no es mágica. No es más que un conjunto muy complejo de patrones y reacciones entre pequeños mecanismos de comunicación, ya sea que esos mecanismos tomen la forma de neuronas u objetos en un programa de computadora, no importa, la sensibilidad es real, no obstante.
@MediaWebDev, ¿entonces tiene una respuesta al difícil problema de la conciencia? Deberías publicar, te haría muy famoso.
Mi ejemplo copia el cerebro, que es la respuesta más directa al problema difícil : aunque copiar el cerebro no nos revela la respuesta , se salta la necesidad de comprender la complejidad de la conciencia. Este "problema difícil" puede ser difícil , pero no es inalcanzable, es simplemente el hecho de que nuestros biólogos/neurólogos no han avanzado lo suficiente en el campo de la neurología para explicar la totalidad de la conciencia: el funcionamiento de los componentes altamente complejos que forman el cerebro.
La respuesta al "problema difícil" es que miles de millones de componentes complejos trabajan juntos en patrones de retroalimentación que dan como resultado diversas formas de pensamiento, que juntas se combinan para formar la conciencia. ¿Cómo exactamente esos patrones trabajan juntos para crear conciencia y sensibilidad? No lo sabremos durante algún tiempo; ese es un tema para Biología.SE. Pero el hecho de que los filósofos no entiendan el funcionamiento de la conciencia, un tema de la ciencia, no dice nada sobre la existencia de sensibilidad en una copia simulada del cerebro.
@MediaWebDev Chalmers no estaría de acuerdo, pero está bien. Copiar el cerebro no es una respuesta al problema difícil. Incluso si fuera posible, no responde al problema. No es una cuestión de cómo, es una cuestión de por qué. Independientemente de su respuesta, no es una refutación de la habitación china. De ninguna manera explica de dónde viene la experiencia. Su afirmación simplemente asume que la copia tendrá conciencia, pero no explica por qué.
@Viziionary Si simulas un huracán, en realidad nada se moja. La conciencia puede ser como las cosas que se mojan.
El argumento filosófico del zombi hace una suposición errónea; que es posible "tocar" los mismos movimientos sin "tocar" los mismos pensamientos.

Al final de "¿Pueden pensar las máquinas?" Searle escribe:

"Para cualquier artefacto que pudiéramos construir que tuviera estados mentales equivalentes a los estados mentales humanos, la implementación de un programa de computadora por sí solo no sería suficiente. Más bien, el artefacto tendría que tener poderes equivalentes a los poderes del cerebro humano".

Se supone que el argumento de la habitación china muestra que las mentes no son simplemente programas informáticos realmente complejos. Si una computadora puede tener los poderes de un cerebro humano en virtud de implementar un programa informático realmente complejo, entonces Searle estaría de acuerdo en que esta computadora es una mente.

Tal vez Searle, en toda su filosofía, podría estar de acuerdo en que es una mente, pero no veo forma de que su experimento mental de la Habitación China esté de acuerdo. ¿Quizás entonces, la Sala China es refutada por mi razonamiento, pero no Searle en todo su pensamiento compuesto sobre el tema?
Acabo de leer ¿Pueden pensar las máquinas? , está disponible en línea y trata explícitamente allí con el experimento de la habitación china. El experimento mental de la habitación china es más modesto de lo que crees; no se supone que demuestre que no es posible crear una máquina que entienda el lenguaje, solo pretende mostrar que la sintaxis pura no es suficiente para la comprensión.
Por alguna razón, Searle está comprometido con la "mente" proveniente de la implementación bioquímica del cerebro humano. Así que no estoy seguro de que una computadora con los poderes de un cerebro humano al implementar un programa de computadora realmente complejo sea suficiente para él. También insiste en algún tipo de "estados mentales" manifestados además de simplemente simular los "poderes".
Searle acepta la realización múltiple; incluso si dice que la mente humana proviene de interacciones bioquímicas, no puede decir que solo las reacciones bioquímicas pueden causar un cerebro. Además, Searle afirma que los estados mentales no son sintaxis pura, pero esto no significa que no puedas crear una mente; significa que si crea uno implementando un código realmente complejo, sus estados mentales no pueden reducirse a fragmentos de código. Finalmente, realmente no conozco mucho la obra de Searle , así que si puede decir dónde habla sobre estados mentales "manifestados", se lo agradecería.

Primero, como señaló Luís Henrique, la viabilidad física de esta computadora es discutible en el mejor de los casos, pero por el bien del argumento, supongamos que lo es.

Respuesta de nivel 1

No , su razonamiento no refuta el argumento de la habitación china. Subyacente al argumento chino está el principio más fundamental de Searle de que la sintaxis no es semántica . Su computadora súper poderosa, a pesar de todas sus capacidades computacionales y de memoria, todavía está manipulando símbolos abstractos, y lo hace sin conocer el significado de esos símbolos. Los millones de puntos de datos individuales que está manipulando pueden ser los electrones y los núcleos de un cerebro humano, los planetas y las estrellas de una galaxia, o los ciudadanos individuales de China ... todo lo que tiene su supercomputadora es un conjunto de símbolos y reglas para manipulando esos símbolos, y no sabe ni le importa lo que significan. Por lo tanto, argumenta John Searle, nunca puede ser verdaderamente consciente o sintiente.

Aquí hay otra forma de verlo: una computadora que realiza una simulación completamente perfecta de un ave voladora (en términos de todos los datos físicos relacionados con la velocidad y la posición del ave, la masa, la resistencia del aire, etc.) todavía está realizando una simulación. , no constituye una recreación artificial del vuelo de las aves.

Respuesta de nivel 2

Usted está señalando una debilidad en el principio de "la sintaxis no es semántica" de John Searle. El propio John Searle admite en sus conferencias (lo siento, olvidé cuál, tendrás que leer al menos las primeras 6) que una simulación biológica del cerebro podría ser consciente de una forma en que una simulación digital por computadora no lo sería.

Pero eso plantea la pregunta: ¿Por qué esta barrera entre lo biológico y lo digital? ¿Por qué no puede ser consciente una recreación electrónica digital de neuronas individuales interconectadas para formar un cerebro artificial? Para usar la analogía del pájaro de arriba: una simulación perfecta por computadora de un pájaro volando podría ser una mera simulación, no un vuelo real, pero un pájaro robótico volador (o un avión) está volando innegablemente. En el mismo sentido: ¿Por qué una computadora equipada con algoritmos de IA no puede ser equivalente a un cerebro humano de la misma manera que un avión volando es equivalente a un pájaro volando? ¿O que una pierna ortopédica es equivalente a una pierna biológica?

Esta posición, de que es suficiente que una computadora realice las mismas funciones que la mente/cerebro humano, se conoce como funcionalismo . Searle estaba tratando de refutar el funcionalismo, y la pregunta que uno podría hacerle: dices que la sintaxis no es semántica, pero si la semántica no está en la descripción funcional de la mente, ¿dónde más puede estar? La semántica sólo puede estar en el aspecto funcional de la mente. Quien haya escrito las reglas y las instrucciones para la sala china, lo hizo utilizando la semántica del idioma chino y, por lo tanto, esa semántica se refleja en la sintaxis, y la sintaxis y la semántica no son tan separables como cree Searle. Ver esta respuesta , esta respuesta y esta respuestaa mi pregunta mencionada anteriormente sobre sintaxis frente a semántica para obtener explicaciones más detalladas (y elocuentes).

"Su computadora súper poderosa, a pesar de todas sus capacidades computacionales y de memoria, todavía está manipulando símbolos abstractos, y lo hace sin conocer el significado de esos símbolos". ¿Conoces la teoría de la simulación? Según esa lógica, ninguno de nosotros puede reclamar sensibilidad. En realidad, es ese tipo de escepticismo absurdo que otro comentario explica en la base de todo el argumento. Cuando hice la pregunta, no me di cuenta de que se trataba de una teoría de "nada es real". Parece bastante tonto.
@Viziionary, ¿leyó el resto de mi respuesta y los enlaces que contiene?

¿Qué pasaría si inventáramos una máquina capaz de escanear y registrar cada célula, cada electrón, cada velocidad de cada átomo en un cerebro humano, y luego alimentáramos esos datos a una computadora lo suficientemente poderosa como para simular computacionalmente la existencia de todo el cerebro?

Un problema es que tal máquina es imposible; viola el principio de Heisenberg.

Es un problema probablemente solo porque OP se esfuerza demasiado. Probablemente sea posible reemplazar muchos, si no todos, los elementos naturales del cerebro (por ejemplo, las neuronas) con un sustituto electrónico artificial o una simulación por computadora, y aún así obtener la misma funcionalidad. Además, no parece ser el caso que la funcionalidad del cerebro sea tan volátil como para depender de tal o cual átomo químicamente idéntico.
@rapt: hay una diferencia entre construir un cerebro artificial, que es imposible en el nivel tecnológico actual, y mapear un cerebro individual como se describe en el OP. Lo primero quizás sea posible con tecnología de nivel superior, pero lo segundo viola una ley de la física y, en consecuencia, es imposible independientemente de la tecnología, a menos que se derogue dicha ley, lo que parece poco probable.

Afirmar que el Experimento de la Habitación China (CRE) de Searle no ha sido refutado es, en mi humilde opinión, un poco subestimado. La conclusión de la CRE es tentadora, pero podemos afirmar claramente que la CRE está defectuosa. Solo hay que leer los comentarios de Douglas Hofstadter (Hofstadter and Dennett - the Mind's I (2001)), Daniel C. Dennett (Intuition pumps and Other Tools for Thinking (2013) o Jack Copeland (Artificial Intelligence (1993). Todos ellos afirmar que la CRE es defectuosa por diseño y, por lo tanto, no puede afirmar que una máquina (computadora) no puede pensar. Usted preguntó si una IA podría tener conciencia, pero esa no era la pregunta de la CRE. La CRE (original) era un método en el que Searle afirmó que ninguna máquina podía pensar (en esto, podía pasar la Prueba de Turing). Jack Copeland y Daniel Dennett escribieron que ' Es filosóficamente posible hablar de máquinas que pueden pensar. Dennett sobre la base de su argumento de postura intencional. Copeland afirma que cuando una máquina (o lo que sea) puede pensar si esta máquina puede hacer exactamente los mismos procesos que hace un humano cuando hablamos de pensar. Sobre la base de que cuando usamos 'pensar' para el comportamiento de un ser humano, también podemos usar la misma palabra para el mismo comportamiento de una máquina (lea el capítulo 3 de su libro mencionado anteriormente).

Hasta ahora no ha habido una máquina que cumpliera con los requisitos del Test de Turing por lo que se podría afirmar que todavía no ha habido una máquina que pueda pensar.

Buenas referencias, pero ¿podría tener números de página para que el lector pueda encontrar más rápidamente las partes específicas de esos libros sobre la CRE? De todos modos, ¡bienvenido a este SE!
"Searle afirmó que ninguna máquina podía pensar (en este paso la prueba de Turing)". - Oh, Dios mío, no. La sala china SÍ pasa la prueba de Turing (al menos con respecto a hablar chino). Es indistinguible de un hablante nativo de chino. Sin embargo , no es consciente de sí mismo en absoluto . El argumento de la habitación china (generalmente CRA en la literatura) muestra la diferencia entre pasar la prueba de Turing y estar consciente. Mi vecino pasa la prueba de Turing. No tengo forma de probar que está consciente.
@ Frank Hubeny: Para 'las mentes' veo las reflexiones de Hofstadter siguiendo el artículo de Searle 'Mentes, cerebros y programas'. En esta reflexión Hofstadter señala cuál es el defecto de la CRE. Para Dennett, véase el capítulo 60 'La habitación china'. Para Copeland, véase el capítulo 3 "¿Puede pensar una máquina?" y el capítulo 6 'El curioso caso de la habitación china'. También es posible que desee leer el artículo de Georges Rey 'El malentendido de Searle sobre el funcionalismo y la IA fuerte'. Puede encontrarlo aquí: sites.google.com/site/georgesrey .
@user4894: La Sala China no es lo mismo que el Test de Turing (TT). Searle, en su artículo original 'Mentes, cerebros y programas', quería demostrar que el TT no prueba que una máquina pueda pensar y, por lo tanto, que la IA fuerte no existe. Se trata de inteligencia e intencionalidad. Más tarde, la discusión se amplió a la conciencia. La intencionalidad y la conciencia son dos cosas diferentes. Algo puede tener inteligencia e intencionalidad pero al mismo tiempo carecer de conciencia.
El algoritmo CR tiene todo lo que tiene un cerebro humano, llámalo conciencia si quieres. El hecho de que la habitación utilice un órgano inconsciente (el ser humano) para comunicar su conciencia, no significa nada. El experimento es intrínsecamente defectuoso por lo que intenta probar, un ejercicio de agitar la mano, enmascara su error fundamental detrás de una capa de abstracción. En todo caso, el experimento demuestra que lo que llamamos conciencia (humana) no es lo que pensamos que es, no es un fantasma trascendente e irrepetible. Para esta conclusión, el experimento es realmente fuerte. Muestra que el cerebro humano no es más que una máquina,
No hay necesidad de referirse a Hofstadter, Dennett o Copeland... la edición original de 1980 de BBS en la que aparece el argumento de la habitación china ya contiene muchas refutaciones.

El argumento proviene de una analogía entre el chino y la conciencia. Entonces, no ha demostrado que el argumento se basa en un error, si de hecho solo está argumentando que:

  • una computadora muy compleja podría simular todo lo que compone una mente humana

como pareces.

La única forma en que puedo imaginar que ha comenzado (suponiendo que no haya ningún error en la validez de ningún argumento que no se elimine por completo) para refutar al profesor Searle es que está afirmando:

  • una computadora muy compleja está más allá de nuestro razonamiento humano actual,

o

  • si simulamos todos los aspectos del chino, entonces lo entendemos.

Tal vez esté confundiendo estas dos afirmaciones, lo que no sería muy útil. Simpatizo con ambas afirmaciones, pero no convencería al profesor Searle.