Soy un programador interesado en el desarrollo de inteligencia artificial. Acabo de leer sobre el argumento de la habitación china de John Searle y me gustaría saber si mi razonamiento refuta con éxito su argumento.
El argumento de la habitación china más o menos señala que un programa de computadora podría simular la conciencia/sensibilidad, pero nunca experimentarla de la misma manera que un hombre, ignorante del idioma chino, podría simular el conocimiento del idioma chino a través de un conjunto de instrucciones, sin alguna vez experimentando la capacidad de entender el chino por sí mismo.
Puedo ver cómo llegaría el Sr. Searle a esta conclusión, pero creo que cometió un error.
Una IA, tal vez Siri de Apple, actualizada 20 años en el futuro con capacidades adicionales sería programada a través de algoritmos, instrucciones, para interpretar información y responder a estímulos, demostrando sin experimentar realmente la gran complejidad de los patrones de pensamiento que forman la sensibilidad, como argumentó Searle. la Sala China.
Sin embargo, considere una forma diferente de esta simulación de IA, una que refleje perfectamente el cerebro humano:
¿Qué pasaría si inventáramos una máquina capaz de escanear y registrar cada célula, cada electrón, cada velocidad de cada átomo en un cerebro humano, y luego alimentáramos esos datos a una computadora lo suficientemente poderosa como para simular computacionalmente la existencia de todo el cerebro?
Este cerebro simulado, como estructura de datos modificable, sería una poderosa IA capaz de desarrollarse más allá de las limitaciones físicas de un cerebro humano físico. El cerebro, independientemente de su medio de existencia (una simulación por computadora), estaría completamente ciego al hecho de que está en una simulación por computadora. Sin embargo, funcionaría de una manera perfectamente idéntica al cerebro de la persona escaneada, suponiendo que todos los estímulos y la física adecuados estén presentes en la simulación.
Por lo tanto, ¿quién puede decir que esta IA, este cerebro simulado, es menos sensible que tú o yo?
No, lo siento, esto no refuta el argumento de la habitación china.
En esta pregunta hablo brevemente sobre el difícil problema de la conciencia, y cómo no es una cuestión de qué, sino una cuestión de por qué.
Tener un diagrama perfecto que imite en tiempo real los movimientos de las neuronas de un cerebro, por ejemplo, un cerebro en una cubeta , sería seguro que sería interesante. Pero la simulación y la de la cubeta, aunque idénticas en estructura (aunque una no es física, al menos en el sentido de que no es un cerebro, sino un circuito) tienen una diferencia crucial.
Esa diferencia es conciencia, qualia, experiencia. Su IA hipotética se basa en alguna respuesta al difícil problema de la conciencia. De lo contrario, es como una película, reproduce los mismos movimientos que el cerebro en una tina, pero no tiene pensamientos reales. Al igual que el experimento mental filosófico del zombi.
Al final de "¿Pueden pensar las máquinas?" Searle escribe:
"Para cualquier artefacto que pudiéramos construir que tuviera estados mentales equivalentes a los estados mentales humanos, la implementación de un programa de computadora por sí solo no sería suficiente. Más bien, el artefacto tendría que tener poderes equivalentes a los poderes del cerebro humano".
Se supone que el argumento de la habitación china muestra que las mentes no son simplemente programas informáticos realmente complejos. Si una computadora puede tener los poderes de un cerebro humano en virtud de implementar un programa informático realmente complejo, entonces Searle estaría de acuerdo en que esta computadora es una mente.
Primero, como señaló Luís Henrique, la viabilidad física de esta computadora es discutible en el mejor de los casos, pero por el bien del argumento, supongamos que lo es.
Respuesta de nivel 1
No , su razonamiento no refuta el argumento de la habitación china. Subyacente al argumento chino está el principio más fundamental de Searle de que la sintaxis no es semántica . Su computadora súper poderosa, a pesar de todas sus capacidades computacionales y de memoria, todavía está manipulando símbolos abstractos, y lo hace sin conocer el significado de esos símbolos. Los millones de puntos de datos individuales que está manipulando pueden ser los electrones y los núcleos de un cerebro humano, los planetas y las estrellas de una galaxia, o los ciudadanos individuales de China ... todo lo que tiene su supercomputadora es un conjunto de símbolos y reglas para manipulando esos símbolos, y no sabe ni le importa lo que significan. Por lo tanto, argumenta John Searle, nunca puede ser verdaderamente consciente o sintiente.
Aquí hay otra forma de verlo: una computadora que realiza una simulación completamente perfecta de un ave voladora (en términos de todos los datos físicos relacionados con la velocidad y la posición del ave, la masa, la resistencia del aire, etc.) todavía está realizando una simulación. , no constituye una recreación artificial del vuelo de las aves.
Respuesta de nivel 2
Usted está señalando una debilidad en el principio de "la sintaxis no es semántica" de John Searle. El propio John Searle admite en sus conferencias (lo siento, olvidé cuál, tendrás que leer al menos las primeras 6) que una simulación biológica del cerebro podría ser consciente de una forma en que una simulación digital por computadora no lo sería.
Pero eso plantea la pregunta: ¿Por qué esta barrera entre lo biológico y lo digital? ¿Por qué no puede ser consciente una recreación electrónica digital de neuronas individuales interconectadas para formar un cerebro artificial? Para usar la analogía del pájaro de arriba: una simulación perfecta por computadora de un pájaro volando podría ser una mera simulación, no un vuelo real, pero un pájaro robótico volador (o un avión) está volando innegablemente. En el mismo sentido: ¿Por qué una computadora equipada con algoritmos de IA no puede ser equivalente a un cerebro humano de la misma manera que un avión volando es equivalente a un pájaro volando? ¿O que una pierna ortopédica es equivalente a una pierna biológica?
Esta posición, de que es suficiente que una computadora realice las mismas funciones que la mente/cerebro humano, se conoce como funcionalismo . Searle estaba tratando de refutar el funcionalismo, y la pregunta que uno podría hacerle: dices que la sintaxis no es semántica, pero si la semántica no está en la descripción funcional de la mente, ¿dónde más puede estar? La semántica sólo puede estar en el aspecto funcional de la mente. Quien haya escrito las reglas y las instrucciones para la sala china, lo hizo utilizando la semántica del idioma chino y, por lo tanto, esa semántica se refleja en la sintaxis, y la sintaxis y la semántica no son tan separables como cree Searle. Ver esta respuesta , esta respuesta y esta respuestaa mi pregunta mencionada anteriormente sobre sintaxis frente a semántica para obtener explicaciones más detalladas (y elocuentes).
¿Qué pasaría si inventáramos una máquina capaz de escanear y registrar cada célula, cada electrón, cada velocidad de cada átomo en un cerebro humano, y luego alimentáramos esos datos a una computadora lo suficientemente poderosa como para simular computacionalmente la existencia de todo el cerebro?
Un problema es que tal máquina es imposible; viola el principio de Heisenberg.
Afirmar que el Experimento de la Habitación China (CRE) de Searle no ha sido refutado es, en mi humilde opinión, un poco subestimado. La conclusión de la CRE es tentadora, pero podemos afirmar claramente que la CRE está defectuosa. Solo hay que leer los comentarios de Douglas Hofstadter (Hofstadter and Dennett - the Mind's I (2001)), Daniel C. Dennett (Intuition pumps and Other Tools for Thinking (2013) o Jack Copeland (Artificial Intelligence (1993). Todos ellos afirmar que la CRE es defectuosa por diseño y, por lo tanto, no puede afirmar que una máquina (computadora) no puede pensar. Usted preguntó si una IA podría tener conciencia, pero esa no era la pregunta de la CRE. La CRE (original) era un método en el que Searle afirmó que ninguna máquina podía pensar (en esto, podía pasar la Prueba de Turing). Jack Copeland y Daniel Dennett escribieron que ' Es filosóficamente posible hablar de máquinas que pueden pensar. Dennett sobre la base de su argumento de postura intencional. Copeland afirma que cuando una máquina (o lo que sea) puede pensar si esta máquina puede hacer exactamente los mismos procesos que hace un humano cuando hablamos de pensar. Sobre la base de que cuando usamos 'pensar' para el comportamiento de un ser humano, también podemos usar la misma palabra para el mismo comportamiento de una máquina (lea el capítulo 3 de su libro mencionado anteriormente).
Hasta ahora no ha habido una máquina que cumpliera con los requisitos del Test de Turing por lo que se podría afirmar que todavía no ha habido una máquina que pueda pensar.
El argumento proviene de una analogía entre el chino y la conciencia. Entonces, no ha demostrado que el argumento se basa en un error, si de hecho solo está argumentando que:
como pareces.
La única forma en que puedo imaginar que ha comenzado (suponiendo que no haya ningún error en la validez de ningún argumento que no se elimine por completo) para refutar al profesor Searle es que está afirmando:
o
Tal vez esté confundiendo estas dos afirmaciones, lo que no sería muy útil. Simpatizo con ambas afirmaciones, pero no convencería al profesor Searle.
J.Todd
infernal
Quentin Ruyant
Conifold
autoconcebido como el mal
usuario23209
EternaPropagación