¿Searle's Chinese Room modela correctamente las computadoras?

Searle inventó un experimento mental, la Habitación China , que propone como un argumento contra la IA fuerte (que las máquinas piensan) pero no contra la IA débil (que las máquinas simulan el pensamiento). Tiene a un hombre en una habitación manipulando símbolos chinos a través de un libro de instrucciones. escrito en ingles.

Mi pregunta es, ¿De dónde viene este libro de instrucciones? Todos somos conscientes de que los humanos escriben el código que controla una computadora, o escriben código que escribe más código para controlar una computadora (es decir, un compilador), etc.

Mi aclaración (es decir, si lo es), del experimento mental de la habitación china de Searle, es tener un hombre (John) que no entiende chino en una habitación con dos ventanas. En una ventana, alguien (Mai) envía preguntas en chino, en la otra ventana se encuentra un hombre (Lao) que entiende chino; cuando se envía una pregunta, John toma la pregunta, camina por la habitación, la pasa por la ventana y se la da a Lao, quien la lee, la responde y luego John camina de regreso a la primera ventana y le devuelve la respuesta. al Mai.

Para Mai, parece que John entiende chino (incluso, aunque extrañamente se niega a hablarlo). Ella no sabe que él tiene un colaborador humano secreto, Lao.

Creo que esto modela lo que realmente sucede en una computadora, mucho más claramente. Pero, ¿es esta una analogía precisa?

Iba a publicar una respuesta, pero creo que esto encaja mejor como comentario. A todo el mundo le gusta atacar la habitación china de Searle porque es un experimento mental particularmente fácil de atacar. Incluso Searle ha admitido que no es tan bueno. Sin embargo, su posición de IA fuerte/débil tiene muy buenos argumentos (descritos en su libro; no estoy seguro de cuántas personas lo leyeron). The Chinese Room es solo un experimento mental periférico, no un principio central.
@Titarenco: ¿Cuál es realmente su posición sobre la IA fuerte/débil?
@MoziburUllah re:La posición de Searle sobre la distinción fuerte/débil: ¿el artículo original de 1983 de Searle, " Mente, cerebro y programas "? Además, el capítulo 2 de Minds, Brains and Science, "¿ Pueden pensar las computadoras? "
@Mr.Kennedy: eso fue cuando apenas había preguntas o respuestas en este sitio; hazte un favor y aprende a aceptar las críticas de forma constructiva y no de mala fe; gracias por encontrar esos refs.
No, no lo hago; pero tampoco pretender que no sabía la diferencia entre la IA débil y la IA fuerte: ¿es esta una forma de "postura"? ¿O simplemente "leyó rápidamente" este breve texto? Y dado esto, ¿cómo debo tomar su "sinceridad intelectual"? ¿Está buscando en mi archivo de preguntas y respuestas un punto débil para lanzar un ataque? Y si es así, ¿cómo se refleja eso en su "sinceridad intelectual"?
@MoziburUllah en resumen, simplemente leyó mal el argumento de Searle. The Chinese Room es una refutación de la teoría computacional de la mente, no un argumento contra la noción de que las máquinas pueden pensar. La distinción de IA fuerte/débil demuestra que los motores sintácticos (es decir, las máquinas de Turing) son insuficientes para lograr contenido semántico.
Además, Richard Feynman y Searle hacen el mismo comentario sobre la manipulación sintáctica con una analogía que involucra a alguien en una caja siguiendo un libro de reglas.

Respuestas (7)

Lo que usted indica es que el tomo que le permite a John simular la comunicación en chino es un recurso computacional bastante tremendo: uno que es muy similar en complejidad, asumiendo que sus reglas son lo suficientemente complejas para años de conversación con éxito de la misma manera que un ensayista chino podría - a simplemente consultar con una persona china. Y creo que tienes bastante razón. Aunque el libro en sí es un objeto estático, codifica reglas para simular un proceso interactivo (¡por su propia construcción!) y, por lo tanto, no se distingue mucho, en términos de su valor como recurso conversacional, de una persona china.

Obviamente, un libro no es una persona china consciente. Creo que podemos decir con cierta confianza que un libro por sí solo no es ningún tipo de entidad consciente. Pero un libro como el que prevé Searle sería un recurso informático de enorme poder; de un poder absurdamente enorme , de hecho. (Y alguien que fuera lo suficientemente paciente como para usarlo con éxito no se quedaría atrás en el cálculo, o al menos en la ejecución confiable de sistemas de reglas complicados). Uno de los principales errores de Searle es imaginar que incluso podemos concebir de manera realista cómo debería verse este libro (o su usuario) para lograr el propósito que él proyecta para él. Básicamente, tendría que ser tan complicado como una parte considerable del cerebro humano, otrocosa que no entendemos en ningún otro nivel que no sea esencialmente sintáctico.

Hay una razón por la que la conciencia es un misterio. No tenemos la primera pista de cómo entender el mundo de tal manera que podamos tener poder predictivo y también la capacidad de usar ese poder predictivo para describir en qué consiste la conciencia, además de experimentarlo nosotros mismos y describirlo . los síntomas de aparente conciencia en otros. Decir que las computadoras no pueden ser conscientes porque no conocemos ningún mecanismo que le permita surgir de la evolución mecánica también es resumir el problema que tenemos para comprender nuestra propia conciencia.

Scott Aaronson, profesor de informática en el MIT, tiene cosas muy similares que decir. El siguiente es un extracto de un conjunto de notas de una conferencia suya sobre inteligencia artificial , de un conjunto de conferencias excelente y mucho más amplio.

En los últimos cincuenta años, ¿ha habido nuevos conocimientos sobre la prueba de Turing en sí? En mi opinión, no. Ha habido, por otro lado, un no-insight, que se llama el Cuarto Chino de Searle. Se supone que esto es un argumento de que incluso una computadora que pasó la prueba de Turing no sería inteligente. La forma en que funciona es, digamos que no hablas chino. (Debbie [una colega chino-estadounidense de Scott] no está aquí hoy, así que creo que es una suposición segura). Te sientas en una habitación y alguien te pasa hojas de papel a través de un agujero en la pared con preguntas escritas en chino, y puede responder las preguntas (nuevamente en chino) simplemente consultando un libro de reglas. En este caso, es posible que esté llevando a cabo una conversación inteligente en chino, pero suponiendo que no entiende ni una palabra de chino.

[...] Al igual que muchos otros experimentos mentales, la Habitación China obtiene su beneficio de una elección engañosa de imágenes, y más concretamente, de ignorar la complejidad computacional. Estamos invitados a imaginar a alguien empujando hojas de papel sin comprensión o perspicacia, muy parecido a los tontos estudiantes de primer año que escriben (a+b) 2 =a 2 +b 2en sus exámenes de matemáticas. Pero ¿de cuántas hojas de papel estamos hablando? ¿Qué tan grande tendría que ser el libro de reglas y qué tan rápido tendría que consultarlo para llevar a cabo una conversación inteligente en chino en algo parecido al tiempo real? Si cada página del libro de reglas correspondiera a una neurona de (digamos) el cerebro de Debbie, entonces probablemente estaríamos hablando de un "libro de reglas" al menos del tamaño de la Tierra, cuyas páginas podrían ser investigadas por un enjambre de robots que viajan a corta distancia. a la velocidad de la luz. Cuando lo pones de esa manera, tal vez no sea tan difícil imaginar que esta enorme entidad de habla china, este dian nao , que hemos creado podría tener algo que estaríamos dispuestos a llamar comprensión o perspicacia.

Hay una razón por la que los teóricos de la literatura han excavado tanto de lo que en comparación puede parecer tan poco. Compare el corpus de la crítica sobre las obras de Shakespeare con el corpus de las propias obras, y por qué hablan del diálogo entre el texto y el lector. Bonita cita de Scott; Estoy completamente de acuerdo; aunque creo que está siendo un poco duro con Searle: un experimento mental puede cobrar vida propia en manos de otros.
He visto este desafío antes, y es tan malo que ni siquiera puedo llamarlo malo. ¿La afirmación que cita de Aaronson es que el modelo ensayado no puede ser correcto porque no exhibe la misma complejidad que esperaríamos que tuviera ? Eso plantea la pregunta, no se molesta en abordar el desafío de la comprensión sintáctica y simplemente asume que la semántica no puede existir a menos que tengamos algún límite mágico de relaciones complejas para esconderla.
@RyderDain: El punto es que si eres un naturalista metafísico, cualquier afirmación de que las computadoras se limitan a la manipulación sintáctica se aplica igualmente a nosotros. (Si algunas de las personas en la discusión son naturalistas metafísicos y otras no, entonces uno puede irse a casa, porque solo discutirán entre sí; como soy un naturalista, por lo tanto, discuto desde esa premisa). Partiendo de esa premisa, la única limitación que tiene el sistema libro-intérprete es la complejidad; caricaturizarlo simplemente como un burócrata con un simple libro de reglas básicamente enmascara la complejidad del sistema.
@NeilDeBeaudrap: Vayamos realmente al absurdo aquí: posiblemente podría formular exactamente el mismo cargo contra los defensores del heliocentrismo. ¡No es posible que pueda explicar las órbitas complejas que vemos desde la Tierra, y no se parecería a lo que creemos que ya sabemos, a menos que trates de incluir también la precesión galáctica en el modelo! Hay muchos buenos argumentos por los que falla el experimento de Searle, pero arrojar la falta de una complejidad presumiblemente suficiente no es uno de ellos.
@RyderDain: está claro que me malinterpretas. Estoy diciendo que si construyes un tomo así, sería notablemente complejo. No llego a la conclusión de que sea absurdo (aunque Searle no hace ninguna propuesta sobre cómo haríamos para hacer un libro así; ese no es su punto, por supuesto). Searle es quien piensa que es absurdo que el sistema libro-intérprete pueda ser un agente de habla china; Estoy diciendo que obviamente no es absurdo, ya que tanto el libro como el intérprete no se parecerían a ningún libro o intérprete del que tengamos experiencia.
@RyderDain: En cualquier caso, no estoy seguro de que podamos llegar a ningún lado con esta discusión a menos que me puedas describir por qué es absurdo que una computadora pueda tener conciencia, pero no absurdo eso (dado que estamos hechos de átomos e iones que interactúan de acuerdo con principios físicos, como lo hacen las computadoras) podemos.
@NieldeBeaudrap: Probablemente no podamos. No veo cómo se puede llegar a esa posición sin negar que existe la semántica, lo que me parece absurdo, o al menos señalar alguna cualidad que un cierto tipo de complejidad puede proporcionar como el lugar para buscar la conciencia.
@RyderDain: no niego que exista la semántica; Pero mi filosofía de las matemáticas es que el significado (para usar un término menos recargado) de los sistemas de notación surgen de las relaciones funcionales en ellos, y que la semántica no es más que el proceso de hacer asociaciones entre los símbolos y el significado funcional en ellos. una manera predictiva. Esto, creo, es más o menos lo que hacen los cerebros humanos con los símbolos, sonidos, expresiones faciales, etc., donde algunos pueden estar incorporados. No veo ninguna razón por la que un programa no pueda incorporar asociaciones semánticas de una manera similar a nuestros cerebros.
Aaronson ha malinterpretado el argumento de Searle, ya que si el programa de computadora se puede describir como "inteligente" o no, no viene al caso. Como se señaló en su artículo original, el programa de Schrank es posiblemente "inteligente" y un ejemplo de "IA débil", pero no es (léase: no puede ser) consciente. Sintaxis != semántica.
@Mr.Kennedy: La sintaxis es simplemente un mecanismo de codificación. Si cree que la forma en que la computadora procesa esa sintaxis para producir la función de conversación (de la cual un ser humano puede derivar significado) no incorpora la semántica, tendrá que decirme en qué cree que consiste la semántica y cómo es posible parecer obtener semántica sin tener realmente semántica. Además, idealmente, podrá hacerlo de una manera que sea al menos consistente con el naturalismo metafísico.
@NieldeBeaudrap No es una cuestión de mi posición. Searle ha escrito y comentado extensamente sobre este punto, por ejemplo, procesamiento de información relativo al observador versus independiente del observador. Ver Mentes, cerebros, programas , " Mentes, cerebros y computadoras ", " Mentes, cerebros y ciencia ", etcétera. En otra parte, Searle es explícito sobre sus puntos de vista sobre el "naturalismo biológico", así como sobre su metafísica descriptiva.

Estoy muy familiarizado con el argumento que hace John con su argumento de la habitación china, y es extremadamente consistente acerca de lo que quiere representar: que nuestro concepto de lo que significa entender el lenguaje es erróneo cuando tratamos de aplicar el término a cualquier máquina. que opera sólo sintácticamente. Es principalmente una refutación de la noción de que una prueba de Turing es suficiente para afirmar que existe una comprensión consciente.

Como administrador de sistemas durante el día y aspirante a estudiante de filosofía durante la noche, puedo decirles con plena confianza que sí, John Searle tiene razón cuando afirma que las computadoras funcionan puramente sintácticamente. Todo lo que hacen es manipular símbolos, y todavía necesitamos un agente humano para imbuir esos símbolos con significado. Aún así, la gran lección de nuestra era es darse cuenta de que la sintaxis por sí sola puede tener un poder tan increíble.

El problema con el ejemplo que diste arriba es que elude el punto mismo de la reducción que hace la Sala China.

En el ejemplo original, Mai enviaría su respuesta a una gran caja grande y recibiría respuestas inteligibles de esta caja (cuyo ocupante es agnóstica) en una cantidad de tiempo razonablemente rápida. Entonces, desde la perspectiva de Mai, la caja ha pasado la prueba de Turing: Mai cree que un ser consciente la ha entendido. Del lado de John, tiene un conjunto de cajones que contienen todo tipo de respuestas y frases para diferentes preguntas, y la guía que lleva simplemente lo dirige a un cajón apropiado según el mensaje chino que recibe.

La intuición a la que Searle se aferra aquí es que John no entiende chino , por lo que la creencia de Mai de que sus palabras están siendo entendidas por un ser consciente debe ser incorrecta. Tratar de reproducir el experimento mental con Lao jugando el papel del respondedor consciente y comprensivo, por lo tanto, solo elude todo el argumento sin abordar el problema que presenta.

Hay muchos desacuerdos profundos en este punto: podríamos defender a Mai afirmando que John+Box+guidebook juntos forman un sistema que entiende chino, por ejemplo. El mismo Searle niega que esta posición sea coherente, pero no todos compran su opinión. También está el problema que plantea Daniel Dennett, que Searle comete un error de categoría al usar la palabra "comprensión". En opinión de Dennett, la semántica es innecesaria para comprender el lenguaje, y las operaciones sintácticas son todo lo que hay para explicar la conciencia.

También podría intentar nivelar la acusación de que el error de Searle es pensar que incluso podría haber un conjunto de reglas a las que podría reducirse un idioma vivo como el chino. Sin embargo, este argumento tiene la consecuencia de que niega cualquier posibilidad de que una prueba de Turing pueda tener éxito. Como resultado, nivelar esta acusación requiere que ya esté de acuerdo con los resultados del experimento mental: que seguir las reglas por sí solo no puede explicar nuestra comprensión normativa de lo que constituye "comprensión".

¡Definitivamente la respuesta más clara! Agregaría que no he visto una respuesta coherente a una crítica al estilo de Dennett, a saber, que la intuición simplemente nos engaña sobre lo que es "comprender". Es decir, cuando manipulamos símbolos de varias formas complicadas (sin ser conscientes de los pasos, pero tal vez con alguna métrica de predicción de calidad que nos permita decir que probablemente estamos haciendo un buen trabajo), lo llamamos comprensión. Si una máquina hace lo mismo, decimos que es un proceso mecánico sin comprensión. (Desde este punto de vista, por ahora somos mucho mejores que las computadoras, pero es simplemente una diferencia cuantitativa).
@RexKerr Tengo que estar en desacuerdo: la respuesta estándar, que la crítica de Dennett es válida solo si la comprensión no tiene una relación de facto con la semántica, es perfectamente coherente. Solo es incoherente si ya niegas, como lo hacen Dennett y otros, que las experiencias cargadas de qualia son una explicación válida para cualquier estado mental que identificamos cuando decimos "x entiende p " . No voy a poner un pie en ese. Si prefieres tenerlo en el chat, hagámoslo afuera.
De hecho, el chat sería el lugar. Me gustaría señalar de antemano que las experiencias cargadas de qualia han sido casi irremediablemente engañosas en la comprensión de la base de la percepción, y no hay razón para esperar que sean mejores para darnos una idea de la "comprensión" y el "pensamiento".
@Dain: De hecho, acepto la afirmación de Searles: que las computadoras no pueden aprender/comprender un idioma en el significado significativo del término; Quería desenvolver la reducción de Searles para mostrar lo que estaba pasando, la comunicación entre dos mentes conscientes, porque para mí (y como programador de C++ en algún momento, y programador de ensamblaje en mi malgastada juventud, no tienen magia para mí) eso es exactamente que esta pasando. Pero también tienes razón en que solo genera confusión; Searles reductio es una mejor ilustración, ya que físicamente se parece más a lo que hace una computadora: tiene un folleto de instrucciones.
@Dain: En la autobiografía de Bryan Magees, escribió que una vez que comenzó a comprender a Schopenhauer (o fue Heidegger), fue como si estuviera parado junto a él, hablándole. Ese es el tipo de cosas que quería ilustrar.
Hay un problema muy profundo con la afirmación de que necesitamos mentes conscientes para dar significado a los símbolos: se supone que tienes algún tipo de conocimiento sobre cómo lo hacemos, y que esto no se parece a nada que pueda hacer una computadora.
@Beaudrap: No lo sigo: creo que uno requiere mentes conscientes para dar significado a los símbolos, aunque no tengo evidencia que ofrecer. No creo que se siga entonces que debemos tener conocimiento de cómo sucede esto.
@MoziburUllah: está planteando la pregunta: está asumiendo que ningún sistema informático puede tener una mente consciente, y no puede afirmar razonablemente que una computadora no puede tener una mente consciente sin postular un modelo de cómo podemos tener una mente consciente .
@Beaudrap: Es una creencia, más que una suposición. Entiendo tu argumento.
+1 para "John+Box+guidebook juntos hacen un sistema que entiende chino". Siempre pensé que el error en el argumento de la habitación china era obvio, me alegra verlo reiterado aquí. Y gran respuesta en general.

Aunque creo que Searle está equivocado, no creo que hayas encontrado el problema. Está postulando que la entrada contiene el contenido, no solo el conocimiento del chino en forma destilada , especialmente con el ejemplo de caminar por la habitación. Pero muchos algoritmos de aprendizaje automático simplemente toman muchos ejemplos y luego pueden generar un comportamiento apropiado (dentro de los límites, por supuesto). Así que, una vez entrenados, no tienen contenido, ni siquiera destilaciones proporcionadas por humanos. Es cierto que las propiedades relevantes de, digamos, chino, están implícitas en los datos de entrada; pero, sin embargo, no se parece en nada a lo que intuimos que es el pensamiento, ni es el truco obvio de "yo estoy caminando" con mensajes a través de la habitación que usted propone.

(Searle propuso el experimento mental en un momento en que se pensaba que la IA basada en la lógica iba a tener mucho éxito, lo cual no ha sido. El experimento mental no se ajusta del todo a la práctica actual).

Creo que me has entendido mal. Acepto la afirmación de Searles. Estoy desenvolviendo su reducción. No busco su error, como tú dices. Estoy postulando que la comprensión ocurre en una conciencia y quería mostrarlo de una manera más directa. Y no creo que las computadoras, sin importar cuán sofisticadas se vuelvan para simularlo, sean conscientes en el sentido significativo de la palabra. La naturaleza es más sutil que eso. ¿Está diciendo que la práctica actual ha ido más allá del modelo de Turing, que ilustra el experimento de Searles?
@MoziburUllah: hay dos partes en el argumento de Searle: (1) las computadoras simplemente calculan y (2) somos conscientes, lo cual es diferente. Ha alterado (1) al hacer que la computadora ni siquiera calcule , sino que simplemente actúe como un conducto para la información completamente formada entre entidades conscientes. Pero lo que está en duda en estos días es que la computación y la conciencia son de un tipo diferente. Para ser instructivo, debe llevar la informática lo más cerca posible de la conciencia y demostrar que todavía es inadecuada. Observar un pájaro te hará dudar de que una bandada esté hecha de pájaros.
@Kerr: pero no estoy tan seguro, es posible ocultar cosas empujándolas más cerca, a lo largo de una dimensión; pero todavía están tan lejos en otro.
@MoziburUllah - De hecho, pero luego quieres discutir exclusivamente sobre esa otra dimensión . El argumento de Searle es más o menos así: puedo ver videos de YouTube de gatos en mi computadora. Tengo un reloj LCD de la década de 1990, en el que no puedo ver videos de YouTube. Hay una diferencia de tipo entre mi computadora y mi reloj; Para ver esto, considere reducir el reloj a un solo elemento LCD controlado por un transistor, que una computadora mueve de un lado a otro y enciende y apaga para construir una imagen. Claramente, la computadora está haciendo todo el trabajo, lo que demuestra que las computadoras son de un tipo diferente.

¿No es eso más bien lo que es/hace un correo electrónico? ¿Transportando información no traducida de A a B, exactamente de la forma en que se ingresó la información? Pero ese es exactamente el punto que plantea Searle con su analogía: el hombre que no habla chino pero que en realidad actúa (considerando solo el resultado de sus acciones) como si lo hiciera, porque tiene un libro de reglas que le dice cómo hacerlo. Si no me estoy perdiendo nada, entonces su analogía carece de premisas/suposiciones muy importantes.

Debo agregar que no sé casi nada sobre cómo funcionan las computadoras, pero dediqué algo de tiempo a ese capítulo (es decir, solo estoy hablando del argumento de Searle, no de las computadoras en general).

Me interesa saber cómo consiguió ese libro de instrucciones. Lo escribió alguien que sabía chino.
No he leído a Searle, solo conozco su argumento de oídas (wikipedia); No estoy siendo crítico con la conclusión de Searles, sino siendo más expansivo con la esperanza de hacer que la conclusión sea más obvia; pero de hecho tal vez lo hace más confuso...
@MoziburUllah Sí, alguien lo hizo, pero eso solo nos permite decir que hay alguien que habla chino, no nos dice nada sobre la capacidad de la computadora para aprender chino . Las personas que escribieron ese libro son las que escribieron un programa que ejecuta comandos.
@Iphegenie: todo lo que estoy haciendo realmente es reemplazar ese folleto de instrucciones con la persona que lo escribió. Personalmente, estoy de acuerdo con la conclusión de Searles. Pero el aprendizaje/comprensión simulado puede ser lo suficientemente bueno.
@MoziburUllah Estás simplificando demasiado el enfoque en imitar el conocimiento mediante la actuación de comandos. Sí, caminar de A a B, eso es lo que puede hacer una computadora. Aprender a hablar chino no puede, porque aprender un idioma es más que actuar de acuerdo con un guión, y eso es todo lo que dice Searle.

¿De dónde viene este libro de instrucciones?

una hipótesis

Antes de la inauguración oficial de la Gran Sala China, John tenía un libro diferente y una gran pila de preguntas y respuestas de la vida real en chino: el Corpus chino completo . Este otro libro instruyó a John sobre cómo, utilizando la pila de preguntas como un conjunto de entrenamiento, escribir el libro que está usando actualmente para hacer que la habitación parezca estar hablando con Mai. La persona que escribió el primer libro tampoco sabía nada de chino, el conocimiento del chino en la habitación surgió de un análisis exhaustivo del uso del idioma en la vida real.

una variación con Lao

Una estratagema similar, pero involucrando a tu hablante chino oculto: Lao. Al igual que antes, John tiene un metamanual de instrucciones sobre cómo hacer que la sala entienda chino, pero algunas de las reglas del manual hacen que John interactúe con Lao. Estas interacciones no son tan simples como pasar tabletas de y a Mai, no, John tiene que mantener registros meticulosos de todo lo que ingresa, y cualquier respuesta que haga Lao y hace algunas manipulaciones arcanas de los registros (de hecho, construye el Corpus chino incompletoa medida que avanza). Entre esas manipulaciones está predecir lo que diría Lao, calcular la confianza de Room de que la predicción es precisa y calificar las predicciones en función de la respuesta real. Eventualmente, cuando la confianza de Room es más alta que cierto umbral, Lao queda fuera del circuito para una transacción o dos, y gradualmente su participación en el proyecto se desvanece al mínimo, solo para controlar la calidad de vez en cuando.

Tengo la impresión de que esta respuesta te lleva de vuelta a Platón, quien sugiere que la "cosa real" ideal proyecta su "sombra" en el "mundo" (es decir, en el libro de instrucciones). Pero luego, la "cosa real" es de alguna manera también responsable del significado y la comprensión que surge del uso del libro de instrucciones. Curiosamente, para todos los ejemplos en el documento inicial sobre el aprendizaje de PAC, había (implícitamente) una "cosa real" ideal. Sin embargo, creo que el autor hizo esto para poder probar algunos buenos teoremas, no porque hubiera sido necesario.
La única parte del esquema que es remotamente "ideal" es "el conocimiento del chino". El resto es real (no en sentido platónico, sino físico, material): la habitación, John sentado en la habitación, un libro de instrucciones que escribió John, un libro de instrucciones que John siguió para escribir un libro de instrucciones, una pila de ejemplos etc. El "conocimiento de chino" parece menos tangible, pero al final es solo ese libro de instrucciones + el estado de los armarios con tablillas chinas.
@artm: 'La persona que escribió el primer libro no sabía nada de chino ' todavía le está dando a John un folleto de instrucciones, pero esta vez para aprender idiomas: entendió y examinó suficientes idiomas humanos para deducir una (supuesta) teoría general del lenguaje adquisición y manipulación. Solo mueve el argumento de Searles un paso más abajo. No veo una diferencia significativa. ¿Está argumentando a favor o en contra de la posición de Searles (la comprensión no es sintaxis/mecanismo)? No estoy hablando de su ilustración.
No estoy tratando de argumentar a favor o en contra de la posición de Searle, solo tratando de imaginar de dónde podría haber venido el libro en función de cómo los problemas de software similares a menudo se resuelven hoy en día (re: la respuesta de Rex Kerr). La formulación original se basa en el estado actual de CS, mis variaciones son más parecidas a lo que enseñan en el aprendizaje automático de hoy. Si la sala "entiende o no chino" en un sentido u otro todavía está abierto a debate, y mi Sala China debería estar sujeta a todas las críticas tradicionales de la variante clásica.

Una vez conocí a un físico que ocupaba la posición fuerte de IA. Tenía 16 años, no había encontrado este puesto antes y me parecía completamente absurdo. Aun así, ya no estoy convencido de que esta posición sea absolutamente absurda, todavía no entiendo por qué todo el mundo trata de refutar a John Searle. Mi sensación es que la configuración del experimento mental de John Searle se puede traducir de manera útil al contexto de las computadoras modernas:

Una computadora moderna ofrece una cierta cantidad de memoria, más precisamente una jerarquía de memoria con tamaño creciente pero velocidad de acceso decreciente. También ofrece un cierto poder de procesamiento, más precisamente un grupo de unidades de procesamiento paralelas con un número creciente pero una velocidad de interconexión decreciente. Esta arquitectura básica normalmente es independiente de los programas y datos de entrada que se utilizarán para generar resultados útiles con los recursos proporcionados por esta computadora.

En el experimento mental de la habitación china de Searle, se supone que John asume el papel de esta computadora y proporciona la memoria y el poder de procesamiento para el cálculo. En realidad, se supone que solo proporciona la memoria más rápida, mientras que la memoria realmente enorme pero lenta es externa a John en forma de papel y lápiz y el libro "mágico". Pero incluso si John asumiera el papel de la cinta "completa" de una máquina de Turing, ¿por qué deberíamos esperar que él (o la cinta) entienda la instancia del problema en la que está trabajando actualmente la máquina de Turing? Bueno, una de las razones es que para una máquina de Turing universal, el programa en sí también estaba escrito en la cinta, por lo que la cinta tenía acceso a toda la información relevante a lo largo del tiempo (excepto el significado y la interpretación de su salida final, pero dudo que esto es importante aquí).

Mi pregunta es, ¿De dónde viene este libro de instrucciones? Todos somos conscientes de que los humanos escriben el código que controla una computadora, o escriben código que escribe más código para controlar una computadora (es decir, un compilador), etc.

En la traducción anterior al contexto de las computadoras modernas, el libro de instrucciones es parte de la entrada. Este podría ser un punto importante, porque superficialmente parece que el único aporte proviene de Mai, quien envía las preguntas en chino.

Entonces, ¿de dónde viene la entrada? Supongo que la entrada proviene del entorno actual y pasado. Sin embargo, no podemos realmente mirar lo suficientemente lejos en el pasado para saber de dónde vino la "semilla inicial". Y además, tenemos la teoría de la evolución, que sugiere que la "semilla inicial" podría haber sido menos importante de lo que parece. Lo que me lleva a otra posición que me pareció completamente absurda cuando la encontré por primera vez. Alguien me sugirió que este mundo podría haber sido creado por extraterrestres. Encontré esto ridículo, porque plantea las preguntas de quién creó a los extraterrestres en primer lugar. Sin embargo, después de ver un clip en el que Richard Dawkins consideró seriamente esa posibilidad, debo admitir que, de hecho, podría ser una posición consistente.


Incluso si no está directamente relacionado con la pregunta, ¿cuál es mi suposición de cómo pueden surgir la comprensión y el significado durante cálculos complicados? Podría estar relacionado con la estructura del espacio y el tiempo, donde la comunicación de información entre diferentes puntos es necesaria durante un cómputo (porque la cantidad de información almacenada cerca de cualquier punto dado es finita) y toma una cierta cantidad de tiempo finita. La consecuencia es que los mensajes comprimidos con un significado más o menos claro en el contexto del cómputo se intercambian y entienden (ya veces se recuerdan para referencia posterior) durante el curso de un cómputo. (Y debido a que es poco probable que la computación que nuestro universo con su estructura de espacio y tiempo parece ejecutar termine pronto, no hay necesidad de preocuparse por el significado y la interpretación de su resultado final).

No estoy tratando de refutar a Searle. ¡Quizás porque todos están haciendo esto, se da por sentado que esto es lo que estoy tratando de hacer! Me alegro de que haya notado que "de dónde proviene el folleto de instrucciones" es una pregunta importante. En el contexto de las computadoras siempre podemos rastrear esto; y en ese contexto podemos decir, en un sentido importante, es parte de la entrada. En el contexto de los humanos, no estoy tan seguro. Por supuesto, la evolución es parte de la respuesta. Esto nos lleva a un enigma sobre el universo: qué 'creó' las leyes del universo que permitieron que ocurriera la evolución.
He leído sobre las especulaciones de Lee Smolins sobre esto, pero en mi opinión, empuja el problema solo un paso más atrás. Decir que me son dados, o tal como son, para mí, no es diferente cuando los primeros pueblos mirando el curso del sol y las estrellas a través del cielo, dijeron que es así. Y no se aplicaron principios más profundos, o si lo hicieran, no podríamos conocerlos. Fue más de cuatro milenios después que se encontró el principio (datándolo de la astronomía sumeria)

Si miramos a los animales, los humanos son inteligentes, los simios, los cerdos, los perros, los caballos son inteligentes, muy posiblemente las gallinas. Si las moscas o las hormigas son inteligentes es muy discutible, y una bacteria o un virus, de ninguna manera (en mi humilde opinión).

El argumento de Searle sugiere que una "computadora" operada por un músculo humano podría simular una conversación inteligente en chino, y seguramente todos estamos de acuerdo en que no hay forma de que la habitación de Searle pueda ser inteligente. ¡Seguramente también todos estamos de acuerdo en que no hay forma de que la habitación de Searle pueda simular una conversación inteligente en chino! Simplemente no es un dispositivo lo suficientemente avanzado para cualquier posibilidad.

De eso se supone que debemos concluir que una computadora altamente avanzada no puede "entender" el texto chino. Esto es como decir que debido a que la bacteria no puede entender chino, por lo tanto, un humano no puede. Esta no es una conclusión razonable.

Una computadora moderna podría hacer lo que hace la habitación de Searle unas 10 mil millones de veces más rápido, ignorando el hecho de que el hombre en la habitación de Searle no estará dispuesto a trabajar más de 1/3 del tiempo, lo que significa que una respuesta que una computadora moderna podría ceder en un segundo, le llevaría a la habitación de Searle mil años. En este momento no somos capaces de crear un libro de reglas que haga posible la conversación china. Para cuando podamos crearlo, las computadoras serán mil veces más rápidas.

¿Alguien estaría convencido de que la habitación de Searle, que no es solo una habitación sino el interior de un enorme rascacielos, en funcionamiento durante un millón de años, no puede hacer algo equivalente a la "comprensión" humana?

*¿Alguien estaría convencido de que la habitación de Searle, que no es solo una habitación sino el interior de un enorme rascacielos, en funcionamiento durante un millón de años, no puede hacer algo equivalente a la "comprensión" humana?" -- Decir que se ha estado ejecutando un programa mucho tiempo en una computadora grande y poderosa no ayuda. Por la independencia del sustrato, o la realizabilidad múltiple, no importa qué tan rápido se ejecute un cálculo. Una máquina de Turing ejecutándose en una supercomputadora o en un largo rollo de papel no hace ninguna diferencia en absoluto. en términos de lo que puede hacer.
No me parece que esta sea una versión muy convincente de Searle, porque parece pasar por alto el punto de Searle por completo. El punto analógico principal es que escupir la respuesta basada en una tabla de búsqueda no parece ser en absoluto lo que es "comprender", incluso si obtiene la respuesta correcta. Siempre que esa sea la operación principal (o al menos la única) que la computadora está usando para hablar chino, en realidad no lo está hablando. Su respuesta parece ser "pero, ¿y si la computadora fuera más poderosa para buscar cosas que las que estamos acostumbrados?"