La sala de chino de Searle recibe una entrada en forma de un lote de caracteres chinos y, dos veces después, recibe un lote de caracteres chinos. El segundo lote de chino viene con instrucciones en inglés para "correlar el segundo lote con el primero". El tercer lote de chino viene con más instrucciones en inglés "que permiten [Searle] correlacionar elementos de este tercer lote con los dos primeros".
Esperaría que un solo lote de instrucciones en inglés, que nunca se elimina, signifique el programa en sí, y luego un solo lote de chino para representar el "alfabeto" de caracteres chinos. Después de proporcionarlos, Searle puede usarlos para manipular un lote arbitrario de caracteres chinos (entrada) para producir un lote correspondiente de caracteres chinos (salida). En total, espero que el programa se proporcione con dos lotes de chino y un lote de inglés, y que el primer lote de chino y el inglés no se puedan cambiar.
Pero Searle usa tres lotes de chino y dos lotes de inglés, y hace múltiples correlaciones. ¿Por qué es esto?
En particular, ¿cuál es el propósito de cada lote respectivo de chino o inglés proporcionado a Searle a través de la puerta? ¿Alguno de los lotes es persistente y representa, por ejemplo, un código o segmento de datos para el programa?
Lo animo a leer el artículo muy original ( aquí hay una copia)... Si lee esto desde el principio, encontrará que el uso de Searle de tres lotes diferentes de símbolos es realmente una respuesta específica a la computadora de Roger Schank. programa que responde preguntas sobre historias que se le entregan .
Searle escribe:
Muy brevemente, y dejando de lado los diversos detalles, se puede describir el programa de Schank de la siguiente manera: el objetivo del programa es simular la capacidad humana para comprender historias. Es característico de la capacidad de comprensión de historias de los seres humanos que pueden responder preguntas sobre la historia a pesar de que la información que brindan nunca fue expresada explícitamente en la historia.
Así, por ejemplo, supón que te dan la siguiente historia: -Un hombre entró en un restaurante y pidió una hamburguesa. Cuando llegó la hamburguesa, estaba quemada y el hombre salió furioso del restaurante, sin pagar la hamburguesa ni dejar propina. "Ahora, si le preguntan: ¿Se comió la hamburguesa el hombre?" presumiblemente responderá: 'No, no lo hizo'.
Del mismo modo, si se le presenta la siguiente historia: '-Un hombre entró en un restaurante y pidió una hamburguesa; cuando llegó la hamburguesa quedó muy complacido con ella; y al salir del restaurante le dio una gran propina a la camarera antes de pagar la cuenta", y se le pregunta: "¿El hombre se comió la hamburguesa?", probablemente responderá: "Sí, se comió la hamburguesa". "
Ahora, las máquinas de Schank pueden responder de manera similar preguntas sobre restaurantes de esta manera. Para hacer esto, tienen una "representación" del tipo de información que los seres humanos tienen sobre los restaurantes, lo que les permite responder preguntas como las anteriores, dado este tipo de historias. Cuando a la máquina se le da la historia y luego se le pregunta a la pregunta, la máquina imprimirá respuestas del tipo que esperaríamos que dieran los seres humanos si se les contaran historias similares.
La "representación del tipo de información que los seres humanos tienen sobre los restaurantes" que Searle menciona en el último párrafo es lo que Roger Schank llamó un "guión". Desafortunadamente, Searle falló en este mismo punto del artículo al señalar eso... a pesar de que en su descripción posterior del escenario de la Habitación China, sí se refiere a estos 'guiones'... así que sin esos antecedentes sobre el trabajo de Schank, ¡Es comprensible por qué estarías confundido!
De todos modos, un "guión" es una especie de representación que representa cómo sería un evento "típico" de ir a un restaurante: entras, el camarero te sienta, miras el menú, pides, esperas la comida. , comer, recibir la cuenta, pagar y marcharse. Entonces, para la segunda historia, un guión básico como ese sugeriría que lo más probable es que el hombre se comió su hamburguesa, aunque la historia nunca lo dice explícitamente. Y más guiones, o guiones más refinados, podrían manejar el primer escenario: una especie de guión de mala experiencia en un restaurante.
Entonces, el programa de Schank usó estos tres conjuntos de símbolos: la "historia", el "guión" y las "preguntas". Esto es lo que replica Searle en su escenario de la Habitación China.
Dicho esto, está claro que Searle tiene la intención de hacer que su argumento funcione para cualquier programa de computadora. Y, desde esa perspectiva, realmente no tiene importancia el hecho de que haya tres lotes de símbolos en lugar de, digamos, uno, cuatro o dieciséis. Y lo mismo ocurre con los manuales en inglés que proporcionan las reglas para manipular esos símbolos: podría haber solo uno, o veintisiete, dependiendo de cómo quieras analizarlo.
Lo esencial es que los lotes de símbolos son como las representaciones con las que trabaja la computadora, y los manuales en inglés los programas que le dicen a la computadora cómo manipular esas representaciones. De hecho, esta es la razón por la cual las exposiciones típicas del escenario de la Sala China simplemente hablan de un libro de reglas para la manipulación de cadenas de símbolos, sin ninguna diferenciación adicional en ningún tipo de lotes.
Searle pronto simplificó su CRA. Los ideogramas chinos son la entrada de la computadora (por ejemplo, de sensores digitales) y los símbolos ingleses son el programa. La clave es que el significado de un símbolo no viene con el símbolo, y todo lo que la computadora obtiene es el símbolo (es un dispositivo puramente formal o sintáctico). Está para siempre prisionera en un universo de meras formas, impedida para siempre de acceder a los significados de las formas. Por lo tanto, las computadoras nunca entenderán lo que sucede en el mundo que las rodea (incluso nunca entenderán el lenguaje). La IA está condenada. Las computadoras nunca pensarán.
JD
JD
JD
bram28
bram28
JD