La Sala china de Searle básicamente argumenta que un programa no puede hacer que una computadora sea 'inteligente'.
Searle resume el argumento como
Imagina a un hablante nativo de inglés que no sabe chino encerrado en una habitación llena de cajas de símbolos chinos (una base de datos) junto con un libro de instrucciones para manipular los símbolos (el programa). Imagine que las personas fuera de la sala envían otros símbolos chinos que, sin que la persona de la sala lo sepa, son preguntas en chino (la entrada). E imagine que siguiendo las instrucciones del programa, el hombre en la habitación puede repartir símbolos chinos que son las respuestas correctas a las preguntas (la salida). El programa permite que la persona en la sala apruebe el Test de Turing para comprender el chino, pero no entiende ni una palabra de chino.
¿Cuáles son los contraargumentos? Incluido el estándar y no tan estándar. Esta noción de 'inteligencia' me intriga y deseo ver lo que otras personas han escrito y dicho. Señalame tu contraargumento favorito.
He leído la respuesta de Levesque "¿Es suficiente para obtener el comportamiento correcto?" ( http://ijcai.org/papers09/Abstracts/241.html ) (documento completo aquí ). Como Levesque es un investigador de IA, me gustaría ampliar mi apreciación de los contraargumentos de otros campos.
El experimento de la habitación china de Searle no tiene ningún sentido, pero se requiere algo de contexto para sacar a la luz la contradicción inherente a su argumento. En el momento de escribirlo, estaba intentando luchar contra una posición extrema entre los teóricos de la IA que suponían que todas las propiedades de la comprensión, independientemente de lo que estemos de acuerdo en ello, podrían reducirse o capturarse mediante una computadora lo suficientemente poderosa que actuara sobre símbolos al métodos formales, es decir, matemáticas.
En pocas palabras, el experimento CR supone que es posible que un hablante de chino transmita mensajes significativos en su idioma nativo a un hombre en la habitación que no lo habla y que responda de manera inteligente o significativa siguiendo un proceso puramente algorítmico o formal. , lo que sea que eso implique, es decir, usar una tabla de búsqueda, seguir reglas preestablecidas, etc.
Esta es una forma extraña de argumentar a favor de la intuición, o más bien de que la intuición tiene la propiedad de no reducibilidad. Porque si el hombre en la habitación puede comunicarse con el hombre en el exterior a pesar de su falta de comprensión, y la brecha semántica se salva mediante un proceso completamente formal, entonces, ¿cómo es que esto se reduce a la sintaxis? Exactamente contra lo que Searle quiere argumentar. Una vez más, el hombre de afuera entiende lo que entra y lo que sale de la habitación, y el único medio que tiene el hombre para comunicarse es seguir una receta mecánica para escribir.
La entrada de la Enciclopedia de Filosofía de Stanford sobre el experimento mental de la "Habitación china" de Searle identifica tres categorías principales de objeciones y entra en detalles sobre cada una (y proporciona citas generosas). Aquí está su resumen de alto nivel de las categorías de posibles respuestas al argumento. :
(1) Algunos críticos admiten que el hombre en la habitación no entiende chino, pero sostienen que al mismo tiempo hay otra cosa que sí entiende. Estos críticos se oponen a la inferencia de la afirmación de que el hombre en la habitación no entiende chino a la conclusión de que no se ha creado ningún entendimiento. Puede haber entendimiento por parte de una entidad más grande o diferente. Esta es la estrategia de The Systems Reply y Virtual Mind Reply. Estas respuestas sostienen que podría haber entendimiento en el escenario original de la Sala China.
(2) Otros críticos aceptan la afirmación de Searle de que simplemente ejecutar un programa de procesamiento de lenguaje natural como se describe en el escenario CR no crea ningún entendimiento, ya sea por parte de un sistema humano o de una computadora. Pero estos críticos sostienen que se podría entender una variación del sistema informático. La variante podría ser una computadora integrada en un cuerpo robótico, que interactúa con el mundo físico a través de sensores y motores ("La respuesta del robot"), o podría ser un sistema que simule el funcionamiento detallado de un cerebro completo, neurona por neurona ( “La Respuesta del Simulador Cerebral”).
(3) Finalmente, algunos críticos no conceden ni siquiera el punto estrecho contra la IA. Estos críticos sostienen que el hombre en el escenario original de la Habitación China podría entender chino, a pesar de las negativas de Searle, o que el escenario es imposible. Por ejemplo, los críticos han argumentado que nuestras intuiciones en tales casos no son confiables. Otros críticos han sostenido que todo depende de lo que uno entienda por “comprender”, puntos discutidos en la sección sobre la respuesta de la intuición. Otros (p. ej., Sprevak 2007) se oponen a la suposición de que cualquier sistema (p. ej., Searle en la sala) puede ejecutar cualquier programa informático. Y finalmente algunos han argumentado que si no es razonable atribuir comprensión en base al comportamiento exhibido por la Sala China,
Me gusta bastante el capítulo del libro Filosofía de la IA de Jack Copeland sobre la habitación china. A pesar de que es un libro introductorio, entra en bastante amplitud y profundidad. El capítulo tiene un resumen de los argumentos en contra de la sala china y las réplicas de Searl y sus amigos, además de las contrarréplicas. El resto del libro también establece muy bien el contexto de las discusiones y definitivamente analiza las diversas formas en que las personas entienden y usan el término 'inteligencia' en los debates de IA (puede encontrar algunos que le gusten)
Un problema no demasiado estándar que tengo con el argumento es su forma de argumento general (problema no estándar porque no es específico del argumento de la habitación china).
La habitación china es un argumento modal que se despliega mucho en la filosofía de la mente. Ejemplos de otros argumentos modales incluyen cosas como el argumento de los zombis de David Chalmers, el argumento del espectro invertido, incluso el cerebro en tanques y el argumento del demonio malvado de Descarte, etc. Generalmente son de la forma: es posible que a pesar de la apariencia de X no podamos saber*que X* debido a una interpretación alternativa igualmente plausible de la situación que excluye a X). En este caso, es posible que incluso si las instrucciones permiten que la caja participe de manera convincente con un probador chino de Turing, es más que igualmente plausible que no se esté produciendo un entendimiento real (establecido a escondidas por el hecho de que todos teníamos un acuerdo previo de que la persona adentro no entiende chino, y es el único que está haciendo algo)
No estoy seguro de qué tan en serio tomar los argumentos modales en general, porque siento que son invariablemente engañosos y, a menudo, conducen a la infructuosidad debido a la forma en que se organizan las cosas. Un argumento modal exitoso no le dará mayor razón para creer en cualquiera de las opciones, y la retórica generalmente se establece de tal manera que olvida que una de las opciones consiste en escenarios naturales y familiares (sentarse junto al fuego, ver a una persona, recibir qualia roja) y el otro escenario que es especulativo (engañado por demonios malvados, viendo un zombi, recibiendo qualia verde en lugar de leer). Por lo tanto, cada campo no puede involucrar a la otra parte para tener una discusión fructífera porque cada uno tiene una razón para creer que el argumento de la otra persona es defectuoso, sin un criterio real para evaluar ninguno de los lados de la afirmación. Furtivo en mi humilde opinión.
Los argumentos de la habitación china de Searle se basan inicialmente en la suposición de que, si hay un sistema inteligente, algún componente del sistema debe ser inteligente. Llevando esto un largo camino hacia una conclusión, cada leptón y quark en el Universo debe ser inteligente hasta cierto punto. Las alternativas a esa conclusión son (a) no hay nada inteligente en el Universo, o (b) la inteligencia es un fenómeno emergente. Yo me quedo con este último.
Searle luego intenta responder a todas las objeciones (como la inteligencia emergente) entregándose a una discusión más o menos relevante antes de afirmar que se reduce a la Habitación China original, que demostró que no era inteligente. Este es un excelente ejemplo de petición de principio, en la definición clásica (suponiendo que la proposición esté probada).
La otra discusión más relevante es la afirmación de que una computadora no podría ser inteligente en el sentido humano sin tener sentidos de tipo humano para sentir cosas como un humano. ¿Cómo puede una computadora saber qué es una hamburguesa sin comérsela? Esta parece una buena línea de argumentación, pero Searle no la persigue.
Searle afirma, sin apoyo, que la inteligencia debe ser biológica y afirma que sabemos que la intencionalidad es de naturaleza biológica. No he visto este reclamo en ningún otro lugar, así que no creo que lo sepamos.
El OP quiere saber qué contraargumentos se han hecho contra el argumento de la habitación china.
En Minds, Brains and Programs, John Searle responde a seis contraargumentos. He aquí una paráfrasis de ellos:
Los Sistemas Responden. El ser humano que no entiende chino cuando ejecuta los pasos del programa es solo una parte del sistema más grande que sí entiende.
La respuesta del robot. Coloque la computadora que realiza el procesamiento formal del lenguaje dentro de un robot.
La respuesta del simulador cerebral. Escriba un programa que simule los disparos de neuronas reales en el cerebro de un hablante nativo de chino.
La respuesta combinada. Cree un programa que combine las tres respuestas anteriores.
Las otras mentes responden. Tampoco sabemos si otras personas entienden el chino, excepto por su comportamiento.
La respuesta de muchas mansiones. Eventualmente seremos capaces de construir dispositivos que entiendan.
Searle, John. R. (1980) Mentes, cerebros y programas. Ciencias del comportamiento y del cerebro 3 (3): 417-457 http://cogprints.org/7150/1/10.1.1.83.5248.pdf
Por ejemplo, las objeciones de Daniel Dennett. Dennett llama al experimento mental de Searle una "muleta de auge", algo que dificulta el pensamiento, a diferencia de las bombas intuitivas, que se consideran útiles.
Dennett afirma que el argumento de Searle está redactado de una manera específica para limitar sus opciones, por lo tanto, una "muleta de auge". Searle asume una IA basada en reglas simbólicas altamente avanzada . Quiere que creas que no puede entender el significado porque simplemente ensambla un símbolo de entrada a un símbolo de salida de acuerdo con el libro de reglas. Pero, inmediatamente, nos enfrentamos a objeciones.
En primer lugar, según Dennett, el argumento muestra la falta de comprensión de Searle sobre cómo se logran las computadoras y la computación. Tomaría miles de millones de años de escribir código para que un sistema basado puramente en reglas* pueda obtener una conversación significativa a nivel humano. ¿Cuántas reglas tendría que tener? Uno tiene que construir reglas lo suficientemente convincentes para que cada respuesta sea como si una persona real produjera una respuesta, dirigiendo la conversación en chino, en un nivel conversacional. Trate de construir todas estas reglas utilizando la lógica simbólica; sería un número increíble.
En segundo lugar, incluso si logramos el dispositivo que utiliza un sistema basado en reglas y dicho sistema puede hablar sobre películas, clima, cocina griega y hacer preguntas personales, ¿no implementamos todo el proceso de cognición humana, junto con la comprensión? El "sistema" que presenta Searle no puede simplemente ensamblar entrada a salida porque tiene que depender de miles de millones de años de conjuntos de reglas sobre qué decir y qué no decir. Tiene que sacar inferencias lógicas que involucren grandes porciones de datos empíricos sobre el mundo. Tiene que tener sentido común. Y si lo hace, no tiene problemas para comprender nada, incluida la semántica. Este tipo de sistema de reglas sofisticado es imposible de localizar en algunas cajas rudimentarias con instrucciones. Lo que se necesita es computación para hacerlo de manera eficiente, si es que se necesita.
Sobre la base del argumento de Dan, está claro que John Searle quiere que te olvides de una parte crucial de lo que hace el sistema; dónde y cómo deben estar sucediendo las cosas reales. Si solo fuera el caso del ensamblaje manual banal de entrada a salida, no habría posibilidad de una conversación significativa a nivel humano. Literalmente, nadie afirma que un programa simple que imprime "Hello World" entienda la semántica. De la misma manera, un hombre en la habitación no puede tener una conversación convincente. Además, una conversación que no le toma años procesar, si está usando cajas de información de miles de millones de años. Este es un cargo de posibilidad natural. Searle quiere que imagines algo trivial y saques conclusiones obvias de ello, que dicho sistema no puede entender, por lo que la "IA fuerte" en conjunto es inverosímil. Sin embargo, para pasar algo parecido a una prueba de Turing, no es trivial. Toda la discusión del sistema de conjunto de reglas, que tiene que existir aparte del ensamblador de voz, está casi "borrada" del argumento de Searle.
De lo contrario, ¿de qué manera la IA obtiene las reglas? Por supuesto, la única opción es este gigantesco conjunto de reglas escritas durante miles de millones de años. ¿Cómo se puede exprimir ese conjunto de reglas para que la obtención de información sea factible? Sólo mediante el uso de una computadora. Si una computadora se usa prácticamente, entonces la computadora puede producir comprensión.
Al cambiar su atención a un ensamblador tonto, Searle le hace olvidar dónde debe estar ocurriendo el trabajo real, es decir, en la unidad computacional compleja responsable de (y capaz de) la cognición a nivel humano porque, de lo contrario, no podría pasar una prueba de Turing. del cual el experimento de Searle es una variante. El hablante del otro lado debe estar bien convencido de que está hablando con una persona real.
*- A diferencia de, por ejemplo, el sistema de aprendizaje automático.
En cuanto a su interés declarado, considere los comentarios de Searle aquí sobre: la ambigüedad de la "inteligencia"
La "inteligencia" también es ambigua porque es ambigua entre la inteligencia real, honesta para John, independiente del observador, como, por ejemplo, cuando un ser humano está pensando en algo, y el sentido de inteligencia metafórico derivado, relativo al observador, por ejemplo. , cuando hablamos de mi calculadora de bolsillo o computadora como mostrando inteligencia.
La gente de paja , sin embargo, es fácil de derribar:
La Sala china de Searle básicamente argumenta que un programa no puede hacer que una computadora sea 'inteligente'.
Searle no está argumentando "que un programa no puede hacer que una computadora sea 'inteligente'" (y esto en cualquier sentido en el que se refiera a programa, inteligente o computadora). La habitación china de Searle demuestra que la semántica no es intrínseca a la sintaxis. Gran diferencia.
El argumento de la habitación china es una refutación de la teoría computacional de la mente , no una refutación de la "inteligencia artificial". Searle tiene muy claro que solo está argumentando en contra de lo que identifica como "IA fuerte" y no "IA débil". Además, señala que somos máquinas biológicas en el sentido de las palabras. Como sabemos hoy en día, las máquinas computacionales (es decir, las máquinas de Turing), son insuficientes para algo más que manipulaciones sintácticas y no (léase: no pueden) lograr contenido semántico. Para comprender el argumento de Searle, deberá familiarizarse con las distinciones entre observador relativo e independiente del observador., así como la ambigüedad de conceptos como " artificial ", "inteligente", " información " y demás.
Para ampliar su comprensión de los contraargumentos, primero comience con el argumento real que busca en contra:
Searle, John. R. (1980)
" Mentes, cerebros y programas "
Resumen.
Este artículo puede verse como un intento de explorar las consecuencias de dos proposiciones. (1) La intencionalidad en los seres humanos (y en los animales) es producto de las características causales del cerebro. Supongo que esto es un hecho empírico sobre las relaciones causales reales entre los procesos mentales y los cerebros. Simplemente dice que ciertos procesos cerebrales son suficientes para la intencionalidad. (2) Instanciar un programa de computadora nunca es por sí mismo una condición suficiente de intencionalidad. El argumento principal de este trabajo está dirigido a establecer esta afirmación. La forma del argumento es mostrar cómo un agente humano podría instanciar el programa y aún así no tener la intencionalidad relevante. Estas dos proposiciones tienen las siguientes consecuencias (3) La explicación de cómo el cerebro produce intencionalidad no puede ser que lo haga instanciando un programa de computadora. Esta es una consecuencia lógica estricta de 1 y 2. (4) Cualquier mecanismo capaz de producir intencionalidad debe tener poderes causales iguales a los del cerebro. Se supone que esto es una consecuencia trivial de 1. (5) Cualquier intento de crear literalmente intencionalidad artificialmente (IA fuerte) no podría tener éxito simplemente diseñando programas, sino que tendría que duplicar los poderes causales del cerebro humano. Esto se sigue de 2 y 4."¿Podría una máquina pensar?" Según el argumento presentado aquí, solo una máquina podría pensar, y solo tipos muy especiales de máquinas, a saber, cerebros y máquinas con poderes causales internos equivalentes a los de los cerebros. Y es por eso que la IA fuerte tiene poco que decirnos sobre el pensamiento, ya que no se trata de máquinas sino de programas, y ningún programa por sí solo es suficiente para pensar.
También puede disfrutar de este intercambio en NYR entre Searle y Motzkin (tenga en cuenta en particular la nota final técnica sobre: la prueba de Turing y las máquinas de Turing)
La prueba es una parte muy importante del conductismo de la era en la que Turing escribió su artículo; y como todas esas formas de conductismo, crea una confusión fundamental entre la forma en que verificaríamos la presencia de un fenómeno mental desde el punto de vista de la tercera persona con la existencia real del fenómeno en primera persona. Según la interpretación de Motzkin, la prueba de Turing confunde epistemología con ontología.
Por último, la prueba de Turing es un listón muy alto y realmente no dice nada sobre el sujeto de prueba. Dice mucho más sobre el probador. La prueba de Turing no es de ninguna manera una prueba de fuego para la conciencia. Aprobarlo ha sido descrito como poco más que " un truco de salón ", el enfoque sobre el cual ha sido ridiculizado como " desagradable y estúpido " por nada menos que Marvin Minsky . Para conocer el trabajo emocionante que se está realizando en el campo del aprendizaje automático, consulte a Jürgen Schmidhuber .
Soy inteligente. Podría decirse que mi cerebro no es inteligente. Las células de mi cerebro definitivamente no son inteligentes. El hombre en la habitación china es la célula cerebral. No puedes esperar que entienda chino. ¿Pero el Salón Chino? Puede ser solo un cerebro. O puede "entender" el chino.
Si las instrucciones disponibles con el hombre en la habitación son finitas, y el hombre de afuera sabe que existe una tabla de instrucciones finita, entonces no se ha establecido nada. Una máquina de Turing tiene un programa finito, por lo que una tabla de instrucciones infinitamente larga está fuera del alcance.
nelson alexander
usuario4894
nelson alexander
Buen viejo San Nick
usuario4894
Buen viejo San Nick
usuario4894
usuario4894