¿Cuáles son las réplicas a la habitación china de Searle?

La Sala china de Searle básicamente argumenta que un programa no puede hacer que una computadora sea 'inteligente'.

Searle resume el argumento como

Imagina a un hablante nativo de inglés que no sabe chino encerrado en una habitación llena de cajas de símbolos chinos (una base de datos) junto con un libro de instrucciones para manipular los símbolos (el programa). Imagine que las personas fuera de la sala envían otros símbolos chinos que, sin que la persona de la sala lo sepa, son preguntas en chino (la entrada). E imagine que siguiendo las instrucciones del programa, el hombre en la habitación puede repartir símbolos chinos que son las respuestas correctas a las preguntas (la salida). El programa permite que la persona en la sala apruebe el Test de Turing para comprender el chino, pero no entiende ni una palabra de chino.

¿Cuáles son los contraargumentos? Incluido el estándar y no tan estándar. Esta noción de 'inteligencia' me intriga y deseo ver lo que otras personas han escrito y dicho. Señalame tu contraargumento favorito.

He leído la respuesta de Levesque "¿Es suficiente para obtener el comportamiento correcto?" ( http://ijcai.org/papers09/Abstracts/241.html ) (documento completo aquí ). Como Levesque es un investigador de IA, me gustaría ampliar mi apreciación de los contraargumentos de otros campos.

Es un Turco Mecánico al revés, y tomó mucho tiempo para que las máquinas operaran únicamente con "instrucciones" solo para dominar el ajedrez. Para pasar una prueba de Turing en un lenguaje humano, las "instrucciones" del operador tendrían que ser infinitamente largas, detalladas y efectivamente ilegibles para cualquier ser humano "experimentador" encarnado finito. No estoy seguro, pero sospecho que estas respuestas no están tan fuera de lugar o son tan superficiales como parece al principio. Simbolizar la experiencia es una regresión infinita. Las "instrucciones" hipotéticas son inverosímiles.
@NelsonAlexander Estoy de acuerdo con Searle, pero no estoy de acuerdo con su punto de que las instrucciones de una máquina deberían ser infinitamente largas. Después de todo, estamos hechos de un número finito de átomos, tenemos un número finito de neuronas y caminos neuronales, etc. Somos finitos y somos conscientes de nosotros mismos e inteligentes. Cualquiera que sea la "salsa secreta" de la conciencia, no tiene por qué ser infinita.
Sí, casi no uso ese término, que mata la conversación. Pero cuando digo que "simbolizar la experiencia es una regresión infinita", podría compararlo con el problema de la costa de Inglaterra, donde una medición o definición cada vez más precisa aumenta la "longitud de la costa" hacia el infinito. Las ciencias físicas deben introducir "límites", pero, paradójicamente, la idea de que tenemos átomos "finitos" en nuestros cuerpos no excluye un número (prácticamente) infinito de formas de describirlos. Tampoco, sospecho, hay un número finito de preguntas y respuestas significativas en chino.
@ user4894 asumes una interpretación material del universo, que es una perspectiva metafísica particular. Reconozco los límites de caracteres, pero me pareció bueno reconocer esto en lugar de simplemente presentarlo como "simplemente el caso". Es coherente que dentro de cada ser consciente yace una sustancia infinita y eterna (o esencia o espíritu o cualquier variedad particular no material de existencia que quieras calificar) que es el prerrequisito natural para la conciencia. Hay muchas tradiciones respetadas de esta convicción y si este es el caso, de hecho no somos finitos.
@GoodOl'SaintNick "asumes una interpretación material del universo" Esto no es nada de lo que dije ni una consecuencia lógica de nada de lo que dije, por lo que me perdiste por completo aquí. "Es coherente que dentro de cada ser consciente yace una sustancia infinita y eterna (o esencia o espíritu o cualquier variedad particular no material de existencia que quieras calificar) que es el requisito previo natural para la conciencia". Parece una exageración. ¿Evidencia? ¿Qué más vive en el reino inmaterial? ¿El Niño Jesús? ¿El monstruo de espagueti volador? Vishnu? Explíqueme por favor.
@ user4894 Creo que inicialmente malinterpreté su comentario porque contenía un "solo" implícito, como en "después de todo, estamos [solo] hechos de ...". aunque ahora reconozco que en realidad lo que estaba pasando era que simplemente te estabas dirigiendo exclusivamente a lo material en lugar de negar lo inmaterial. La mayor sugerencia de una perspectiva materialista para mí fue cuando afirmas "Somos finitos y somos conscientes de nosotros mismos e inteligentes". Leí esto como una declaración absoluta, que ahora reconozco que quizás solo estaba abordando un contexto limitado.
@GoodOl'SaintNick ¡Sí, me gusta la forma en que explicaste lo que quise decir! Lo hiciste exactamente bien.
@GoodOl'SaintNick ps: además, estás equivocando "infinito". La declaración original a la que estaba respondiendo era la afirmación de que un ser inteligente necesitaría un conjunto infinito de instrucciones. Esto es infinito en el sentido matemático. Lo estás usando en el sentido metafísico de, como dices, una "sustancia infinita y eterna". No tengo idea de lo que eso significa. Sé lo que es un conjunto infinito o finito de instrucciones de máquina. Estos son dos significados distintos de infinito.

Respuestas (9)

El experimento de la habitación china de Searle no tiene ningún sentido, pero se requiere algo de contexto para sacar a la luz la contradicción inherente a su argumento. En el momento de escribirlo, estaba intentando luchar contra una posición extrema entre los teóricos de la IA que suponían que todas las propiedades de la comprensión, independientemente de lo que estemos de acuerdo en ello, podrían reducirse o capturarse mediante una computadora lo suficientemente poderosa que actuara sobre símbolos al métodos formales, es decir, matemáticas.

En pocas palabras, el experimento CR supone que es posible que un hablante de chino transmita mensajes significativos en su idioma nativo a un hombre en la habitación que no lo habla y que responda de manera inteligente o significativa siguiendo un proceso puramente algorítmico o formal. , lo que sea que eso implique, es decir, usar una tabla de búsqueda, seguir reglas preestablecidas, etc.

Esta es una forma extraña de argumentar a favor de la intuición, o más bien de que la intuición tiene la propiedad de no reducibilidad. Porque si el hombre en la habitación puede comunicarse con el hombre en el exterior a pesar de su falta de comprensión, y la brecha semántica se salva mediante un proceso completamente formal, entonces, ¿cómo es que esto se reduce a la sintaxis? Exactamente contra lo que Searle quiere argumentar. Una vez más, el hombre de afuera entiende lo que entra y lo que sale de la habitación, y el único medio que tiene el hombre para comunicarse es seguir una receta mecánica para escribir.

No tiene sentido para usted porque ha leído mal el argumento de Searle de que la sintaxis es insuficiente para la semántica. No está comentando sobre la intuición. Tenga en cuenta que la persona dentro de la caja, la computadora, es decir, la persona que realiza el cálculo, no entiende chino. La "brecha semántica" sigue sin cerrarse.
@ Mr.Kennedy No estoy de acuerdo con esta respuesta, pero, siendo un tipo argumentativo, tampoco estoy de acuerdo con su comentario. Al insistir en que el CR solo podría funcionar si su operador entendiera chino, Searle asume tácitamente que las instrucciones en sí mismas no pueden dar lugar a la semántica. Si el argumento CR no debe descartarse de inmediato por motivos de circularidad, el argumento de que "la sintaxis no puede engendrar la semántica" debe formularse en otro lugar.
@sdenham: Yo iría incluso más lejos que eso. CR está equivocado porque asume tácitamente que la distinción entre sintaxis y semántica es esencial en lugar de funcional, o absoluta en lugar de relativa. Cuando incorporas las metamatemáticas y la teoría de modelos, empieza a parecer bastante tonto.

La entrada de la Enciclopedia de Filosofía de Stanford sobre el experimento mental de la "Habitación china" de Searle identifica tres categorías principales de objeciones y entra en detalles sobre cada una (y proporciona citas generosas). Aquí está su resumen de alto nivel de las categorías de posibles respuestas al argumento. :

(1) Algunos críticos admiten que el hombre en la habitación no entiende chino, pero sostienen que al mismo tiempo hay otra cosa que sí entiende. Estos críticos se oponen a la inferencia de la afirmación de que el hombre en la habitación no entiende chino a la conclusión de que no se ha creado ningún entendimiento. Puede haber entendimiento por parte de una entidad más grande o diferente. Esta es la estrategia de The Systems Reply y Virtual Mind Reply. Estas respuestas sostienen que podría haber entendimiento en el escenario original de la Sala China.

(2) Otros críticos aceptan la afirmación de Searle de que simplemente ejecutar un programa de procesamiento de lenguaje natural como se describe en el escenario CR no crea ningún entendimiento, ya sea por parte de un sistema humano o de una computadora. Pero estos críticos sostienen que se podría entender una variación del sistema informático. La variante podría ser una computadora integrada en un cuerpo robótico, que interactúa con el mundo físico a través de sensores y motores ("La respuesta del robot"), o podría ser un sistema que simule el funcionamiento detallado de un cerebro completo, neurona por neurona ( “La Respuesta del Simulador Cerebral”).

(3) Finalmente, algunos críticos no conceden ni siquiera el punto estrecho contra la IA. Estos críticos sostienen que el hombre en el escenario original de la Habitación China podría entender chino, a pesar de las negativas de Searle, o que el escenario es imposible. Por ejemplo, los críticos han argumentado que nuestras intuiciones en tales casos no son confiables. Otros críticos han sostenido que todo depende de lo que uno entienda por “comprender”, puntos discutidos en la sección sobre la respuesta de la intuición. Otros (p. ej., Sprevak 2007) se oponen a la suposición de que cualquier sistema (p. ej., Searle en la sala) puede ejecutar cualquier programa informático. Y finalmente algunos han argumentado que si no es razonable atribuir comprensión en base al comportamiento exhibido por la Sala China,

Me gusta bastante el capítulo del libro Filosofía de la IA de Jack Copeland sobre la habitación china. A pesar de que es un libro introductorio, entra en bastante amplitud y profundidad. El capítulo tiene un resumen de los argumentos en contra de la sala china y las réplicas de Searl y sus amigos, además de las contrarréplicas. El resto del libro también establece muy bien el contexto de las discusiones y definitivamente analiza las diversas formas en que las personas entienden y usan el término 'inteligencia' en los debates de IA (puede encontrar algunos que le gusten)

Un problema no demasiado estándar que tengo con el argumento es su forma de argumento general (problema no estándar porque no es específico del argumento de la habitación china).

La habitación china es un argumento modal que se despliega mucho en la filosofía de la mente. Ejemplos de otros argumentos modales incluyen cosas como el argumento de los zombis de David Chalmers, el argumento del espectro invertido, incluso el cerebro en tanques y el argumento del demonio malvado de Descarte, etc. Generalmente son de la forma: es posible que a pesar de la apariencia de X no podamos saber*que X* debido a una interpretación alternativa igualmente plausible de la situación que excluye a X). En este caso, es posible que incluso si las instrucciones permiten que la caja participe de manera convincente con un probador chino de Turing, es más que igualmente plausible que no se esté produciendo un entendimiento real (establecido a escondidas por el hecho de que todos teníamos un acuerdo previo de que la persona adentro no entiende chino, y es el único que está haciendo algo)

No estoy seguro de qué tan en serio tomar los argumentos modales en general, porque siento que son invariablemente engañosos y, a menudo, conducen a la infructuosidad debido a la forma en que se organizan las cosas. Un argumento modal exitoso no le dará mayor razón para creer en cualquiera de las opciones, y la retórica generalmente se establece de tal manera que olvida que una de las opciones consiste en escenarios naturales y familiares (sentarse junto al fuego, ver a una persona, recibir qualia roja) y el otro escenario que es especulativo (engañado por demonios malvados, viendo un zombi, recibiendo qualia verde en lugar de leer). Por lo tanto, cada campo no puede involucrar a la otra parte para tener una discusión fructífera porque cada uno tiene una razón para creer que el argumento de la otra persona es defectuoso, sin un criterio real para evaluar ninguno de los lados de la afirmación. Furtivo en mi humilde opinión.

Los argumentos de la habitación china de Searle se basan inicialmente en la suposición de que, si hay un sistema inteligente, algún componente del sistema debe ser inteligente. Llevando esto un largo camino hacia una conclusión, cada leptón y quark en el Universo debe ser inteligente hasta cierto punto. Las alternativas a esa conclusión son (a) no hay nada inteligente en el Universo, o (b) la inteligencia es un fenómeno emergente. Yo me quedo con este último.

Searle luego intenta responder a todas las objeciones (como la inteligencia emergente) entregándose a una discusión más o menos relevante antes de afirmar que se reduce a la Habitación China original, que demostró que no era inteligente. Este es un excelente ejemplo de petición de principio, en la definición clásica (suponiendo que la proposición esté probada).

La otra discusión más relevante es la afirmación de que una computadora no podría ser inteligente en el sentido humano sin tener sentidos de tipo humano para sentir cosas como un humano. ¿Cómo puede una computadora saber qué es una hamburguesa sin comérsela? Esta parece una buena línea de argumentación, pero Searle no la persigue.

Searle afirma, sin apoyo, que la inteligencia debe ser biológica y afirma que sabemos que la intencionalidad es de naturaleza biológica. No he visto este reclamo en ningún otro lugar, así que no creo que lo sepamos.

Sus opciones a) yb) no incluyen la opción en la que la inteligencia está en manos de una mente inmaterial en lugar de una mente emergente. No recuerdo muy bien cómo se enmarca esa opción en la literatura formal, pero sé que está enmarcada en la literatura.
@elliotsvensson Buen punto. La cuestión que plantea es a qué se une.
Ese es el punto más importante. O el argumento de Searle es defectuoso (ver los otros argumentos), o los humanos no son conscientes, o los humanos son MÁGICOS.

El OP quiere saber qué contraargumentos se han hecho contra el argumento de la habitación china.

En Minds, Brains and Programs, John Searle responde a seis contraargumentos. He aquí una paráfrasis de ellos:

  1. Los Sistemas Responden. El ser humano que no entiende chino cuando ejecuta los pasos del programa es solo una parte del sistema más grande que sí entiende.

  2. La respuesta del robot. Coloque la computadora que realiza el procesamiento formal del lenguaje dentro de un robot.

  3. La respuesta del simulador cerebral. Escriba un programa que simule los disparos de neuronas reales en el cerebro de un hablante nativo de chino.

  4. La respuesta combinada. Cree un programa que combine las tres respuestas anteriores.

  5. Las otras mentes responden. Tampoco sabemos si otras personas entienden el chino, excepto por su comportamiento.

  6. La respuesta de muchas mansiones. Eventualmente seremos capaces de construir dispositivos que entiendan.


Searle, John. R. (1980) Mentes, cerebros y programas. Ciencias del comportamiento y del cerebro 3 (3): 417-457 http://cogprints.org/7150/1/10.1.1.83.5248.pdf

Por ejemplo, las objeciones de Daniel Dennett. Dennett llama al experimento mental de Searle una "muleta de auge", algo que dificulta el pensamiento, a diferencia de las bombas intuitivas, que se consideran útiles.

Dennett afirma que el argumento de Searle está redactado de una manera específica para limitar sus opciones, por lo tanto, una "muleta de auge". Searle asume una IA basada en reglas simbólicas altamente avanzada . Quiere que creas que no puede entender el significado porque simplemente ensambla un símbolo de entrada a un símbolo de salida de acuerdo con el libro de reglas. Pero, inmediatamente, nos enfrentamos a objeciones.

En primer lugar, según Dennett, el argumento muestra la falta de comprensión de Searle sobre cómo se logran las computadoras y la computación. Tomaría miles de millones de años de escribir código para que un sistema basado puramente en reglas* pueda obtener una conversación significativa a nivel humano. ¿Cuántas reglas tendría que tener? Uno tiene que construir reglas lo suficientemente convincentes para que cada respuesta sea como si una persona real produjera una respuesta, dirigiendo la conversación en chino, en un nivel conversacional. Trate de construir todas estas reglas utilizando la lógica simbólica; sería un número increíble.

En segundo lugar, incluso si logramos el dispositivo que utiliza un sistema basado en reglas y dicho sistema puede hablar sobre películas, clima, cocina griega y hacer preguntas personales, ¿no implementamos todo el proceso de cognición humana, junto con la comprensión? El "sistema" que presenta Searle no puede simplemente ensamblar entrada a salida porque tiene que depender de miles de millones de años de conjuntos de reglas sobre qué decir y qué no decir. Tiene que sacar inferencias lógicas que involucren grandes porciones de datos empíricos sobre el mundo. Tiene que tener sentido común. Y si lo hace, no tiene problemas para comprender nada, incluida la semántica. Este tipo de sistema de reglas sofisticado es imposible de localizar en algunas cajas rudimentarias con instrucciones. Lo que se necesita es computación para hacerlo de manera eficiente, si es que se necesita.

Sobre la base del argumento de Dan, está claro que John Searle quiere que te olvides de una parte crucial de lo que hace el sistema; dónde y cómo deben estar sucediendo las cosas reales. Si solo fuera el caso del ensamblaje manual banal de entrada a salida, no habría posibilidad de una conversación significativa a nivel humano. Literalmente, nadie afirma que un programa simple que imprime "Hello World" entienda la semántica. De la misma manera, un hombre en la habitación no puede tener una conversación convincente. Además, una conversación que no le toma años procesar, si está usando cajas de información de miles de millones de años. Este es un cargo de posibilidad natural. Searle quiere que imagines algo trivial y saques conclusiones obvias de ello, que dicho sistema no puede entender, por lo que la "IA fuerte" en conjunto es inverosímil. Sin embargo, para pasar algo parecido a una prueba de Turing, no es trivial. Toda la discusión del sistema de conjunto de reglas, que tiene que existir aparte del ensamblador de voz, está casi "borrada" del argumento de Searle.

De lo contrario, ¿de qué manera la IA obtiene las reglas? Por supuesto, la única opción es este gigantesco conjunto de reglas escritas durante miles de millones de años. ¿Cómo se puede exprimir ese conjunto de reglas para que la obtención de información sea factible? Sólo mediante el uso de una computadora. Si una computadora se usa prácticamente, entonces la computadora puede producir comprensión.

Al cambiar su atención a un ensamblador tonto, Searle le hace olvidar dónde debe estar ocurriendo el trabajo real, es decir, en la unidad computacional compleja responsable de (y capaz de) la cognición a nivel humano porque, de lo contrario, no podría pasar una prueba de Turing. del cual el experimento de Searle es una variante. El hablante del otro lado debe estar bien convencido de que está hablando con una persona real.

*- A diferencia de, por ejemplo, el sistema de aprendizaje automático.

Entonces, en su tercer párrafo, parece estar diciendo que Dennett cree que un programa de computadora no puede mantener una conversación significativa. Eso solo fortalece la afirmación de Searle de que los programas no pueden entender.
@AmeetSharma Lejos de eso. La versión simplista de "ensamblador" de IA que Searle quiere que imagines no puede y no lo hará. El argumento de Searle, sin embargo, supone que su IA puede pasar una prueba de Turing, que, literalmente, hace que una IA sea indistinguible de un ser humano. Básicamente, Searle quiere que te olvides del enorme conjunto de reglas que hace que esa IA se comporte, y posiblemente incluso piense, exactamente como un humano.
Searle nunca dijo que un programa de computadora pueda pasar la prueba de Turing. Su único punto es que pasar la prueba de Turing es insuficiente para "comprender". No veo la relevancia del enorme conjunto de reglas. Searle argumenta en contra de la afirmación de la prueba de Turing de que comportarse como si entendiera significa que comprende. Ya sea que el conjunto de reglas sea una regla o enorme, el experimento mental es el mismo.
¿Estás diciendo que una máquina que puede hablar sobre preferencias, películas y sus pasatiempos no tiene comprensión? Porque cualquier caso más simple no servirá para Searle. El experimento de Searle es una variante de la prueba de Turing, en la que un observador externo no puede distinguir un robot de una persona normal. El experimento mental de Searle depende de que usted imagine un caso tan simple, un caso banal, y saque una conclusión obvia y preconcebida de él. Básicamente, Searle quiere que imagines algo como una calculadora, que, obviamente, no puede entender.
"¿Estás diciendo que una máquina que puede hablar sobre preferencias, películas y sus pasatiempos no tiene comprensión?" si simplemente está ejecutando un programa de computadora, entonces no lo hace. Eso es lo que el Argumento de la Habitación China está tratando de mostrar de todos modos. Le estás dando demasiada importancia al caso siendo trivial. Supongamos que en lugar de un programa de habla china, tenemos un programa que simula el comportamiento humano en todos sus aspectos. El argumento es exactamente el mismo. Será un libro de reglas más grande. Sigue siendo solo un programa. Lo único que tiene la computadora es mayor velocidad... pero ¿por qué esto lo haría entender?
"Estás haciendo demasiado hincapié en que el caso es trivial". El caso no es trivial, ya que la afirmación de Searle va en contra de la posibilidad de una "IA fuerte". Casi nada en este caso es 'trivial'. Un programa simplista que Searle quiere que imagines para refutar Strong AI no funcionará. "Será un libro de reglas más grande. Todavía es solo un programa" ¿Quizás incluso has visto que la comprensión ocurre en tu cerebro? Cómo se ve? Bueno, una serie de redes neuronales, puertas lógicas XOR/OR en juego y un montón de reglas. ¿Por qué un cerebro entendería algo, ya que de todos modos es solo un libro de reglas sofisticado?
¿A qué te refieres con "ensamblador"? ¿Está llamando al cabezal de lectura/escritura de una máquina de Turing un "ensamblador" independientemente de la complejidad del cálculo que está haciendo (digamos, una simulación átomo por átomo de un cerebro humano completo)? Si es así, no veo por qué cree que un algoritmo lo suficientemente complejo no podría mostrar un comportamiento inteligente similar al humano; si está usando "ensamblador" de manera más restringida, entonces diría que está malinterpretando el argumento de Searle, que se basa en el hecho de que la persona puede desempeñar el papel de un cabezal de máquina de Turing (vea mi respuesta aquí )
@Hypnosif está bien. Digamos, algo simplista como una calculadora no es suficiente para refutar la afirmación de "Fuerte IA", que era lo que Searle estaba tratando de hacer. Por supuesto, una persona tonta puede desempeñar el papel de cabeza de máquina de Turing, pero este argumento no refuta la "IA fuerte". Además es completamente inútil, ya que lo que da una respuesta en chino no es la persona que ensambla, sino otra parte del sistema que produce las instrucciones. Sin embargo, uno no puede separar los dos ni en el caso de los cerebros, ni en el caso de una IA fuerte hipotética.
Searle no asumió ningún tipo específico de programa en su artículo, por lo que puedo ver, y mucho menos algo simplista como una calculadora. Estoy de acuerdo en que el argumento de Searle en realidad no funciona (vea mis comentarios al final de esta respuesta , comenzando con 'Ha habido varias respuestas al argumento de los filósofos', donde creo que está la falla), pero creo que su respuesta aquí malinterpreta un poco lo que en realidad estaba argumentando.
La afirmación de @Hypnosifl Dennett es que Searle quiere que uno se olvide de la parte más importante, que es qué tipo de computadora podría producir respuestas en chino a nivel de conversación. Searle presenta una causa simple, obvia y trivial y piensa que refuta una afirmación de "IA fuerte", donde no lo hace. De ahí que Dennet lo llame “boom muleta”, algo que dificulta el pensamiento.
Dado que los experimentos mentales filosóficos a menudo involucran premisas fantásticas, no creo que hubiera cambiado mucho la recepción si Searle hubiera dicho "imagina un ser humano que es inmortal y está dispuesto a pasar una hora o dos cada día de la semana realizando pasos de un cálculo, posiblemente durante miles de millones de años", pero supongo que podría haber hecho que el argumento pareciera menos convincente para algunos.

En cuanto a su interés declarado, considere los comentarios de Searle aquí sobre: ​​la ambigüedad de la "inteligencia"

La "inteligencia" también es ambigua porque es ambigua entre la inteligencia real, honesta para John, independiente del observador, como, por ejemplo, cuando un ser humano está pensando en algo, y el sentido de inteligencia metafórico derivado, relativo al observador, por ejemplo. , cuando hablamos de mi calculadora de bolsillo o computadora como mostrando inteligencia.

La gente de paja , sin embargo, es fácil de derribar:

La Sala china de Searle básicamente argumenta que un programa no puede hacer que una computadora sea 'inteligente'.

Searle no está argumentando "que un programa no puede hacer que una computadora sea 'inteligente'" (y esto en cualquier sentido en el que se refiera a programa, inteligente o computadora). La habitación china de Searle demuestra que la semántica no es intrínseca a la sintaxis. Gran diferencia.

El argumento de la habitación china es una refutación de la teoría computacional de la mente , no una refutación de la "inteligencia artificial". Searle tiene muy claro que solo está argumentando en contra de lo que identifica como "IA fuerte" y no "IA débil". Además, señala que somos máquinas biológicas en el sentido de las palabras. Como sabemos hoy en día, las máquinas computacionales (es decir, las máquinas de Turing), son insuficientes para algo más que manipulaciones sintácticas y no (léase: no pueden) lograr contenido semántico. Para comprender el argumento de Searle, deberá familiarizarse con las distinciones entre observador relativo e independiente del observador., así como la ambigüedad de conceptos como " artificial ", "inteligente", " información " y demás.

Para ampliar su comprensión de los contraargumentos, primero comience con el argumento real que busca en contra:

Searle, John. R. (1980)
" Mentes, cerebros y programas "

Resumen.
Este artículo puede verse como un intento de explorar las consecuencias de dos proposiciones. (1) La intencionalidad en los seres humanos (y en los animales) es producto de las características causales del cerebro. Supongo que esto es un hecho empírico sobre las relaciones causales reales entre los procesos mentales y los cerebros. Simplemente dice que ciertos procesos cerebrales son suficientes para la intencionalidad. (2) Instanciar un programa de computadora nunca es por sí mismo una condición suficiente de intencionalidad. El argumento principal de este trabajo está dirigido a establecer esta afirmación. La forma del argumento es mostrar cómo un agente humano podría instanciar el programa y aún así no tener la intencionalidad relevante. Estas dos proposiciones tienen las siguientes consecuencias (3) La explicación de cómo el cerebro produce intencionalidad no puede ser que lo haga instanciando un programa de computadora. Esta es una consecuencia lógica estricta de 1 y 2. (4) Cualquier mecanismo capaz de producir intencionalidad debe tener poderes causales iguales a los del cerebro. Se supone que esto es una consecuencia trivial de 1. (5) Cualquier intento de crear literalmente intencionalidad artificialmente (IA fuerte) no podría tener éxito simplemente diseñando programas, sino que tendría que duplicar los poderes causales del cerebro humano. Esto se sigue de 2 y 4.

"¿Podría una máquina pensar?" Según el argumento presentado aquí, solo una máquina podría pensar, y solo tipos muy especiales de máquinas, a saber, cerebros y máquinas con poderes causales internos equivalentes a los de los cerebros. Y es por eso que la IA fuerte tiene poco que decirnos sobre el pensamiento, ya que no se trata de máquinas sino de programas, y ningún programa por sí solo es suficiente para pensar.

Además, vea este artículo para una continuación del argumento de Searle que demuestra que la sintaxis no es intrínseca a la física .

También puede disfrutar de este intercambio en NYR entre Searle y Motzkin (tenga en cuenta en particular la nota final técnica sobre: ​​la prueba de Turing y las máquinas de Turing)

La prueba es una parte muy importante del conductismo de la era en la que Turing escribió su artículo; y como todas esas formas de conductismo, crea una confusión fundamental entre la forma en que verificaríamos la presencia de un fenómeno mental desde el punto de vista de la tercera persona con la existencia real del fenómeno en primera persona. Según la interpretación de Motzkin, la prueba de Turing confunde epistemología con ontología.

Por último, la prueba de Turing es un listón muy alto y realmente no dice nada sobre el sujeto de prueba. Dice mucho más sobre el probador. La prueba de Turing no es de ninguna manera una prueba de fuego para la conciencia. Aprobarlo ha sido descrito como poco más que " un truco de salón ", el enfoque sobre el cual ha sido ridiculizado como " desagradable y estúpido " por nada menos que Marvin Minsky . Para conocer el trabajo emocionante que se está realizando en el campo del aprendizaje automático, consulte a Jürgen Schmidhuber .

Soy inteligente. Podría decirse que mi cerebro no es inteligente. Las células de mi cerebro definitivamente no son inteligentes. El hombre en la habitación china es la célula cerebral. No puedes esperar que entienda chino. ¿Pero el Salón Chino? Puede ser solo un cerebro. O puede "entender" el chino.

Si las instrucciones disponibles con el hombre en la habitación son finitas, y el hombre de afuera sabe que existe una tabla de instrucciones finita, entonces no se ha establecido nada. Una máquina de Turing tiene un programa finito, por lo que una tabla de instrucciones infinitamente larga está fuera del alcance.