Problemas para entender cómo el experimento de la habitación china refuta el funcionalismo informático

Estoy escuchando las conferencias de John Searle sobre la filosofía de la mente ( https://www.youtube.com/watch?list=PL039MUyjHR1wfJpULVP1a1ZeCBmIHmhxt ) y realmente no entiendo el significado de su experimento mental de la habitación china. Para mí, parece reducirse a "imaginar un programa que solo se ocupe de la sintaxis, entonces ese programa no puede lidiar con la semántica", pero eso no muestra que ningún programa pueda lidiar con la semántica. ¿Se me escapa algo?

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
Me pregunto de dónde viene este "no puedo lidiar con la semántica" . Esa es una forma tan extraña de decirlo. Tal vez primero deberíamos tratar de corregir lo que el argumento intenta mostrar . Y luego discuta si tiene éxito o falla.

Respuestas (6)

Este es uno de los argumentos más discutidos en la filosofía de la mente. La discusión abarca casi todos los temas importantes de la disciplina. Como tal, no me referiré a sus implicaciones e influencia en el campo.


Primero, comencemos poniendo el argumento real (para un resumen fácil, tomado de Wikipedia ):

supongamos que la investigación de inteligencia artificial ha logrado construir una computadora que se comporta como si entendiera chino. Toma caracteres chinos como entrada y, siguiendo las instrucciones de un programa de computadora, produce otros caracteres chinos, que presenta como salida...

Searle luego supone que está en una habitación cerrada y tiene un libro con una versión en inglés del programa de computadora, junto con suficientes papeles, lápices, borradores y archivadores. Searle podía recibir caracteres chinos a través de una ranura en la puerta, procesarlos de acuerdo con las instrucciones del programa y producir caracteres chinos como salida...

Searle afirma que no existe una diferencia esencial entre los roles de la computadora y él mismo en el experimento. Cada uno simplemente sigue un programa, paso a paso, produciendo un comportamiento que luego es interpretado por el usuario como demostración de una conversación inteligente. Sin embargo, el propio Searle no podría entender la conversación. ("No hablo una palabra de chino", señala). Por lo tanto, argumenta, se deduce que la computadora tampoco podría entender la conversación.

Esencialmente, la raíz del argumento de Searle es el concepto de " intencionalidad " (de SEP ):

la intencionalidad es el poder de las mentes y los estados mentales para tratar, representar o representar cosas, propiedades y estados de cosas. Decir de los estados mentales de un individuo que tienen intencionalidad es decir que son representaciones mentales o que tienen contenidos.

Lo que afirma Searle es, dado el hecho de que puedo simplemente reemplazar la IA, una caja negra (donde no puedo decir si tiene intencionalidad o no) con una situación de caja blanca donde puedo demostrar que no tengo intencionalidad: probé que la IA no tiene intencionalidad. Esto ayuda a Searle a argumentar en contra de lo que él llama "IA fuerte", es decir, esa opinión de que la IA no solo simula el cerebro, sino que en realidad es exactamente lo mismo .


Aquí es donde empieza a complicarse un poco, porque, como toda idea filosófica, comienza la discusión de las refutaciones. Pero intentaré resumir la mayoría de las refutaciones en un solo punto:

En el corazón del argumento de Searle se encuentra la suposición de que la situación de la caja blanca debe ser desmontada (una especie de reducción de la situación), cuando se considera que el hombre en la situación no entiende chino. Pero podemos argumentar fácilmente que esta suposición es incorrecta y, en cambio, considerar la situación como un todo (es decir, toda la sala funciona como un organismo/máquina, una especie de visión holística de la situación). De esta manera, podemos argumentar que la habitación en sí entiende chino, incluso si, a modo de reducción, el hombre que está dentro no lo hace. Esto toca un tema mucho más amplio en la filosofía en su conjunto y particularmente en la filosofía de la mente: el problema del holismo versus el reduccionismo (que es más prominente en la discusión del emegentismo) ., bellamente ilustrado en Godel, Escher, Bach de Hofstadter ).


Ahora, por supuesto, hay muchas respuestas y montones de refutaciones y rechazos de ellas, y este no es el lugar para discutirlas todas. Sin embargo, sugeriría, si desea una imagen más completa, leer el artículo de SEP sobre el tema . También Partially Examined Life tiene algunos buenos episodios relacionados con el funcionalismo (221-223).

pero eso no demuestra que ningún programa pueda manejar la semántica.

Lo hace en cierto modo si acepta lo que significa la definición de programa de Searle. Quiere decir, lo que los ingenieros informáticos quieren decir cuando hablan de programas, un conjunto de instrucciones.

La importancia del argumento de la habitación china (CRA) es mostrar que la inteligencia artificial nunca puede tener una verdadera comprensión, al menos en el sentido intuitivo de la palabra, pero la forma en que se define la comprensión es en sí misma ambigua. Esto también se ve en los sistemas modernos de reconocimiento de imágenes de IA que realizan el reconocimiento de objetos a partir de imágenes, y las imágenes que requieren que reconozca el fondo y ponga el objeto en contexto, a menudo disparan la IA y dan resultados incorrectos. Esto no se debe a que la IA no pudo clasificar la geometría del objeto al analizar dónde comienzan los bordes y cómo cambian los colores, sino de qué se trata el fondo (ya sea una playa soleada o un estacionamiento). Esto podría ser una indicación de que necesitaríamos construir una IA cada vez más compleja que pueda reconocer todo, no solo los objetos en la imagen, sino el hecho de que es "

Dicho esto, profundicemos un poco más en el análisis. CRA es básicamente un humano actuando instrucciones que lee en el libro de reglas, pero esto supone que el humano "entiende" el inglés en el libro. Desde el exterior, la sala entiende chino y eso es lo suficientemente bueno para un hablante nativo de chino, pero desde el interior, no se puede decir lo mismo de ningún componente individual (las paredes, la mesa, el libro o el operador humano). Es nuestra intuición que entendemos las cosas, sin embargo, el objetivo de este experimento es mostrar que esta "intuición" no puede explicarse mediante el estudio de las microexplosiones individuales en curso en las sinapsis neuronales de un ser humano. Cuando el ser humano lee inglés, ¿qué sucede realmente dentro de él? La energía está siendo barajada por el movimiento, y Es simplemente un reordenamiento de partículas que llevan al ser humano de un estado de incomprensión a un estado de comprensión visto desde el exterior. Sin embargo, desde la perspectiva humana, el "sentimiento" de comprensión es muy diferente. Este sentimiento intuitivo no puede explicarse solo en una descripción mecanicista del sistema, lo que lleva a Searle a afirmar que ningún sistema informático puede tener una comprensión verdadera o al menos en la forma en que los humanos sienten que es así, pero no hay absolutamente nada que lo impida. principio. Si seguimos este argumento para nosotros mismos, entonces tampoco tenemos una verdadera comprensión de nada en absoluto. Este sentimiento intuitivo no puede explicarse solo en una descripción mecanicista del sistema, lo que lleva a Searle a afirmar que ningún sistema informático puede tener una comprensión verdadera o al menos en la forma en que los humanos sienten que es así, pero no hay absolutamente nada que lo impida. principio. Si seguimos este argumento para nosotros mismos, entonces tampoco tenemos una verdadera comprensión de nada en absoluto. Este sentimiento intuitivo no puede explicarse solo en una descripción mecanicista del sistema, lo que lleva a Searle a afirmar que ningún sistema informático puede tener una comprensión verdadera o al menos en la forma en que los humanos sienten que es así, pero no hay absolutamente nada que lo impida. principio. Si seguimos este argumento para nosotros mismos, entonces tampoco tenemos una verdadera comprensión de nada en absoluto.

El problema que tengo es que parece estar planteando la pregunta: quiere demostrar que una IA no puede tener comprensión, pero asume que el programa se limita a la manipulación de símbolos.
@uninspiredUsername ¿Puedes demostrar que los humanos tienen entendimiento? Tanto los programas como los seres humanos son observables externamente como mezclas de símbolos, energía, partículas. Su agenda oculta es mostrar que los "qualia de la comprensión" son un hecho innegable de nuestra experiencia que no es captado por la mera observación de los procesos mecanicistas, sea cual sea. No habla de "comprensión", ya que admite que el problema no está resuelto y su solución es: con una comprensión más profunda de cómo procesa la información neurológica y contrastándola con la computación tradicional para encontrar la diferencia.

Esto puede parecer simplista, pero no lo es: se reduce a esto:
no importa qué tan bien una máquina pueda simular a un ser humano con una mente, sigue siendo esencialmente solo engranajes y poleas en el interior.

Esto sigue siendo cierto sin importar cuán buena se vuelva la simulación. Incluso si la simulación se vuelve tan buena que literalmente no hay ninguna diferencia perceptible entre una mente humana viva y la máquina de la habitación china, todavía son solo engranajes y poleas en el interior.

En algún momento después de que sea completamente autoprogramable y pueda simular el libre albedrío, la empatía, la percepción personal, una personalidad humana con preferencias y actitudes personales individuales, podríamos llamarlo el equivalente funcional de una mente humana. En este punto puede parecer razonable otorgarle derechos humanos.

Dado que la publicación original tiene un enlace incorrecto, aquí hay un enlace bueno
El argumento de la habitación china
https://www.youtube.com/watch?v=18SXA-G2peY

"pero eso no demuestra que ningún programa pueda manejar la semántica".
Sí, estás en lo correcto. Tuve que ver este video antes de poder entender tu base:
https://www.youtube.com/watch?v=18SXA-G2peY

Para que la máquina de sala china simule perfectamente una mente humana, también debe simular perfectamente la comprensión real de la semántica completa de su entrada.

Las reglas semánticas se especifican y procesan sintácticamente formando las mismas relaciones entre cadenas finitas que una mente humana formaría entre palabras. (El proyecto Cyc lo hace así usando su lenguaje CycL).

Debido a que la sala china produce el equivalente funcional de la comprensión humana, podemos decir que demuestra la comprensión de la semántica.

En el momento en que demuestre plenamente todas las características humanas, incluidas: libre albedrío, preferencia personal, actitudes psicológicas y tenga una personalidad completamente funcional, podríamos darle el beneficio de la duda y otorgarle el estatus humano.

Creo que el argumento de Searle es aún más poderoso de lo que se reconoce aquí. Para ver por qué, considere la definición de una máquina de Turing: https://en.wikipedia.org/wiki/Turing_machine No repasaré la definición aquí, pero basta con decir que se trata de una manipulación de símbolos de memoria por excelencia . Y, sin embargo, se cree ampliamente (tesis de Church-Turing) que ese modelo simple captura todo lo que se puede hacer computacionalmente, incluida cualquier inteligencia artificial como comúnmente pensamos en ella. Ciertamente, captura todo lo que está haciendo la IA actual.

Ahora, como se ha señalado, hay un problema de escala. Si pienso en una máquina de Turing simple, puedo calcular sus pasos uno por uno. Pero si pienso en una IA sofisticada, eso ya no es muy útil; es demasiado para mí tratar de simular todos los pasos en mi cabeza. No tenemos que pensar en IA a nivel humano para eso; incluso si juego Go contra AlphaGo, es más práctico y efectivo pensar en ello como entender el juego y tratar de ganarme (y seguramente tener éxito en eso). Entonces, puramente para fines prácticos, tiene sentido pensar en ello como una comprensión del juego.

Pero también hay sentidos de la palabra "comprensión" por los que podríamos ser escépticos de que AlphaGo entienda Go. ¿ Existe realmente algo parecido a ser AlphaGo? ¿Tiene calidad? ¿Tiene una verdadera apreciación de lo que realmente está haciendo cuando está jugando Go? Muchos, incluida la mayoría de los investigadores de IA, dirían que no, porque todavía sabemos que, en el fondo, todo lo que está sucediendo son muchos pequeños pasos de cómputo que se siguen de memoria, posiblemente distribuidos en varias máquinas, y parece que No hay razón para pensar que existe una "conciencia" centralizada de alto nivel del juego en cualquier lugar.

Pero ahora supongamos que realmente tenemos éxito en la construcción de IA a nivel humano, y supongamos que lo hacemos de una manera que no es drásticamente diferente de cómo se piensa acerca de la computación hoy en día, y este es el punto de la sala china, que la forma en que pensamos sobre computación hoy en día, cualquier cosa que hagamos podría ser implementada por una sala china (aunque extremadamente lentamente), porque simula una máquina de Turing. Entonces, si somos escépticos acerca de que AlphaGo realmente "entienda" a Go, ¿por qué no deberíamos ser igual de escépticos acerca de que esta IA de nivel humano tenga una comprensión real de lo que sea que esté hablando? Cuando entiendo algo, hay algo que es como, hay una especie de conciencia aparentemente centralizada de lo que se está comprendiendo. Pero no está claro por qué deberíamos pensar que la IA a nivel humano tiene una conciencia tan aparentemente centralizada, si solo examinamos la mecánica de cómo funciona, por la misma razón por la que podemos pensar que AlphaGo no la tiene.

Y, sin embargo, por supuesto, también existe una fuerte intuición de que si lo interrogamos y responde como lo haría un ser humano, pensaríamos que es realmente comprensivo. Así que no estoy diciendo que compre completamente el argumento de Searle. Pero creo que plantea una pregunta muy difícil y no ha sido refutada de manera decisiva. Por supuesto, de manera similar, todavía no entendemos cómo todas nuestras propias neuronas disparadas de alguna manera crean el tipo de conciencia que tenemos. Desde mi punto de vista, ese es el punto del argumento: está planteando algunas preguntas difíciles, señalando que todavía hay brechas reales en nuestra comprensión de estas cosas, y como probablemente puedas ver por lo anterior, creo que son estrechamente ligada a algunos de los problemas difíciles de la conciencia.

El argumento de Searle ha sido rechazado o refutado -lo que prefieras- en el famoso libro de Hofstaedter sobre Gödel, Escher y Bach.

Básicamente te está engañando mezclando escalas. Su cerebro está formado por unos pocos miles de millones de células cerebrales. Estas células cerebrales hacen todo el procesamiento de datos. Ninguna de las células del cerebro tiene comprensión o conciencia. Sin embargo , tienes conciencia y entiendes las cosas.

Mapea el cerebro a una habitación, no llena de miles de millones de células cerebrales de gran tamaño, sino con un solo humano manipulando símbolos. Ese humano no entiende ninguno de los símbolos. Por lo tanto, dice Searle, la sala no entiende nada.

Pero él está jugando un truco. Al hacer que un humano solo haga la manipulación del símbolo lentamente en lugar de que mil millones de células lo hagan mucho más rápido, crea una diferencia de velocidad de al menos 1: 10 mil millones, probablemente más. Entonces, lo que haces en un segundo, le toma a este pobre hombre por lo menos cientos de años. Nuestra mente no atribuiría comprensión e inteligencia a un sistema que tarda 300 años en reaccionar. Pero hazlo diez mil millones de veces más rápido. Ahora tienes algo que reacciona de forma similar a un humano. Puedes tener una conversación con él. Y en ese punto no hay una buena razón para decir que esta sala tiene menos comprensión que tú.

Y todavía no hemos desarrollado un programa que tenga ese tipo de comprensión, por lo que en este momento no hay una computadora "comprensiva". Eso no significa que no se pueda crear.

¿Qué tiene que ver la velocidad con la "comprensión"? Mi computadora puede hacer cálculos en un segundo pero no tiene idea de lo que está haciendo. De acuerdo con su razonamiento, no tendría "ninguna razón para decir que mi computadora tiene menos conocimientos de aritmética que yo". ¿Cómo sería un algoritmo de "comprensión": un conjunto de instrucciones que comprendan conceptos como "instrucciones"?