Searle inventó un experimento mental, la Habitación China , que propone como un argumento contra la IA fuerte (que las máquinas piensan) pero no contra la IA débil (que las máquinas simulan el pensamiento). Tiene a un hombre en una habitación manipulando símbolos chinos a través de un libro de instrucciones. escrito en ingles.
Mi pregunta es, ¿De dónde viene este libro de instrucciones? Todos somos conscientes de que los humanos escriben el código que controla una computadora, o escriben código que escribe más código para controlar una computadora (es decir, un compilador), etc.
Mi aclaración (es decir, si lo es), del experimento mental de la habitación china de Searle, es tener un hombre (John) que no entiende chino en una habitación con dos ventanas. En una ventana, alguien (Mai) envía preguntas en chino, en la otra ventana se encuentra un hombre (Lao) que entiende chino; cuando se envía una pregunta, John toma la pregunta, camina por la habitación, la pasa por la ventana y se la da a Lao, quien la lee, la responde y luego John camina de regreso a la primera ventana y le devuelve la respuesta. al Mai.
Para Mai, parece que John entiende chino (incluso, aunque extrañamente se niega a hablarlo). Ella no sabe que él tiene un colaborador humano secreto, Lao.
Creo que esto modela lo que realmente sucede en una computadora, mucho más claramente. Pero, ¿es esta una analogía precisa?
Lo que usted indica es que el tomo que le permite a John simular la comunicación en chino es un recurso computacional bastante tremendo: uno que es muy similar en complejidad, asumiendo que sus reglas son lo suficientemente complejas para años de conversación con éxito de la misma manera que un ensayista chino podría - a simplemente consultar con una persona china. Y creo que tienes bastante razón. Aunque el libro en sí es un objeto estático, codifica reglas para simular un proceso interactivo (¡por su propia construcción!) y, por lo tanto, no se distingue mucho, en términos de su valor como recurso conversacional, de una persona china.
Obviamente, un libro no es una persona china consciente. Creo que podemos decir con cierta confianza que un libro por sí solo no es ningún tipo de entidad consciente. Pero un libro como el que prevé Searle sería un recurso informático de enorme poder; de un poder absurdamente enorme , de hecho. (Y alguien que fuera lo suficientemente paciente como para usarlo con éxito no se quedaría atrás en el cálculo, o al menos en la ejecución confiable de sistemas de reglas complicados). Uno de los principales errores de Searle es imaginar que incluso podemos concebir de manera realista cómo debería verse este libro (o su usuario) para lograr el propósito que él proyecta para él. Básicamente, tendría que ser tan complicado como una parte considerable del cerebro humano, otrocosa que no entendemos en ningún otro nivel que no sea esencialmente sintáctico.
Hay una razón por la que la conciencia es un misterio. No tenemos la primera pista de cómo entender el mundo de tal manera que podamos tener poder predictivo y también la capacidad de usar ese poder predictivo para describir en qué consiste la conciencia, además de experimentarlo nosotros mismos y describirlo . los síntomas de aparente conciencia en otros. Decir que las computadoras no pueden ser conscientes porque no conocemos ningún mecanismo que le permita surgir de la evolución mecánica también es resumir el problema que tenemos para comprender nuestra propia conciencia.
Scott Aaronson, profesor de informática en el MIT, tiene cosas muy similares que decir. El siguiente es un extracto de un conjunto de notas de una conferencia suya sobre inteligencia artificial , de un conjunto de conferencias excelente y mucho más amplio.
En los últimos cincuenta años, ¿ha habido nuevos conocimientos sobre la prueba de Turing en sí? En mi opinión, no. Ha habido, por otro lado, un no-insight, que se llama el Cuarto Chino de Searle. Se supone que esto es un argumento de que incluso una computadora que pasó la prueba de Turing no sería inteligente. La forma en que funciona es, digamos que no hablas chino. (Debbie [una colega chino-estadounidense de Scott] no está aquí hoy, así que creo que es una suposición segura). Te sientas en una habitación y alguien te pasa hojas de papel a través de un agujero en la pared con preguntas escritas en chino, y puede responder las preguntas (nuevamente en chino) simplemente consultando un libro de reglas. En este caso, es posible que esté llevando a cabo una conversación inteligente en chino, pero suponiendo que no entiende ni una palabra de chino.
[...] Al igual que muchos otros experimentos mentales, la Habitación China obtiene su beneficio de una elección engañosa de imágenes, y más concretamente, de ignorar la complejidad computacional. Estamos invitados a imaginar a alguien empujando hojas de papel sin comprensión o perspicacia, muy parecido a los tontos estudiantes de primer año que escriben (a+b) 2 =a 2 +b 2en sus exámenes de matemáticas. Pero ¿de cuántas hojas de papel estamos hablando? ¿Qué tan grande tendría que ser el libro de reglas y qué tan rápido tendría que consultarlo para llevar a cabo una conversación inteligente en chino en algo parecido al tiempo real? Si cada página del libro de reglas correspondiera a una neurona de (digamos) el cerebro de Debbie, entonces probablemente estaríamos hablando de un "libro de reglas" al menos del tamaño de la Tierra, cuyas páginas podrían ser investigadas por un enjambre de robots que viajan a corta distancia. a la velocidad de la luz. Cuando lo pones de esa manera, tal vez no sea tan difícil imaginar que esta enorme entidad de habla china, este dian nao , que hemos creado podría tener algo que estaríamos dispuestos a llamar comprensión o perspicacia.
Estoy muy familiarizado con el argumento que hace John con su argumento de la habitación china, y es extremadamente consistente acerca de lo que quiere representar: que nuestro concepto de lo que significa entender el lenguaje es erróneo cuando tratamos de aplicar el término a cualquier máquina. que opera sólo sintácticamente. Es principalmente una refutación de la noción de que una prueba de Turing es suficiente para afirmar que existe una comprensión consciente.
Como administrador de sistemas durante el día y aspirante a estudiante de filosofía durante la noche, puedo decirles con plena confianza que sí, John Searle tiene razón cuando afirma que las computadoras funcionan puramente sintácticamente. Todo lo que hacen es manipular símbolos, y todavía necesitamos un agente humano para imbuir esos símbolos con significado. Aún así, la gran lección de nuestra era es darse cuenta de que la sintaxis por sí sola puede tener un poder tan increíble.
El problema con el ejemplo que diste arriba es que elude el punto mismo de la reducción que hace la Sala China.
En el ejemplo original, Mai enviaría su respuesta a una gran caja grande y recibiría respuestas inteligibles de esta caja (cuyo ocupante es agnóstica) en una cantidad de tiempo razonablemente rápida. Entonces, desde la perspectiva de Mai, la caja ha pasado la prueba de Turing: Mai cree que un ser consciente la ha entendido. Del lado de John, tiene un conjunto de cajones que contienen todo tipo de respuestas y frases para diferentes preguntas, y la guía que lleva simplemente lo dirige a un cajón apropiado según el mensaje chino que recibe.
La intuición a la que Searle se aferra aquí es que John no entiende chino , por lo que la creencia de Mai de que sus palabras están siendo entendidas por un ser consciente debe ser incorrecta. Tratar de reproducir el experimento mental con Lao jugando el papel del respondedor consciente y comprensivo, por lo tanto, solo elude todo el argumento sin abordar el problema que presenta.
Hay muchos desacuerdos profundos en este punto: podríamos defender a Mai afirmando que John+Box+guidebook juntos forman un sistema que entiende chino, por ejemplo. El mismo Searle niega que esta posición sea coherente, pero no todos compran su opinión. También está el problema que plantea Daniel Dennett, que Searle comete un error de categoría al usar la palabra "comprensión". En opinión de Dennett, la semántica es innecesaria para comprender el lenguaje, y las operaciones sintácticas son todo lo que hay para explicar la conciencia.
También podría intentar nivelar la acusación de que el error de Searle es pensar que incluso podría haber un conjunto de reglas a las que podría reducirse un idioma vivo como el chino. Sin embargo, este argumento tiene la consecuencia de que niega cualquier posibilidad de que una prueba de Turing pueda tener éxito. Como resultado, nivelar esta acusación requiere que ya esté de acuerdo con los resultados del experimento mental: que seguir las reglas por sí solo no puede explicar nuestra comprensión normativa de lo que constituye "comprensión".
Aunque creo que Searle está equivocado, no creo que hayas encontrado el problema. Está postulando que la entrada contiene el contenido, no solo el conocimiento del chino en forma destilada , especialmente con el ejemplo de caminar por la habitación. Pero muchos algoritmos de aprendizaje automático simplemente toman muchos ejemplos y luego pueden generar un comportamiento apropiado (dentro de los límites, por supuesto). Así que, una vez entrenados, no tienen contenido, ni siquiera destilaciones proporcionadas por humanos. Es cierto que las propiedades relevantes de, digamos, chino, están implícitas en los datos de entrada; pero, sin embargo, no se parece en nada a lo que intuimos que es el pensamiento, ni es el truco obvio de "yo estoy caminando" con mensajes a través de la habitación que usted propone.
(Searle propuso el experimento mental en un momento en que se pensaba que la IA basada en la lógica iba a tener mucho éxito, lo cual no ha sido. El experimento mental no se ajusta del todo a la práctica actual).
¿No es eso más bien lo que es/hace un correo electrónico? ¿Transportando información no traducida de A a B, exactamente de la forma en que se ingresó la información? Pero ese es exactamente el punto que plantea Searle con su analogía: el hombre que no habla chino pero que en realidad actúa (considerando solo el resultado de sus acciones) como si lo hiciera, porque tiene un libro de reglas que le dice cómo hacerlo. Si no me estoy perdiendo nada, entonces su analogía carece de premisas/suposiciones muy importantes.
Debo agregar que no sé casi nada sobre cómo funcionan las computadoras, pero dediqué algo de tiempo a ese capítulo (es decir, solo estoy hablando del argumento de Searle, no de las computadoras en general).
una hipótesis
Antes de la inauguración oficial de la Gran Sala China, John tenía un libro diferente y una gran pila de preguntas y respuestas de la vida real en chino: el Corpus chino completo . Este otro libro instruyó a John sobre cómo, utilizando la pila de preguntas como un conjunto de entrenamiento, escribir el libro que está usando actualmente para hacer que la habitación parezca estar hablando con Mai. La persona que escribió el primer libro tampoco sabía nada de chino, el conocimiento del chino en la habitación surgió de un análisis exhaustivo del uso del idioma en la vida real.
una variación con Lao
Una estratagema similar, pero involucrando a tu hablante chino oculto: Lao. Al igual que antes, John tiene un metamanual de instrucciones sobre cómo hacer que la sala entienda chino, pero algunas de las reglas del manual hacen que John interactúe con Lao. Estas interacciones no son tan simples como pasar tabletas de y a Mai, no, John tiene que mantener registros meticulosos de todo lo que ingresa, y cualquier respuesta que haga Lao y hace algunas manipulaciones arcanas de los registros (de hecho, construye el Corpus chino incompletoa medida que avanza). Entre esas manipulaciones está predecir lo que diría Lao, calcular la confianza de Room de que la predicción es precisa y calificar las predicciones en función de la respuesta real. Eventualmente, cuando la confianza de Room es más alta que cierto umbral, Lao queda fuera del circuito para una transacción o dos, y gradualmente su participación en el proyecto se desvanece al mínimo, solo para controlar la calidad de vez en cuando.
Una vez conocí a un físico que ocupaba la posición fuerte de IA. Tenía 16 años, no había encontrado este puesto antes y me parecía completamente absurdo. Aun así, ya no estoy convencido de que esta posición sea absolutamente absurda, todavía no entiendo por qué todo el mundo trata de refutar a John Searle. Mi sensación es que la configuración del experimento mental de John Searle se puede traducir de manera útil al contexto de las computadoras modernas:
Una computadora moderna ofrece una cierta cantidad de memoria, más precisamente una jerarquía de memoria con tamaño creciente pero velocidad de acceso decreciente. También ofrece un cierto poder de procesamiento, más precisamente un grupo de unidades de procesamiento paralelas con un número creciente pero una velocidad de interconexión decreciente. Esta arquitectura básica normalmente es independiente de los programas y datos de entrada que se utilizarán para generar resultados útiles con los recursos proporcionados por esta computadora.
En el experimento mental de la habitación china de Searle, se supone que John asume el papel de esta computadora y proporciona la memoria y el poder de procesamiento para el cálculo. En realidad, se supone que solo proporciona la memoria más rápida, mientras que la memoria realmente enorme pero lenta es externa a John en forma de papel y lápiz y el libro "mágico". Pero incluso si John asumiera el papel de la cinta "completa" de una máquina de Turing, ¿por qué deberíamos esperar que él (o la cinta) entienda la instancia del problema en la que está trabajando actualmente la máquina de Turing? Bueno, una de las razones es que para una máquina de Turing universal, el programa en sí también estaba escrito en la cinta, por lo que la cinta tenía acceso a toda la información relevante a lo largo del tiempo (excepto el significado y la interpretación de su salida final, pero dudo que esto es importante aquí).
Mi pregunta es, ¿De dónde viene este libro de instrucciones? Todos somos conscientes de que los humanos escriben el código que controla una computadora, o escriben código que escribe más código para controlar una computadora (es decir, un compilador), etc.
En la traducción anterior al contexto de las computadoras modernas, el libro de instrucciones es parte de la entrada. Este podría ser un punto importante, porque superficialmente parece que el único aporte proviene de Mai, quien envía las preguntas en chino.
Entonces, ¿de dónde viene la entrada? Supongo que la entrada proviene del entorno actual y pasado. Sin embargo, no podemos realmente mirar lo suficientemente lejos en el pasado para saber de dónde vino la "semilla inicial". Y además, tenemos la teoría de la evolución, que sugiere que la "semilla inicial" podría haber sido menos importante de lo que parece. Lo que me lleva a otra posición que me pareció completamente absurda cuando la encontré por primera vez. Alguien me sugirió que este mundo podría haber sido creado por extraterrestres. Encontré esto ridículo, porque plantea las preguntas de quién creó a los extraterrestres en primer lugar. Sin embargo, después de ver un clip en el que Richard Dawkins consideró seriamente esa posibilidad, debo admitir que, de hecho, podría ser una posición consistente.
Incluso si no está directamente relacionado con la pregunta, ¿cuál es mi suposición de cómo pueden surgir la comprensión y el significado durante cálculos complicados? Podría estar relacionado con la estructura del espacio y el tiempo, donde la comunicación de información entre diferentes puntos es necesaria durante un cómputo (porque la cantidad de información almacenada cerca de cualquier punto dado es finita) y toma una cierta cantidad de tiempo finita. La consecuencia es que los mensajes comprimidos con un significado más o menos claro en el contexto del cómputo se intercambian y entienden (ya veces se recuerdan para referencia posterior) durante el curso de un cómputo. (Y debido a que es poco probable que la computación que nuestro universo con su estructura de espacio y tiempo parece ejecutar termine pronto, no hay necesidad de preocuparse por el significado y la interpretación de su resultado final).
Si miramos a los animales, los humanos son inteligentes, los simios, los cerdos, los perros, los caballos son inteligentes, muy posiblemente las gallinas. Si las moscas o las hormigas son inteligentes es muy discutible, y una bacteria o un virus, de ninguna manera (en mi humilde opinión).
El argumento de Searle sugiere que una "computadora" operada por un músculo humano podría simular una conversación inteligente en chino, y seguramente todos estamos de acuerdo en que no hay forma de que la habitación de Searle pueda ser inteligente. ¡Seguramente también todos estamos de acuerdo en que no hay forma de que la habitación de Searle pueda simular una conversación inteligente en chino! Simplemente no es un dispositivo lo suficientemente avanzado para cualquier posibilidad.
De eso se supone que debemos concluir que una computadora altamente avanzada no puede "entender" el texto chino. Esto es como decir que debido a que la bacteria no puede entender chino, por lo tanto, un humano no puede. Esta no es una conclusión razonable.
Una computadora moderna podría hacer lo que hace la habitación de Searle unas 10 mil millones de veces más rápido, ignorando el hecho de que el hombre en la habitación de Searle no estará dispuesto a trabajar más de 1/3 del tiempo, lo que significa que una respuesta que una computadora moderna podría ceder en un segundo, le llevaría a la habitación de Searle mil años. En este momento no somos capaces de crear un libro de reglas que haga posible la conversación china. Para cuando podamos crearlo, las computadoras serán mil veces más rápidas.
¿Alguien estaría convencido de que la habitación de Searle, que no es solo una habitación sino el interior de un enorme rascacielos, en funcionamiento durante un millón de años, no puede hacer algo equivalente a la "comprensión" humana?
david titarenco
Mozibur Ullah
Mmmmmmm
Mozibur Ullah
Mozibur Ullah
Mmmmmmm
Mmmmmmm