¿Por qué la sala de chino no aprende chino?

Simplemente no puedo ver cómo la habitación china de John Searle tiene sentido. La habitación pasa la prueba de Turing. La gente fuera de la habitación piensa que hay un humano adentro que entiende chino. Pero, explica Searle, la sala en realidad contiene, en forma analógica, todos los elementos esenciales de una computadora digital electrónica programada para comprender (según Strong AI) el chino escrito. Pero el hombre monolingüe de habla inglesa en la sala (la CPU de la computadora) no entiende chino. Las tarjetas inscritas con símbolos chinos caen en la habitación a través de una ranura en la puerta. Estas son preguntas chinas sensatas. El libro de reglas (el programa) trata solo con sus formas, no con sus significados. Le indica al hombre que encuentre ciertos caracteres chinos entre los repuestos de la habitación y luego los saque por la ranura. Desconocido para el hombre, estas son respuestas chinas sensatas. Ni el hombre ni la habitación entienden los significados de las formas, ya que todo lo que tienen son las formas. A partir de aquí, Searle continúa argumentando que las computadoras nunca entenderán el lenguaje o el mundo.

Lo que me parece un error fundamental es que Searle basa su argumento en comparar una computadora que recibe símbolos chinos con un humano que recibe símbolos chinos. Luego, por el hecho de que la computadora no entiende el significado de los símbolos, Searle argumenta que las computadoras nunca podrían entender nada.

Bueno, los humanos tampoco pueden entender los significados de los símbolos. Los humanos primero tienen que aprender chino. ¿Por qué la sala no trata de aprender chino? Sin esto, el argumento de Searle no tiene sentido. Aprender chino implica desarrollar la estructura de la memoria. No hay estructura en el cuarto chino porque no hay nada en el cuarto para construirlo. La ontología de la habitación necesita que se le agreguen elementos estructurales para que luego contenga átomos de estructura así como símbolos (el contenido de la estructura). Luego, el programa puede indicarle al hombre que construya una estructura de memoria. Las computadoras digitales pueden construir fácilmente una estructura de memoria y, a menudo, lo hacen. Ahora con elementos estructurales, la sala china puede intentar aprender chino. Y, por cierto, la CRA no es sólida porque la premisa de Searle "... una computadora digital es una máquina sintáctica. Manipula símbolos y no hace nada más" (John Searle, 2014, "What Your Computer Can't Know", en The New York Review of Books, 9 de octubre de 2014) es falsa. Además, se puede argumentar bien que algunos elementos estructurales son semánticos.

Sería genial recibir algunos comentarios y críticas de mi respuesta anterior al argumento de la habitación china.

El libro de reglas contiene estructura, ¿no es así?
"Además, se puede argumentar bien que algunos elementos estructurales son semánticos". -- Muchas veces lo he visto discutido; pero nunca bien argumentado. Nombre un solo elemento semántico de una computadora digital.
Usted escribe: El libro de reglas (el programa) trata solo con sus formas, no con sus significados. Sin embargo, eso es todo lo que el ser humano sabe del idioma chino. Se supone que el programa puede tomar caracteres en un orden determinado y devolver una respuesta significativa. El programa tiene un proceso que le permite hacer más con los personajes de lo que el humano puede hacer. El punto es que seguir ese proceso no generará comprensión del chino ya que el ser humano puede seguir el programa, pero no entender chino después de hacerlo. Por lo tanto, hay más para comprender el chino de lo que cualquier programa puede contener.
la habitación tiene mucha memoria. piense en la cantidad de información codificada en la tabla de consulta, cuyo tamaño eclipsaría al universo conocido. o tal vez este es tu punto.
¿De dónde debe originarse la intención de aprender chino en la CPU? Si conoce la estructura de una CPU, puede ver fácilmente que no hay motivación para que ninguna parte de ella "comience a aprender chino". Eso es algo que hacemos los humanos, ya que aprender es esencial para sobrevivir.
Puede tener un punto de que la habitación de Searle no aprende, pero el aprendizaje es un proceso dinámico, agregar una estructura estática de memoria no es suficiente. Y la sala tiene lápices, papel y archivadores para construir tal estructura, por lo que no ayudaría. Searle se suscribe a la semántica del contenido (condicional de verdad), que puede ser parte del problema, no logra capturar el cambio conceptual y, por lo tanto, aprender de chino sin chino a chino fluido. Pero para responder a Searle, se necesita una descripción convincente de cómo se supone que funciona el aprendizaje y cómo crece el significado fuera de la mente humana más allá de simplemente agregar memoria.
@Quentin Ruyant. Supongo que el libro de reglas contiene estructura, como estructura de oración y tal vez índices, etc. (y una CPU de computadora tiene una pila de programas). Pero para mí, la cuestión es cuáles son los tipos de objetos de los que pueden hablar las reglas. Pueden hablar solo de símbolos. Esto se debe a que Searle cree que todo lo que las computadoras pueden hacer es manipular símbolos. Pero aprender implica establecer una estructura. Tiene que haber algo en la habitación que el hombre pueda usar para conectar los símbolos en una estructura. Pero no hay nada. Este es un error ontológico. Ese es mi argumento sobre la ontología de la habitación.
@Tim Kinsella. No estoy seguro de que la habitación tenga memoria en el sentido que tienen las computadoras. Searle se refiere a los símbolos chinos en movimiento como "racimos" y "lotes" y en reposo como "cajas" y "canastas". Pero, ¿cómo relaciona el hombre los símbolos entre sí? Por ejemplo, ¿cómo construiría estructuras de árboles binarios? Necesita nodos y conexiones para esto, pero solo tiene símbolos. Searle dice una y otra vez que las computadoras solo manipulan símbolos. Para mí, la diferencia fundamental entre los símbolos y la estructura es que los símbolos son individuos, están definidos por un valor de propiedad (por ejemplo, la forma), pero la estructura es relacional.
@ usuario4894. "Nombrar un solo elemento semántico de una computadora digital". Para empezar, debe referirse a los símbolos sensoriales , ya que estos son las consecuencias causales del mundo externo. Una superficie sensorial tiene detectores, cada uno de los cuales reacciona a un pequeño rango diferente de algún aspecto del mundo externo (por ejemplo, la frecuencia del sonido). Cuando se activa, un detector emite un símbolo único. La relación de contigüidad temporal entre los símbolos emitidos refleja la contigüidad temporal entre los eventos externos que causaron los símbolos. La contigüidad temporal entre símbolos se puede registrar de forma permanente mediante punteros.
@ usuario4894 continuación. Entonces, si A llega al flujo de símbolos sensoriales, entonces B, A y B se almacenan y un puntero los conecta (en orden). Entonces, el AB almacenado registra el hecho de que B siguió a A en el flujo cuando llegó a la computadora. Por supuesto, A y B no dicen nada acerca de los eventos externos que causaron que A y B fueran emitidos por el sensor. Pero la contigüidad entre A y B es lo mismo -adyacencia en el tiempo- que entre los respectivos acontecimientos externos. Al ser lo mismo , la conexión AB debe ser semántica (no A y B, sino la conexión). Es dificil de explicar. parece minimalista _
@CaZaNOx. Supongo que el programa podría simplemente ejecutar las operaciones (instruir al hombre para que ejecute las operaciones) en las que consiste el aprendizaje. A mí la motivación me parece un tema aparte. Mi problema principal es que si la ontología de los elementos que se pueden manipular de la sala es realmente deficiente (en comparación con una computadora), entonces la premisa de Searle "todo lo que las computadoras pueden hacer es manipular símbolos" es falsa y el CRA no es sólido. ¿Estás de acuerdo en que la habitación necesita elementos de estructura que el hombre pueda manipular? Y si es así, ¿esto hace que la CRA no sea sólida?
@Conifold. En cuanto a su primer punto acerca de que el aprendizaje es un proceso dinámico y la estructura es estática, estoy de acuerdo en que es cierto, pero mientras que en cualquier momento la estructura es fija, y en la siguiente etapa sigue siendo fija, pero entonces es una estructura diferente, haber aprendido algo. Agregar elementos de estructura a la habitación significa que el hombre puede manipular estos elementos, así como los símbolos chinos y construir cosas, por ejemplo, árboles binarios, y con el tiempo la habitación tendrá una estructura que cambia dinámicamente, gracias al programa.
Cortar el cambio no le brinda dinámica, solo una imitación de estilo de cálculo que se descompone exactamente para el propósito que tiene en mente. Las personas que desarrollan una semántica sin contenido típicamente introducen un elemento irreductiblemente dinámico (hábito en Peirce, conocimiento/habilidad en Ryle, práctica en Wittgenstein, etc.) y reconstruyen el contenido estático sobre su base como una abstracción limitante, y no al revés. No está claro qué podría ser eso en las computadoras, pero se supone que la retroalimentación y la acción sobre uno mismo están involucradas de alguna manera. La memoria no salva la brecha entre datos, programación y acción.
@Roddus No veo la deficiencia. Un núcleo de CPU consta de los siguientes elementos. ALU (Humano en el CRA), Registros (Montón de Símbolos), Unidad de Control CU (El libro de reglas) y buses (ranuras de entrada/salida del CR). Entonces, ¿qué falta en la CRA? Cuáles son los elementos de estructura en la CPU. También el hombre ya puede manipular los montones en el CR. No veo qué diferencia hace esta estructuración para la computación ALU poco a poco.
@CaZaNOx Estoy en el extranjero y no tengo mis cotizaciones de Searle. Entonces, sin ellos, Searle dice que todo lo que las computadoras hacen/pueden/podrían hacer es procesar símbolos, y las computadoras son dispositivos puramente sintácticos, es decir, dispositivos de manipulación de símbolos. Las únicas cosas en la sala que se pueden manipular son los símbolos. borrar/manipular la estructura de la memoria y construir árboles binarios, etc. Pero todo lo que manipula Searle son símbolos chinos (y solo estos están en las cestas y cajas de repuestos). Si Searle-en-la-habitación tuviera elementos estructurales (conexiones, nodos... ) podía relacionar símbolos y construir estructuras.
@Roddus No veo cómo esta respuesta aborda lo que escribí. En primer lugar, no deberíamos cambiar fácilmente del término cpu a computadoras. Sin embargo expliqué que el CR=CPU. Los símbolos están en el caso de la CPU 1 y 0. Acepto que una CPU puede relacionar esos símbolos para crear metaentidades virtuales como árboles binarios o nodos. Pero el significado lo da el ser humano externo que establece una determinada secuencia de bits para que tenga un significado x. La ALU no atribuye significado a la cadena que crea. Al menos no en las computadoras que usamos. ¿Tal vez quieras usar una especie de sistema de respuesta para distanciarte de CR?

Respuestas (6)

Incluso si el hombre dentro de la sala de chino memorizara todas las instancias de traducción (teóricamente, todas las combinaciones posibles que son imposibles dada nuestra memoria limitada, pero es un experimento mental, por lo que esta restricción no importa), ¿entendería chino, ya que no lo hace? No entiende el significado de ninguna de las cartas que le han presentado?

Searle no lo cree así:

en sentido literal, la computadora programada entiende lo que entienden el coche y la máquina de sumar, es decir, exactamente nada. La comprensión de la computadora no es solo (como mi comprensión del alemán) parcial o incompleta; es cero . . . En la jerga lingüística, sólo tienen sintaxis pero no semántica.

Por lo tanto, es difícil decir que el hombre en la sala de chino entiende chino, ya que solo está siguiendo un conjunto de reglas o algoritmos, muy parecido a lo que haría una IA o una computadora superinteligente que parece consciente .

Lo que es central en esto es la idea de la conciencia humana y si puede ser, en primer lugar, definida y, en segundo lugar, simulada en una computadora. Si no sabemos qué es la conciencia humana, no tenemos posibilidad de simularla en una computadora. Quizás la conciencia humana no sea más que interacciones físicas de las leyes de la naturaleza: química, fuerzas atómicas, biología molecular, campos cuánticos, conexiones celulares y neuronales, etc. O tal vez la conciencia humana es más que esto. La experiencia subjetiva, por lo tanto, no puede ser simulada por una máquina, ya que no se puede reducir a interacciones físicas y hay algo más en la conciencia que no podemos explicar suficientemente solo con explicaciones científicas. (Ver: qualia y el argumento filosófico del zombi).

Si surgió la conciencia y podemos crear condiciones similares a las que condujeron a este surgimiento, al construir una máquina o un programa de computadora que pueda emular este surgimiento, ¿podríamos entonces crear una conciencia artificial? Muy difícil de saber. Si los átomos de una cosa inteligente y consciente están basados ​​en silicio en lugar de carbono, y están dispuestos en una disposición exactamente idéntica, ¿estamos hablando de los mismos fenómenos? ¿La conciencia en sus variadas formas?

Los comentarios de Searle sobre esto:

"¿Podría una máquina pensar?" La respuesta es obviamente sí. Somos precisamente esas máquinas. "Sí, pero ¿podría pensar una máquina artificial hecha por el hombre?" Asumiendo que es posible producir artificialmente una máquina con un sistema nervioso, neuronas, axones y dendritas, y todo lo demás, suficientemente como la nuestra, nuevamente la respuesta a la pregunta parece ser obviamente, sí. Si puede duplicar exactamente las causas, podría duplicar los efectos. Y, de hecho, podría ser posible producir conciencia, intencionalidad y todo lo demás utilizando otros tipos de principios químicos distintos de los que utilizan los seres humanos. Es, como dije, una cuestión empírica.

Si usted es de la opinión de que no importa si la computadora 'realmente' sabe que es consciente y puede pasar una prueba de Turing sofisticada, entonces la apariencia es todo lo que necesita para estar convencido de que una IA realmente puede ser consciente. La IA fuerte, para Searle, es solo conciencia humana y no puede ser replicada por un programa de computadora. Es muy difícil definir qué se entiende por conciencia, por lo que todo su argumento se basa en saber en el fondo intuitivamente qué entendemos por "experiencia subjetiva de la realidad". Solo sabes realmente cómo es ser tú mismo, y ninguna computadora será capaz de 'saber' realmente cómo existe de la misma manera. Sin ver los límites en el futuro de lo que nuestra tecnología puede lograr; sin embargo,

Referencia:

Cole, David, "El argumento de la habitación china", The Stanford Encyclopedia of Philosophy (edición de invierno de 2015), Edward N. Zalta (ed.), URL = https://plato.stanford.edu/archives/win2015/entries/chinese -habitación/ .

Kirk, Robert, "Zombies", The Stanford Encyclopedia of Philosophy (edición de verano de 2015), Edward N. Zalta (ed.), URL = https://plato.stanford.edu/archives/sum2015/entries/zombies/ .

John R. Searle, "Mentes, cerebros y programas" en The Behavioral and Brain Sciences, vol. 3. Copyright @ 1980 Cambridge University Press.

Entonces, para Searle: ¿comprensión > pensamiento? Si no, parece extraño que él diga casualmente que la cuestión de una máquina pensante es "empírica". Eso es precisamente lo que la prueba de Turing pretendía abordar. ¿Sabes lo que tiene en mente?
@Timkinsella Creo que es una comprensión de la semántica o la comprensión del significado de las palabras, no solo la 'manipulación de símbolos' o la sintaxis (seguimiento de reglas) como dice Searle. A veces pienso que si una computadora parece entender, quizás no seamos más sabios. La máquina puede 'comprender' como nosotros. Eso es hasta que lleguemos a un punto en el que podamos romper su programación, tal vez alimentándolo con oraciones de Gödel que no puede manejar.
Supongo que me pregunto, si Searle cree que la pregunta de si una máquina está pensando es empírica, entonces debe creer que hay una prueba, superior a la prueba de Turing, que realmente puede distinguir las máquinas pensantes de las máquinas zombi. ¿Correcto?
Con respecto a su segundo punto, creo que quiere decir que podríamos establecer un experimento para emular la conciencia (a través de una computadora que simule las partes de nuestro universo que produjeron nuestra experiencia subjetiva, neurona por neurona, etc., y creo que quiere decir usar de forma totalmente artificial la hardware y software de una máquina de computadora y no por métodos en biología sintética) si algún día pudiéramos entender todas las leyes de la naturaleza que intervienen para hacernos conscientes, podríamos crear conciencia. Actualmente no sabemos cómo hacer esto o si es posible, pero si lo sabemos, algún día podríamos intentar verificarlo empíricamente.
Creo que el argumento de los zombis es principalmente para justificar que solo puedo creer que soy consciente, ya que solo yo sé cómo es la experiencia subjetiva para mí. Todos los demás agentes: conciencias artificiales u otros humanos, nunca puedo estar absolutamente seguro de si son 'realmente' conscientes como yo o simplemente zombis filosóficos. El argumento de los zombis de Chalmers nos muestra que incluso si pudiéramos simular la conciencia en una máquina, ¡no podríamos estar seguros de que es consciente y no solo un zombi! Es una posición extremadamente escéptica.
OK gracias. Veo que la posibilidad de tal simulación es una cuestión empírica. Sin embargo, creo que la parte significativa sería discernir si las entidades en la simulación son conscientes (o capaces de comprender o pensar).
@jphillips, entonces, si conociéramos los algoritmos de la conciencia humana en un nivel adecuadamente abstracto (abstraído por encima de la biología del cerebro orgánico), podríamos realizar los algoritmos en una computadora digital electrónica (a menos que Searle tenga razón y por alguna razón no declarada (¿inimaginable?) esto no se puede hacer). AI no conoce los algoritmos de la conciencia. Pero, ¿qué pasa con las estructuras de la conciencia? Seguramente necesita saber esto también. A menudo parece haber una fijación en el algoritmo (proceso) que ignora la estructura. Searle ignora la estructura. Eso es lo que creo que está mal con su habitación china.
Creo que la estructura de la experiencia subjetiva consciente podría basarse simplemente en piezas de información que siguen reglas matemáticas e isomorfismos. Sin embargo, eso implicaría saber cómo crear una estructura que modele el universo hasta la aleatoriedad cuántica. A menos que esto se haga, o hasta que esto se haga, lo que consideramos seres verdaderamente autoconscientes como nosotros, no se puede crear usando software, con la excepción de los fenómenos emergentes que no creemos que sean posibles actualmente. Bostrom cree que llegaremos a ese nivel de computación algún día, tal vez dentro de 100 años. Nuestro futuro es muy incierto.
"memorizó cada instancia de traducción" - ¿Sería necesario aprender chino para una IA, sin embargo? Se considera que los lenguajes humanos no están libres de contexto, por lo tanto, almacenarlos en una memoria como lo haría con los lenguajes libres de contexto no parece eficiente. Además, los lenguajes humanos son sensibles al contexto y una MT universal con una memoria ilimitada es capaz de decidirlos. La sensibilidad al contexto también parece ser lo que separaría un lenguaje en el que solo importa la sintaxis de un lenguaje en el que también importa la semántica.

Parece que hay varias cosas que no se entienden al hacer esta pregunta.

Searle dio un argumento intuitivo. No entendió y todavía no entiende los detalles, por lo que había un límite para lo que podía explicar.

En realidad, no importa si usó libros o si usó un sistema de archivo o una base de datos o si usó una IA de última generación, los resultados serían los mismos. Entonces, cualquier cosa que Searle dijera sería correcta o incorrecta, independientemente de cómo lo hayas construido. ¿Qué pasaría si construyeras una habitación así?

La sala sería capaz de responder correctamente a cualquier pregunta de stock. Esto estaría limitado únicamente por el tamaño y el tiempo de acceso a su base de información. Por cierto, esto es más o menos lo que hizo Watson cuando jugó Jeopardy. No entendió ninguna de las preguntas o respuestas, sino que solo buscó asociaciones. Entonces, Watson es probablemente el mejor ejemplo de una habitación china moderna. Si hiciera una pregunta bursátil como "¿Qué presidente de EE. UU. se rumoreaba que había talado un cerezo?", Watson descubriría que EE. UU., el presidente y el cerezo estaban asociados con George Washington y responderían correctamente. Pero esto no es comprensión, ni siquiera cerca.

La mente humana es fuerte en términos de su capacidad para generalizar, lo que significa aplicar patrones y lógica conocidos a condiciones fuera de la experiencia previa. De hecho, podrías atrapar a Watson muy fácilmente. Echemos

Supongamos que estuviera en una habitación con una puerta cerrada. Hay un botón en la pared que abrirá la puerta. Sin embargo, el botón está demasiado alto para alcanzarlo incluso si saltas. Hay una mesa de madera resistente, una escoba y una pelota de goma en la habitación. ¿Cómo podría intentar escapar?

Esta pregunta es trivial para un ser humano, pero Watson no podría dar ningún tipo de respuesta a menos que esa pregunta y una respuesta asociada estuvieran en su sistema de información. Incluso he oído hablar de experimentos que los niños pequeños pueden resolver pero que Watson sería incapaz de hacer. Y, este seguirá siendo el caso sin importar cuán grande sea la base de información. Entonces, Searle estaba mayormente en lo correcto.

No sé si esa es una representación justa de Watson o las computadoras, en general. Ciertamente, ninguna computadora funciona consultando una tabla de búsqueda (incluso en principio) como lo hace la sala china. Además, como mínimo, Watson tiene que hacer (y lo hace) mucho procesamiento de lenguaje natural. Acabo de mirar un clip del programa donde Watson responde correctamente la pregunta "Se cree que el jugador Charles Wells inspiró la canción 'el hombre que' hizo esto 'en Monte Carlo'". Ciertamente, Watson tiene la letra en su memoria, pero todavía tiene que "entender" la pregunta, en algún sentido.
Este es un buen video youtube.com/watch?v=DywO4zksfXw . El ejemplo que utilizan allí es la pregunta "la primera persona mencionada por su nombre en 'el hombre de la máscara de hierro' es este héroe del libro anterior del mismo autor".
@Timkinsella Watson es un motor de búsqueda de texto con una base de datos de back-end para aumentar la precisión. Watson funciona encontrando palabras y frases en Internet junto con asociaciones y luego revisando su base de datos. Esto es exactamente como una tabla de búsqueda. Nuevamente, está sobreestimando enormemente lo que hace Watson. Hice una búsqueda en Google sobre "charles wells man monte carlo" y el primer resultado contiene, "The Man Who Broke the Bank at Monte Carlo". Estás confundiendo una búsqueda por palabra clave con comprensión; Watson no tiene ninguno.
@Timkinsella Sí, el video muestra cómo funciona Watson, aunque cuando el narrador usa la palabra 'entender' no tiene el significado humano. La primera parte es el análisis; esta es una función bien conocida que se usa rutinariamente en los compiladores. ¿Notaste que Watson prueba múltiples variaciones de la pregunta? Esto se llama una búsqueda de fuerza bruta y de nuevo implica que no hay comprensión. Ella dice, "la cantidad triunfa sobre la precisión". Eso es lo contrario de cómo un humano abordaría la pregunta. La descripción es bastante buena, pero usa términos personificadores como entender y saber; estos no son precisos.
@Timkinsella En la última parte, Watson toma sus posibles respuestas y elimina las que son obviamente incorrectas y luego pondera el resto según la frecuencia. Luego usa la coincidencia de patrones para ver si el estilo de respuesta coincide con el estilo de las respuestas anteriores de Jeopardy. Luego, utiliza la teoría de juegos estándar para calcular el riesgo y la recompensa de responder, lo cual es muy rutinario. En todo este proceso, la única parte que requirió aprendizaje de redes neuronales fue el patrón de estilo Jeopardy. Nuevamente, nada en este proceso requiere comprensión del material. El programador principal de Watson ha dicho lo mismo.
"Eso es lo opuesto a cómo un humano abordaría la pregunta". ¿Sabemos cómo los humanos abordan las preguntas? También sí, puede buscar en Google la pregunta (o la "respuesta" ya que es un peligro) y luego usar su comprensión de la frase "quién hizo esto" para dar la respuesta correcta. Pero cuando haces eso, hay más en tu cabeza que consultar una tabla de búsqueda. ¿También probaste ese método con ""la primera persona mencionada por su nombre en 'el hombre de la máscara de hierro' es este héroe del libro anterior del mismo autor"?
Por cierto, lo que dije es cierto: ninguna computadora atraviesa linealmente una tabla de consulta como en la sala china. Cualquier problema por el que valga la pena preocuparse tiene una complejidad de tiempo exponencial usando ese método. Eso es solo el comienzo de las imágenes engañosas de la habitación china.
También estoy bastante seguro de que analizar el lenguaje natural es mucho más difícil que analizar los lenguajes de programación. tan casualmente pasar de uno a otro e insinuar su rutina parece engañoso
@Timkinsella No estoy seguro de qué más puedo decirte. Cada vez que trato de explicarte la diferencia entre un sistema como Watson y cómo piensa un humano, o ignoras lo que dije o mencionas algo trivial. Te di un ejemplo de una búsqueda. Watson en realidad hace una búsqueda de fuerza bruta con TODAS las variaciones de las palabras. Esto genera en su mayoría respuestas no relacionadas que luego elimina. No se trata de variaciones de una búsqueda; se trata de variaciones de arreglo de oraciones. Nuevamente, Watson no tiene idea de qué significa la oración o cómo debe leerse. Esto no es como lo haría un humano.
@Timkinsella También me sorprendió cuando preguntaste si sabíamos cómo lo hacen los humanos. Sí. Aprendiste esto en la escuela primaria: sujeto, verbo, objeto, adjetivos, adverbios, preposiciones, conjunciones, etc. Entiendes lo que significa la oración; Watson no lo hace. Si mal no recuerdo, hay al menos una teoría de la mente que involucra la competencia de señales neuronales que permiten algo similar a una búsqueda de fuerza bruta. Desafortunadamente, este modelo puede ser refutado. No es así como funciona el cerebro. Tampoco es así como funcionan las redes neuronales.
@Timkinsella No sé dónde aprendiste a programar, pero tus números están muy lejos. Una tabla de búsqueda se busca en tiempo de registro (n), no linealmente, lo que sería n tiempo. Si Watson realmente entendiera la pregunta, entonces la operación tomaría un tiempo similar a ordenar, n(log(n)), pero debido a que Watson debe hacer todas las variaciones de la oración, termina siendo exponencial. Si puede restringir el tema de Watson a algo estrecho, vuelve a caer en un tiempo no exponencial.
@Timkinsella Tiene razón en que el procesamiento del lenguaje natural (NLP) es más difícil que analizar un lenguaje de programación, pero esto ha tenido buenas soluciones desde hace algún tiempo. Mi teléfono Android tiene PNL. El problema es que lo que sigues insinuando es la comprensión del lenguaje natural (NLU). No hay ningún sistema hoy en día con NLU y ningún método conocido para crear NLU. Puedes buscar esto tú mismo. Watson no tiene NLU.
"Y, este seguirá siendo el caso sin importar cuán grande sea la base de información". - Esto es solo una opinión. ¿Por qué debemos creer esta afirmación? En segundo lugar, Watson, con su capacidad limitada para dar respuestas apropiadas en un contexto dado, no tiene nada que ver con la sala china, ya que Searl no limitó la sala a una clase particular de cálculos. Podría ser cualquier cálculo del espacio infinito de cálculos posibles.
su log n si la tabla está organizada en un árbol u ordenada de alguna forma lexicográfica. Las conversaciones chinas no tienen un orden lexicográfico natural como cadenas de bits. eres bienvenido a proponer una estructura de árbol enorme e insondable para el libro en la sala china, pero ya estás demostrando el punto al partir de las imágenes engañosas de una persona que verifica robóticamente los símbolos coincidentes en una pila de papeles desordenados.
También estoy seguro de que miles de investigadores de gramática generativa se sorprenderán al saber que la forma en que los humanos analizan el lenguaje natural ahora se entiende completamente.
finalmente, ¿qué quiere decir con "hace fuerza bruta con todas las variaciones de las palabras"? Una pregunta de riesgo con 20 palabras tiene algo así como 20^20 subconjuntos ordenados. ¿Es eso lo que estás diciendo?
"El problema es que lo que sigues insinuando es la comprensión del lenguaje natural". No he hecho ninguna afirmación sobre si Watson o cualquier otra computadora tiene o alguna vez tendrá "comprensión". Todo lo que he hecho es abordar tu afirmación de que las computadoras funcionan de la misma manera que funciona la sala china.

Considere lo siguiente sobre el argumento de la habitación china.

Primero, la IA fuerte es una visión de que los programas que se ejecutan en máquinas de Turing (computadoras) no solo producen resultados correctos sino que también generan conciencia cuando se ejecutan.

En segundo lugar, suponga que existe un programa que pasa la prueba de Turing para chino cuando se ejecuta en cualquier máquina de Turing, sin importar cuán avanzada o primitiva sea esa computadora.

Tercero, deje que un humano que no entiende chino simule una máquina de Turing siguiendo ese programa exitoso mientras está aislado de la influencia externa en una "habitación". Si la IA fuerte es correcta, esta debería ser una forma para que el ser humano no solo dé una respuesta correcta, sino también para entender el chino. Este programa sería una forma de que alguien aprenda chino.

En cuarto lugar, Searle afirma que el humano no entenderá ni aprenderá chino, pero podrá pasar la prueba de Turing usando el programa, ya que se supone que el programa puede hacerlo.

Quinto, mira el programa como la “mente”. Mire a la computadora como el "cuerpo". El cuerpo dirige la mente y esto supuestamente genera no solo resultados, sino también comprensión del chino. Es este dualismo mente-cuerpo el problema para un fisicalista.

Dado lo anterior, intentaré responder a esta pregunta.

“Los humanos primero tienen que aprender chino. ¿Por qué la sala no trata de aprender chino?

La habitación es solo una forma de aislar al humano de la influencia externa. No es la computadora. No hay nada para que la sala aprenda. El humano necesita aprender o entender chino ejecutando el programa. Ejecutar el programa es lo que cuenta, no qué computadora se usa para ejecutar el programa. El programa se puede mover a diferentes computadoras o diferentes humanos y los resultados deberían ser los mismos. La pregunta es si ejecutar el programa en cualquier lugar genera no solo un resultado correcto, sino también una comprensión del chino. Si es así, entonces esta sería una forma alternativa para que alguien aprenda un nuevo idioma.

Referencia: John Searle, "Mentes, cerebros y programas"

Entonces, ¿qué tipo de programa necesitaría ejecutarse para aprender un nuevo idioma? ¿Contendría este programa ejemplos de los símbolos del nuevo lenguaje? Si es así, ¿cómo podría ejecutar el programa aprender un nuevo idioma (es decir, uno que el sistema nunca antes había encontrado)?
@Roddus Aprendemos un nuevo idioma asociando el significado de las palabras con los sonidos o símbolos. El aprendizaje deberá incorporar el significado y no solo la manipulación de símbolos. El programador que conoce el lenguaje trata de encontrar una forma de comunicarse sin el significado, sino solo la sintaxis del lenguaje. El significado es una experiencia subjetiva del lenguaje, pero la sintaxis por sí sola es objetiva y no requiere una experiencia subjetiva del lenguaje. Pasar de lo objetivo a lo subjetivo es la razón por la que una IA fuerte no tendrá éxito y el chino no se aprenderá ejecutando el programa.
Asociamos significados con símbolos/sonidos - OK. Para el aprendizaje será necesario incorporar el significado, no solo [realizar] la manipulación de símbolos. Sí. El programador intenta comunicarse sin el significado sino solo sintaxis. OK, entonces, ¿él / ella usa la sintaxis para crear un comportamiento de máquina que los humanos pueden producir usando significados? Entonces, ¿la sintaxis es una especie de sustituto de los significados, o es un derivado del significado pero en sí mismo está desprovisto de significado? La sintaxis se puede usar para producir el comportamiento correcto, pero ¿eso es todo?
@Roddus Así es como lo veo. Pienso en el significado como subjetivo, un poco diferente para cada persona. Abstraer eso hace que la sintaxis sea objetiva, buena para todas las personas. Aún así, cada persona también entiende la sintaxis de manera diferente. Por eso es bueno que las máquinas manipulen la sintaxis, nuevamente, para eliminar las diferencias subjetivas en la comprensión de la sintaxis. La comprensión es subjetiva y diferente para cada uno de nosotros. Si lo eliminamos para que la máquina funcione objetivamente, no podemos recuperarlo sin que se involucre una persona con subjetividad.

Creo que ha dado con lo que normalmente se conoce como la " respuesta del sistema ", que es, en resumen, que el sistema de la sala entiende chino. Esto parece plausiblemente cierto en términos de una definición funcional de la comprensión, pero llegar al punto en el que uno puede concebir que el sistema de sala tiene una experiencia subjetiva de la comprensión es un abismo conceptual mucho más grande que saltar. (aunque, por lo que puedo decir, no se puede descartar, especialmente porque no sé con un alto grado de certeza cuáles de ustedes, queridos lectores, tienen experiencias subjetivas y cuáles son zombis).

Acerca de la experiencia subjetiva, eso parece correcto, un gran salto, la idea de subjetividad también parece bastante mal definida, aunque la distinción entre objetivo y subjetivo en algunos contextos es importante. En la respuesta del sistema, Searle dice, bueno, no hay nada en la habitación que pueda equivaler a una semántica. Estoy de acuerdo con ésto. Pero yo argumento que debería haber más en la sala, a saber, elementos relacionales (por ejemplo, nodos, conexiones). Las computadoras tienen estos. Podrían usarse para construir estructuras que podrían encarnar el aprendizaje. Las estructuras de redes neuronales aprenden patrones a partir de conjuntos de datos.
@Roddus El problema de prestar atención a la habitación, a la computadora o al ser humano es que ya no presta atención al programa, que es lo que se supone que genera comprensión. En el CRA tenemos la "computadora" perfecta con todo lo que necesitamos para comprender porque un ser humano está instanciando el programa al ejecutar los pasos del programa. A pesar de esto, no se espera que el ser humano entienda chino a través de este método de aprendizaje del idioma. Que las redes neuronales "aprendan" es una metáfora.
@Frank Hubeny Estoy de acuerdo con la descripción de Searle de la habitación en la que la mente está (según la IA fuerte) incorporada en el programa: la mente es para el cerebro lo que el programa es para la computadora. PERO el cerebro humano está lleno de estructura. Los procesos se propagan de un lugar a otro a través de la estructura. El programa es sólo el proceso. ¿Cómo se incorporaría la estructura del cerebro humano en el programa de computadora? Si no puede ser, presumiblemente, la sala china necesita algo para relacionar los símbolos en la estructura. ¿O crees que esto no es necesario?
@Roddus Esa es quizás una de las razones por las que Searle se opone a una IA fuerte: no es adecuada para explicar la mente. Tampoco le gusta el dualismo mente-cuerpo implícito en una IA fuerte. Si la mente es un programa, uno puede moverlo de un cuerpo a otro y duplicarlo. Sin embargo, uno podría objetar su fisicalismo de la misma manera que objeta la IA fuerte al afirmar que tampoco es una explicación completa para la mente. Entonces, incluso renunciar a una IA fuerte y agregar cosas a la habitación para simular mejor el cerebro no es suficiente para generar comprensión o conciencia.
@Frank Hubeny, ese es un buen punto: la IA fuerte solo se trata de que el programa sea la mente, que ignora la estructura. Pero las computadoras usan mucho las estructuras de memoria. Entonces, parece que la caracterización de Searle de Strong AI es defectuosa al ignorar la estructura. ¿Debería ser "el programa y las estructuras de memoria relevantes son para el hardware lo que la mente es para el cerebro"? Puede ser que su obsesión por la computación (el programa) lo haya cegado a las estructuras de la memoria. Que tales estructuras puedan ser semánticas en algún sentido es otro tema. programa + estructura = mente?
@Frank Hubeny, pero luego hablar de la estructura como parte de la mente y distinguir esa mente del cerebro parece extraño: la estructura es seguramente parte del cerebro. También es falsa la distinción mente-cerebro. Solo existe el cerebro y contiene estructura y procesos (algoritmos, programas) que operan en/sobre esa estructura. Diciendo que el medio d
@Frank Hubeny a riesgo de volverse aburrido: decir que el programa es para el hardware como la mente para el cerebro dice que los procesos neuronales (algoritmos) son la mente. Esto debe ser absurdo. ¡Dice que la estructura del cerebro no es parte integral de la mente!
@Roddus Según tengo entendido, "programa" es cualquier cosa en esa cinta teórica que lee una máquina de Turing que incluiría una memoria arbitrariamente grande. Sin embargo, estoy de acuerdo en que un programa real parece estar separado de la memoria física a la que hace referencia. No olvide, cuando el humano rastrea a través del programa, tiene acceso a su propia memoria, por lo que el programa agregado debería ser todo lo que necesita si la IA fuerte es verdadera. Su objeción a que la estructura del cerebro no sea parte de la mente es cómo interpreto la objeción de Searle a la IA fuerte. Él piensa que la IA fuerte se está perdiendo demasiado al enfocarse solo en la computación.
@Frank Hubeny Sí, es cierto (en mi humilde opinión), la principal objeción de Searle es la computación, no la computadora como dispositivo. Dice en alguna parte (¿su libro de 2004?) que, desde su punto de vista, el computacionalismo no tiene sentido, ¡quizás la crítica más dura que un filósofo puede pronunciar!. Pero Searle también acepta que la máquina de Turing es la definición de la computadora moderna. Debido a que asume que las computadoras solo computan, una conclusión del CRA es que ninguna computadora pensará jamás. Deberíamos aceptar el rechazo de Searle a la computación, pero si las computadoras pueden hacer otras cosas además de computar es un asunto aparte.
Votado a favor ya que esta es la única respuesta que reconoce que el ser humano no es la habitación.

Esta pregunta se reduce a los qualia, ¿hay alguna diferencia entre un estado observado desde afuera y subjetivamente desde adentro? The Chinese Room nos ayuda a pensar en eso, pero plantea más preguntas de las que responde.

Sin embargo, nos estamos moviendo hacia una nueva era con esta pregunta, a medida que nos acercamos al punto de poder construir una habitación así.

Desde cero, tenemos procesamiento de lenguaje natural como https://en.m.wikipedia.org/wiki/Watson_(computer)

Y desde la simulación del cerebro humano hacia abajo, tenemos https://en.m.wikipedia.org/wiki/Human_Brain_Project

Un ser humano, o una habitación que ha "aprendido chino" en lugar de solo recibir respuestas limitadas a situaciones preprogramadas, no solo daría respuestas a preguntas bien formuladas, sino que podría interpretar preguntas incompletas o poco claras y reinterpretar definiciones sobre la marcha ( Watson tuvo problemas con preguntas cortas, por ejemplo, sin contexto). La configuración intenta decir que no lo harían, pero el lenguaje humano natural está lleno de ellos. Sí, la sala necesita estructuras, paralelas a las estructuras mentales humanas o de aprendizaje, y solo serán tan capaces como sofisticadas. Tenemos que mirar el umbral entre el aprendizaje de memoria y la comprensión de un idioma, como entre los movimientos de ajedrez de fuerza bruta y ser capaz de entender el juego. ¿Qué es la comprensión?

Hacemos cosas complejas y las damos por sentadas, lo que enturbia el agua de esto, de manera similar a cómo descubrimos que el procesamiento visual por computadora es mucho más difícil de lo esperado, porque suceden muchas cosas de las que no somos conscientes. El mejor marco que conozco para comprender lo que puede estar marcando la diferencia, desde cero, es la imagen https://en.m.wikipedia.org/wiki/Strange_loop .

Es un gran punto sobre preguntas incompletas que un sistema semántico podría responder adecuadamente. Entonces, la idea de Searle de que el programa en la sala es tan bueno que puede responder adecuadamente cualquier pregunta tiene un problema. ¿Cómo podría responder preguntas incompletas sin entender el contexto? ¿Podría existir algo así como un programa que pudiera responder adecuadamente a las preguntas incompletas?
Su punto sobre los movimientos de ajedrez de fuerza bruta en comparación con la comprensión del juego: el programa en la sala china fuerza bruta una respuesta a la pregunta china (y no comprende el idioma), pero un humano entiende el idioma. ¿Qué es la comprensión? Bueno, supongo que una idea son las conexiones entre representaciones internas, es decir, que el significado de un símbolo (palabra...) es un grupo de representaciones internas asociadas.
Y sobre su punto de comprensión de los versos de fuerza bruta / de memoria. ¿Qué pasa con esta pregunta para la sala china (en inglés): tome estas dos preguntas: (1) la policía arrestó a los manifestantes porque estaban borrachos, (2) la policía golpeó a los manifestantes porque estaban borrachos. En estas dos preguntas, ¿a quién se refiere "ellos"? ¿Qué respuesta va a dar el libro de reglas en la habitación? ¿Y qué hay de la pregunta, cuál de estos nombres sería mejor para un gatito: grax, hrip, mooggle, dast, lagz?

Permítanme formular otra pregunta para quizás cambiar la opinión sobre esto:

¿Puede el hombre aprender chino de esta manera? No es lo mismo memorizar reglas y respuestas ya dadas y reproducirlas que si las hubiera entendido. Esto va un poco en la dirección de responder preguntas incompletas y si hay qualia para el hombre dentro de la habitación (es decir, ¿tiene el hombre alguna representación de lo que está haciendo en su mente que no sea el libro de / reglas memorizadas e históricas? respuestas, ya producidas). Sin embargo, hay algunos aspectos que me gustaría enfatizar con esta ligera modificación a la pregunta original:

En primer lugar, aunque el hombre/sistema aprenda las reglas de memoria y pueda recordar todas las combinaciones de símbolos (respuestas) que ya ha producido, yo diría que sigue sin comprender. PERO, ¿es posible que desarrolle un sentimiento (conjunto interno de reglas) para producir respuestas correctas, además de las reglas del libro?

En segundo lugar, ¿puede ser mejor? ¿Pueden estas nuevas reglas internalizadas/aprendidas/autodesarrolladas permitirle al hombre dar respuestas semánticamente correctas, que no están en la forma esperada? Por ejemplo: ¿puede dar una respuesta diferente a una pregunta que ya respondió antes, aún sin entender una sola palabra de chino? Diferente en el sentido de que la gente de afuera aceptaría la respuesta como correcta, pero no es la misma redacción que usó antes. Por ejemplo, la pregunta podría ser "¿Es blanca la nieve?". La respuesta correcta y esperada sería "Sí, lo es". Tenga en cuenta que esta respuesta no solo es semántica sino también gramaticalmente correcta. La nueva respuesta podría ser un simple "Sí", que supongo que se aceptaría como correcto, pero no es absolutamente correcto.

Tercero, ¿este conjunto de nuevas reglas dentro del hombre establece algo como un Súper-Lenguaje para el chino, o es algo completamente diferente y nuevo? ¿Puede formar nuevas ideas, oraciones o resolver cualquier problema inherente que se esconde dentro de la pregunta planteada, usando su conjunto de reglas, de modo que la respuesta técnicamente todavía sea el idioma chino y sea entendida por la gente de afuera, pero es tan extraño para ellos que ¿No lo habrían inventado ellos mismos? ¿O el hombre dentro de la habitación ha desarrollado un lenguaje completamente nuevo, que solo él entiende (ya que no hay nadie más con las mismas reglas interiorizadas)?

Cuarto, ¿quién decide cuál es la respuesta correcta? Un profesor de chino diría, "Shì (sí)" no es una respuesta (gramaticalmente) correcta, mientras que el Kim Lee promedio lo aceptaría como correcto. Esto trae esta discusión de regreso a todo el campo de la Filosofía de la Mente con todos sus propios pensamientos y discusiones. Así que me gustaría detenerme aquí.

Finalmente, me gustaría hacer una anotación general: la prueba de Turing y la configuración de este experimento mental respiran el espíritu del conductismo, donde solo cuenta el resultado visible (externo). En lo que respecta a las computadoras (sistemas de manipulación de símbolos), en realidad podría parecer la única forma de obtener una respuesta a la pregunta: ¿entienden lo que están haciendo? ¿Pero es? Tal vez la pregunta sea engañosa. ¿Quizás sí entienden pero de una manera diferente? ¿Y cómo podemos saberlo? ¿Entiendes lo que estás haciendo? ¿Completamente? ¿Todo el tiempo? ¿Entiende un hombre a la sociedad, que condena a una persona por robar comida como un acto contra la sociedad? ¿Qué pasaría si el mismo hombre se para junto a una persona sin hogar y no le da comida, aunque podría hacerlo, ya que su acción no es ilegal y ni siquiera se espera que no ayude?

Espero sus respuestas y espero que mi respuesta le ayude a obtener nuevos conocimientos.