Hay muchas refutaciones del argumento de la Sala China de John Searle contra la IA fuerte. Pero parecen estar abordando la estructura del experimento mental en sí, a diferencia del principio epistémico subyacente que está tratando de ilustrar.
Este principio es "la sintaxis no es semántica" (vea estas conferencias de John Searle): al final del día, el software de computadora, incluso la IA más avanzada que se pueda concebir, manipula los símbolos de acuerdo con un conjunto de reglas sintácticas, independientemente de su significado.
Cualquiera que haya estudiado lógica formal sabe que reglas como las leyes de De Morgan o las leyes de idempotencia (por ejemplo, A ^ A = A) son independientes del significado de los símbolos que se procesan.
Esta idea, que la sintaxis es independiente de la semántica y, por lo tanto, una computadora puede funcionar perfectamente sin siquiera saber el significado de lo que está computando parece un argumento mucho más fuerte contra la IA y el funcionalismo Mente-Cuerpo en general, que el argumento chino original de Searle.
¿Cuáles son las principales refutaciones presentadas por los defensores del funcionalismo y la IA fuerte específicamente del argumento de que "la sintaxis no es semántica"?
El principio de "sintaxis no es semántica" en el argumento de la habitación china (CRA) se basa en la relación entre la computadora Searle y los símbolos chinos. Searle caracteriza correctamente esto como una relación formal de procesamiento de símbolos en la que la computadora Searle manipula los símbolos puramente sintácticamente, según sus formas solamente, sin hacer ninguna interpretación subjetiva de ellos. Esta relación formal es el eje de la CRA y la refutación del computacionalismo (también conocido como funcionalismo computacional , IA fuerte ) de Searle.
La teoría de la máquina de Turing (TM) explica por qué esta "pieza clave" es simplemente un caso especial, y expone la enorme brecha en el razonamiento que surge al ignorar la parte más importante de la imagen: el programa. Por ejemplo, la teoría destaca esta reveladora discrepancia:
Si las computadoras carecen de semántica interna, entonces ¿por qué los programas de la computadora Searle deben estar en inglés?
Searle nunca aborda esta importante inconsistencia en su posición.
La computadora Searle es totalmente programable, por lo que es una TM universal (UTM). Cada UTM tiene una entrada de dos partes: (1) un programa y (2) una "entrada nominal" para que el programa la procese. Por ejemplo, si se le da el programa ADD, para la suma, y la entrada nominal "3, 4", el Searle-UTM generaría "7". Debido a que los dígitos "0-9" son solo símbolos formales para Searle-UTM, podrían codificarse como caracteres chinos, y Searle-UTM aún realizaría sumas, al igual que CRA. Sin embargo, no ocurre lo mismo con la otra entrada de Searle-UTM, el programa ADD. Si estuviera escrito en chino, por ejemplo, entonces el Searle-UTM fallaría.
Tenga en cuenta que Searle-UTM puede procesar correctamente los símbolos chinos (#2) sobre una base puramente formal (sintáctica) solo porque también tiene una entrada de programa (#1) que es realmente responsable de determinar qué hacer con ellos. El programa, no Searle-UTM, determina cómo se procesan realmente los símbolos chinos, por lo que Searle-UTM solo necesita manipularlos formalmente, actuando como el vehículo del programa o "intermediario".
Por otro lado, la Searle-UTM es la única responsable de procesar correctamente el propio programa. La Searle-UTM debe conectar causalmente los símbolos del programa con las entidades físicas y los procesos que representan, un proceso no formal que realiza representaciones simbólicas como eventos reales específicos. Por lo tanto, el procesamiento de símbolos formales que es el eje de Searle, es solo una consecuencia de la relación especial que tiene un UTM con su entrada nominal (formal), que está mediada por una entrada de programa que es procesada no formalmente por el UTM.
"¡Es el programa, estúpido!"
P: ¿Qué es un programa?
R: Es la especificación de cómo funciona alguna MT: una especie de modelo para instanciar una MT que normalmente no es universal.
P: ¿Qué sucede cuando un UTM ejecuta un programa?
R: Ocurren dos cálculos de TM significativos: (1) el cómputo universal instancia (2) el cómputo del TM del programa. (La Searle-UTM solo puede introspeccionar en el primero, su propia computación universal, que implica leer las instrucciones del programa en inglés y ejecutarlas).
P: ¿Qué sucede semánticamente dentro de la Sala China, si es que ocurre algo?
R: No lo sabemos porque no sabemos cómo funciona el programa. De nada sirve preguntarle a la Searle-UTM porque él tampoco sabe. No sabe si su programa está haciendo una prueba china de Turing o tres en raya. Solo conoce su propio algoritmo universal: "lee el programa y ejecuta sus pasos en la entrada nominal". Para conocer la naturaleza del cómputo responsable del comportamiento observado externamente, lo único que importa es el programa, y se deja sin especificar.
Searle ignora o descarta por completo el segundo cálculo de TM, que surge del programa. Sin embargo, su existencia es un hecho matemático, no sólo una afirmación filosófica. No depende de opiniones subjetivas o intuiciones de nadie. Solo requiere una comprensión objetiva de cómo funcionan los UTM. Esto también explica por qué la respuesta de Systems/Virtual-Mind ha sido el tipo de refutación de CRA más popular: http://www.scholarpedia.org/article/Chinese_room_argument#The_systems_reply
El enfoque obsesivo de Searle en una peculiaridad en la naturaleza de los UTM es algo comprensible porque las computadoras y los programas UTM son muy icónicos en nuestra cultura. Sin embargo, en las discusiones filosóficas, es crucial centrarse en la teoría de la MT en sí misma y en las MT generales, no solo en las UTM. El hecho de no hacerlo significa que la CRA falla miserablemente como una refutación del computacionalismo mientras genera décadas de debate infructuoso en el proceso.
UTMs vs. TMs Generales
P: ¿No son los UTM "universales" (es decir, representativos de todos los TM)?
R: Si bien un UTM puede instanciar cualquier otro TM a través de su programa, el propio algoritmo interno de un UTM y la entrada especializada para esta programabilidad universal son muy específicos y no representan en absoluto la computación de TM en general. Centrarse en esto como lo hace la CRA es una distracción poco saludable.
P: ¿Qué puede hacer una TM general que no pueda hacer una UTM?
R: Una UTM siempre debe actuar como una máquina de memoria. Debe garantizar fielmente que el mismo programa dado funcionará de la misma manera cada vez. En general, una TM no universal podría cambiar su propio comportamiento con el tiempo en función de su historial de entrada y salida.
Para obtener una explicación más completa y una discusión sobre este tema, consulte los artículos proporcionados aquí: http://www.chineseroom.info/
EDITAR: una versión posterior de esta explicación está aquí, varios niveles de respuesta hacia abajo: https://www.reddit.com/r/askphilosophy/comments/50igj8/if_you_could_chat_with_john_searle/
Wittgenstein en su período intermedio dio una respuesta, antes de la era de la investigación en IA y las objeciones de Searle. En pocas palabras: la semántica es otra sintaxis. Las palabras solo significan como actores en un cálculo lingüístico, y su significado se reduce a la colección de reglas que gobiernan su uso en el cálculo. Por supuesto, estaba pensando en las matemáticas y el lenguaje en general más que en las computadoras. Aquí está Wittgenstein sobre las metamatemáticas como "semántica" de las matemáticas :
" Lo que hace Hilbert son matemáticas y no metamatemáticas. Es otro cálculo como cualquier otro. Puedo jugar con piezas de ajedrez, de acuerdo con ciertas reglas. Pero también puedo inventar un juego en el que juego con las reglas mismas. Las piezas de mi juego son ahora las reglas del ajedrez, y las reglas del juego son, digamos, las leyes de la lógica. En ese caso, tengo otro juego y no un metajuego... Lo que se conoce como la 'teoría del ajedrez' es t una teoría que describe algo, es una especie de geometría. Es, por supuesto, a su vez, un cálculo y no una teoría ".
Lo que Wittgenstein llegó a apreciar más tarde, en Investigaciones filosóficas, es que los "juegos de lenguaje" realistas no se pueden reducir a cálculos, están demasiado matizados para eso. Pero eso no significó el restablecimiento de la "intencionalidad" y los "significados" como entidades, significó que incluso las "reglas" no son entidades que puedan ser enunciadas. El "sentido" se adquiere en la actividad, en la práctica lingüística. De una forma muy diferente y por una ruta muy diferente, otros llegaron a la misma conclusión, y llegaron a desempeñar un papel inesperadamente destacado en la investigación de la IA. Dreyfus, el crítico perenne de lo que pueden hacer las computadoras desde la década de 1960, ofrece un relato muy interesante en Por qué falló la IA heideggeriana y cómo arreglarla requeriría hacerla más heideggeriana :
"Usando a Heidegger como guía, comencé a buscar señales de que todo el programa de investigación de IA estaba degenerando. Me llamó especialmente la atención el hecho de que, entre otros problemas, los investigadores se enfrentaban al problema de representar el significado y la relevancia, un problema que, según Heidegger, estaba implícito en la comprensión de Descartes del mundo como un conjunto de hechos sin sentido a los que la mente se enfrenta. asignó lo que Descartes llamó valores y John Searle ahora llama predicados de funciones. Pero, advirtió Heidegger, los valores son simplemente más hechos sin sentido... Una versión de este problema de relevancia se llama el problema del marco. Si la computadora está ejecutando una representación del estado actual del mundo y algo en el mundo cambia, ¿cómo determina el programa cuál de los hechos representados se puede suponer que ha permanecido igual?
El trabajo de Merleau-Ponty, por el contrario, ofrece una explicación no figurativa de la forma en que se acoplan el cuerpo y el mundo que sugiere una forma de evitar el problema del marco. Según Merleau-Ponty, a medida que un agente adquiere habilidades, esas habilidades se “almacenan”, no como representaciones en la mente, sino como una preparación corporal para responder a las solicitudes de situaciones en el mundo. Lo que el aprendiz adquiere a través de la experiencia no se representa en absoluto, sino que se presenta al aprendiz como situaciones cada vez más finamente discriminadas... "
Agre, Brooks, Wheeler, Winograd y otros grandes nombres de la IA finalmente llegaron a asimilar lo que Dreyfus estaba vendiendo en nombre de Heidegger y Merleau-Ponty. Esto ahora se llama "cognición incrustada en el cuerpo", y la "IA heideggeriana" también es un término técnico. Incluso Cog de Dennett incorporó algunas de estas ideas, aunque eso no lo salvó. Así que Searle tiene razón, la semántica no es sintaxis, pero es poco probable que le gusten las conclusiones que los investigadores de IA extrajeron de ella. Es decir, que los significados no son entidades representacionales conectadas misteriosamente con el mundo real, como diría Descartes, y que la intencionalidad no es una sustancia pegajosa especial exudada por los sistemas orgánicos, como diría Searle, sino efectos dinámicos que emergen en el proceso de interacción con el medio ambiente. , incluidos otros actores. La semántica no es sintaxis porque el significado y la intencionalidad son prerrogativas de los jugadores activos. La computadora no puede ser un jugador así, tiene que ser un robot de IA de algún tipo. En cierto modo, esta actitud se muestra en versiones más recientes de laSistemas y Robot responde a la sala china.
Queda por ver si esta "intencionalidad incorporada-incrustada" funciona. Como sugiere el título de Dreyfus, es un trabajo en progreso, y él acusa que todas las implementaciones existentes todavía son demasiado representativas.
Usted hace la pregunta obvia. "Si la semántica no es sintaxis, ¿entonces qué es?"
Si los dos están realmente separados, tiene una terrible dificultad para explicar cómo se puede enseñar la semántica. O terminas en algún tipo de idealismo obligatorio donde los conceptos básicos de significado necesarios para arrancar la semántica ya están 'allí', o con un modelo funcionalista como Wittgenstein, Desassure o Lacan.
En este último caso no hay sintaxis y semántica, sólo hay un continuo de semiótica con dos extremos inalcanzables. (Una forma 'más linda' de presentar el caso que hace @Conifold. Así que no me voy a molestar en repetir el razonamiento aquí). La semántica es solo la sintaxis del comportamiento en general, en lugar de la sintaxis de un rango estrecho específico de comportamientos que hace con tu aparato vocal, con texto, o con gestos. Si su distinción es un espectro, y las formas puras de ninguno de los extremos son reales, el argumento ya no se puede hacer.
En el primer caso, el más en consonancia con Searle, el argumento se vuelve mucho más amplio y toma demasiadas formas para acabar con todas a la vez. Pero en la mayoría de las formas de idealismo que permiten una estructura interna básica para la mente independiente de su función en la realidad, la semántica tampoco es real.
El significado en la forma que puede ocupar la mente es real, y es significado, no semántica. Y la conexión entre mentes que transfiere significado a través del comportamiento es real. Y lo es, al estar hecho de comportamiento, sintaxis, no semántica.
La inteligencia, entonces, tal como se muestra funcionalmente a través del comportamiento de los humanos, es solo este envoltorio sintáctico generalizado en torno a un proceso esencialmente diferente . Tal vez uno no pueda reproducir artificialmente ese proceso , pero esa es una declaración diferente. No hay ninguna razón por la cual el envoltorio mismo, la inteligencia, no pueda existir sin el relleno habitual de la mente y la voluntad.
Creo que la oración exacta de Searle en el artículo de Chinese Room fue "la sintaxis no es suficiente para la semántica". Precisó el significado de la oración al proponer un caso en el que la sintaxis de una lengua se opera perfectamente sin que del proceso surja ninguna comprensión semántica. Ahora bien, la semántica en el sentido de Searle es cierta comprensión mental y es bastante obvio que es posible operar la sintaxis de un lenguaje sin un atisbo mental de su significado que emerge de la operación. Por lo tanto, en el sentido de Searle, la sintaxis no es suficiente para la semántica.
Esta idea, que la sintaxis es independiente de la semántica y, por lo tanto, una computadora puede funcionar perfectamente sin siquiera saber el significado de lo que está computando parece un argumento mucho más fuerte contra la IA y el funcionalismo Mente-Cuerpo en general, que el argumento chino original de Searle.
aquí hay misticismo. una simulación de un humano es un humano. es lo mismo. las mentes humanas son software que se ejecuta en una computadora clásica. eso es lo que ya eres: una computadora que ejecuta software. los detalles del hardware no importan para los cálculos. no se requiere alma ni moléculas orgánicas.
un programa de software de inteligencia tiene que hacer ciertas cosas. incluido en la lista es crear conocimiento. el único proceso conocido de creación de conocimiento es la evolución. el conocimiento se puede crear a través de la replicación con variación y selección. (en el caso de las ideas, esto normalmente se llama lluvia de ideas y pensamiento crítico para eliminar errores). software que hace esto dentro de varios parámetros, y hace algunas otras cosas, sería una persona pensante. Eso es todo al respecto. cosas como las emociones son propiedades emergentes del software, no están ligadas a las almas, el hardware está hecho de moléculas orgánicas en lugar de silicio, etc.
La forma en que abstraes la diferencia entre inteligencia artificial y natural me genera dudas. Incrustas tu discurso, lo marcas como perteneciente a un dominio diferente de la realidad del cerebro humano y, sin embargo, terminas diciendo, "sintaxis" y "semántica", sin reservas.
Para ser estricto en términos, estaría hablando de rutinas de análisis de IA en estructuras designadas de IA, no en realidad procesos sintácticos en semántica. En ese sentido, creo que las rutinas pueden ser independientes de las estructuras, en una mente artificial. Las computadoras no tienen conocimiento.
Para los humanos, Beatty y Schluroff encontraron que la incoherencia semántica anulaba la corrección sintáctica. La curva pupilométrica para secuencias distorsionadas semánticamente se aproximó a la de fragmentos estructurados incidentalmente. La sintaxis natural no es independiente de la semántica.
https://feedbackandlanguage.com/capítulo-tres-el-rol-de-la-retroalimentación-en-el-uso-del-lenguaje/
dave
rey alejandro s
usuario19423
Pregunta por Mónica
Mmmmmmm
sdenham
Roddus
sdenham
Roddus