¿Cómo se puede refutar el argumento de John Searle de que "la sintaxis no es semántica" contra una IA fuerte?

Hay muchas refutaciones del argumento de la Sala China de John Searle contra la IA fuerte. Pero parecen estar abordando la estructura del experimento mental en sí, a diferencia del principio epistémico subyacente que está tratando de ilustrar.

Este principio es "la sintaxis no es semántica" (vea estas conferencias de John Searle): al final del día, el software de computadora, incluso la IA más avanzada que se pueda concebir, manipula los símbolos de acuerdo con un conjunto de reglas sintácticas, independientemente de su significado.

Cualquiera que haya estudiado lógica formal sabe que reglas como las leyes de De Morgan o las leyes de idempotencia (por ejemplo, A ^ A = A) son independientes del significado de los símbolos que se procesan.

Esta idea, que la sintaxis es independiente de la semántica y, por lo tanto, una computadora puede funcionar perfectamente sin siquiera saber el significado de lo que está computando parece un argumento mucho más fuerte contra la IA y el funcionalismo Mente-Cuerpo en general, que el argumento chino original de Searle.

¿Cuáles son las principales refutaciones presentadas por los defensores del funcionalismo y la IA fuerte específicamente del argumento de que "la sintaxis no es semántica"?

¿Esta respuesta no hace esto: philosofy.stackexchange.com/a/1109/3733 ? -- Si puede construir una habitación china, entonces ya ha reducido la semántica a la sintaxis al construir el conjunto de reglas chino universal.
@Dave Estoy buscando específicamente refutaciones de la sintaxis, no es un argumento semántico, no las otras refutaciones como la refutación de sistemas o la refutación de robots.
Dado que menciona la informática en este contexto, ¿está familiarizado con la teoría del dominio y la semántica denotacional, por ejemplo, en.wikipedia.org/wiki/Denotational_semantics? Por ejemplo, el conjunto de todas las funciones {N-->N} comprende un posible dominio de significados (semántica) y la semántica denotacional es una forma formal y rigurosa de asignar la sintaxis de un programa de computadora (en un idioma dado) a su significado como una de estas funciones. Debe comenzar proporcionando significados para la sintaxis más simple (forma Backus-Naur), y luego la semántica denotacional proporciona significados más complejos en términos de composición.
El argumento de Searles falla de la misma manera que todos los demás argumentos contra la IA que he visto fallan: los humanos son conscientes y, a menos que seas un místico, debes aceptar que seguimos las mismas reglas que las computadoras.
Vale la pena señalar que el argumento de la habitación china de Searle es una refutación de la teoría computacional de la mente y postula lo que él identifica como "IA fuerte" como un ejemplo de conductismo, " específicamente la afirmación de que la computadora programada apropiadamente tiene literalmente estados cognitivos y que los programas explican así la cognición humana " .
La declaración 'la sintaxis no es semántica' es una proposición, no un argumento. El experimento mental de la habitación china no es un argumento a favor de esta proposición; eso sería circular, ya que su insistencia en que el operador de la habitación es el único candidato posible para la entidad que entiende las preguntas tácitamente depende de ello. Por lo tanto, antes de que el argumento pueda ser refutado, necesitamos ver un argumento a favor de la proposición, que sea más que simplemente reducible a una declaración de lo que Searle considera y no considera plausible.
@sdenham OK, argumento propuesto: suponga que la premisa "la sintaxis no es semántica" es falsa, y esa sintaxis es semántica. Si la sintaxis es suficiente para la semántica, presumiblemente tener la sintaxis significa que también tenemos la semántica. Pero si es así, ¿por qué necesitábamos la Piedra de Rosetta? Además, ¿por qué necesitamos aprender idiomas extranjeros? Tener las formas de las palabras extranjeras significaría, en virtud de poseer las formas (la sintaxis), que también poseeríamos sus significados. Pero tampoco poseemos sus significados. Por lo tanto, la sintaxis no es semántica. ¿Comentarios?
@Roddus Si es así, entonces su argumento no tiene sentido, por lo que puede descartarse.
@sdenham Searle argumenta que la sintaxis es insuficiente para la semántica. Argumenta que los significados son relativos al observador: algún observador interpreta la forma del símbolo (le da significado). La forma en sí misma es literalmente sin sentido. Por ejemplo, en su artículo de Scientific American de 1990, Is the brain's mind a computer program y en el artículo de New York Review of Boos, What your computer can't know .

Respuestas (6)

El principio de "sintaxis no es semántica" en el argumento de la habitación china (CRA) se basa en la relación entre la computadora Searle y los símbolos chinos. Searle caracteriza correctamente esto como una relación formal de procesamiento de símbolos en la que la computadora Searle manipula los símbolos puramente sintácticamente, según sus formas solamente, sin hacer ninguna interpretación subjetiva de ellos. Esta relación formal es el eje de la CRA y la refutación del computacionalismo (también conocido como funcionalismo computacional , IA fuerte ) de Searle.

La teoría de la máquina de Turing (TM) explica por qué esta "pieza clave" es simplemente un caso especial, y expone la enorme brecha en el razonamiento que surge al ignorar la parte más importante de la imagen: el programa. Por ejemplo, la teoría destaca esta reveladora discrepancia:

Si las computadoras carecen de semántica interna, entonces ¿por qué los programas de la computadora Searle deben estar en inglés?

Searle nunca aborda esta importante inconsistencia en su posición.

La computadora Searle es totalmente programable, por lo que es una TM universal (UTM). Cada UTM tiene una entrada de dos partes: (1) un programa y (2) una "entrada nominal" para que el programa la procese. Por ejemplo, si se le da el programa ADD, para la suma, y ​​la entrada nominal "3, 4", el Searle-UTM generaría "7". Debido a que los dígitos "0-9" son solo símbolos formales para Searle-UTM, podrían codificarse como caracteres chinos, y Searle-UTM aún realizaría sumas, al igual que CRA. Sin embargo, no ocurre lo mismo con la otra entrada de Searle-UTM, el programa ADD. Si estuviera escrito en chino, por ejemplo, entonces el Searle-UTM fallaría.

Tenga en cuenta que Searle-UTM puede procesar correctamente los símbolos chinos (#2) sobre una base puramente formal (sintáctica) solo porque también tiene una entrada de programa (#1) que es realmente responsable de determinar qué hacer con ellos. El programa, no Searle-UTM, determina cómo se procesan realmente los símbolos chinos, por lo que Searle-UTM solo necesita manipularlos formalmente, actuando como el vehículo del programa o "intermediario".

Por otro lado, la Searle-UTM es la única responsable de procesar correctamente el propio programa. La Searle-UTM debe conectar causalmente los símbolos del programa con las entidades físicas y los procesos que representan, un proceso no formal que realiza representaciones simbólicas como eventos reales específicos. Por lo tanto, el procesamiento de símbolos formales que es el eje de Searle, es solo una consecuencia de la relación especial que tiene un UTM con su entrada nominal (formal), que está mediada por una entrada de programa que es procesada no formalmente por el UTM.

"¡Es el programa, estúpido!"

P: ¿Qué es un programa?
R: Es la especificación de cómo funciona alguna MT: una especie de modelo para instanciar una MT que normalmente no es universal.

P: ¿Qué sucede cuando un UTM ejecuta un programa?
R: Ocurren dos cálculos de TM significativos: (1) el cómputo universal instancia (2) el cómputo del TM del programa. (La Searle-UTM solo puede introspeccionar en el primero, su propia computación universal, que implica leer las instrucciones del programa en inglés y ejecutarlas).

P: ¿Qué sucede semánticamente dentro de la Sala China, si es que ocurre algo?
R: No lo sabemos porque no sabemos cómo funciona el programa. De nada sirve preguntarle a la Searle-UTM porque él tampoco sabe. No sabe si su programa está haciendo una prueba china de Turing o tres en raya. Solo conoce su propio algoritmo universal: "lee el programa y ejecuta sus pasos en la entrada nominal". Para conocer la naturaleza del cómputo responsable del comportamiento observado externamente, lo único que importa es el programa, y ​​se deja sin especificar.

Searle ignora o descarta por completo el segundo cálculo de TM, que surge del programa. Sin embargo, su existencia es un hecho matemático, no sólo una afirmación filosófica. No depende de opiniones subjetivas o intuiciones de nadie. Solo requiere una comprensión objetiva de cómo funcionan los UTM. Esto también explica por qué la respuesta de Systems/Virtual-Mind ha sido el tipo de refutación de CRA más popular: http://www.scholarpedia.org/article/Chinese_room_argument#The_systems_reply

El enfoque obsesivo de Searle en una peculiaridad en la naturaleza de los UTM es algo comprensible porque las computadoras y los programas UTM son muy icónicos en nuestra cultura. Sin embargo, en las discusiones filosóficas, es crucial centrarse en la teoría de la MT en sí misma y en las MT generales, no solo en las UTM. El hecho de no hacerlo significa que la CRA falla miserablemente como una refutación del computacionalismo mientras genera décadas de debate infructuoso en el proceso.

UTMs vs. TMs Generales

P: ¿No son los UTM "universales" (es decir, representativos de todos los TM)?
R: Si bien un UTM puede instanciar cualquier otro TM a través de su programa, el propio algoritmo interno de un UTM y la entrada especializada para esta programabilidad universal son muy específicos y no representan en absoluto la computación de TM en general. Centrarse en esto como lo hace la CRA es una distracción poco saludable.

P: ¿Qué puede hacer una TM general que no pueda hacer una UTM?
R: Una UTM siempre debe actuar como una máquina de memoria. Debe garantizar fielmente que el mismo programa dado funcionará de la misma manera cada vez. En general, una TM no universal podría cambiar su propio comportamiento con el tiempo en función de su historial de entrada y salida.

Para obtener una explicación más completa y una discusión sobre este tema, consulte los artículos proporcionados aquí: http://www.chineseroom.info/

EDITAR: una versión posterior de esta explicación está aquí, varios niveles de respuesta hacia abajo: https://www.reddit.com/r/askphilosophy/comments/50igj8/if_you_could_chat_with_john_searle/

Encontré esto incoherente, a pesar de la marca de verificación.
pd -- "La computadora Searle es completamente programable, por lo tanto, es una TM universal (UTM)". -- Eso es simplemente falso. La sala china es una gran mesa de consulta. No es programable y ciertamente no es un UTM. La distinción entre TM y UTM tampoco afecta a la CRA. TMs y UTMs por igual flip bits, eso es todo lo que pueden hacer. No has explicado cómo surge la semántica de la sintaxis.
Searle no podría ser más claro acerca de ponerse en el lugar de una computadora que instancia un programa. Mentes, cerebros y programas : "... mostrar cómo un agente humano podría instanciar el programa..." ( Searle, 1980 ). “Imagina que estoy encerrado en una habitación… con un libro de instrucciones en inglés para manipular los símbolos (el programa).” ( Searle, 2009 ). Las computadoras programables son aproximaciones físicas de UTM.
Para refutar el CRA, es suficiente mostrar el enorme agujero en su lógica: la falla en dar cuenta del cómputo del segundo TM (sin mencionar su inconsistencia con respecto a la interpretación del programa). Explicar cómo surge la semántica de la sintaxis sería una discusión diferente.
Derecha. "Un libro de instrucciones". Un algoritmo. De hecho, una TM. Quizás no entendí tu punto, pero un "libro de instrucciones" solo puede ser una MT. ¿Estamos de acuerdo o en desacuerdo aquí? Pero las MT hacen sintaxis, no semántica. Déjame volver a leer tu respuesta, tal vez hay algo que se me pasó por alto. "Explicar cómo surge la semántica de la sintaxis sería una discusión diferente". -- Esa es la ÚNICA discusión. ¡Ese es todo el punto de Searle!
Estoy releyendo. Estoy de acuerdo con tu primer párrafo. El primer lugar donde me perdiste fue con el programa "escrito en inglés". Y luego reclamar a Searle de alguna manera no llega a un acuerdo con eso. No entiendo esto en absoluto. El programa puede estar en cualquier idioma que sea. Es mejor pensar en ello como una cadena de bits que codifica el programa. Después de todo, eso es lo que son los programas. Por supuesto tiene un módulo de entrada/salida en idioma inglés para comunicarse con Searle; pero el programa no está en inglés y no necesita estar en inglés. ¿Puedes ayudarme a entender tu intención aquí?
Siguiente punto. "La computadora Searle es completamente programable, por lo tanto, es una TM universal (UTM)": eso no es necesariamente cierto. El programa que ejecuta la sala Chines bien puede ser una computadora personalizada de un solo propósito que tiene su programa grabado en sus chips en la fábrica y no puede hacer nada más. Eso sería una TM. O podría ser una computadora programable de propósito general, una UTM. Cualquiera haría el trabajo; y no hay nada en el CRA que indique de una forma u otra si el algoritmo está codificado o no. No hace absolutamente ninguna diferencia en el argumento de Searle. Seguiré leyendo.
¿Está tratando de decir que la intencionalidad está en el programa? En otras palabras, ¿el significado de la habitación radica en el programa que se carga en el hardware? Si es así, al menos puedo decir que entiendo tu punto. Sin embargo no estoy de acuerdo con eso. Digamos que tienes algún programa. ¿Qué es un programa? Es una cadena de bits. Digamos que le doy una larga cadena de bits y el manual para el código de máquina. No puedes decirme de qué se trata el programa. . Eso es porque no se trata de nada . Es solo un conjunto de instrucciones para voltear bits.
¿Cómo se hace la distinción entre la parte de la entrada que es el "programa" y la parte de la entrada que son los "datos"? Searle diría que todos los símbolos en la cinta de entrada (programa y datos) son relativos al observador.
@nir ¿Me estás preguntando a mí o al OP? Una máquina de Turing consta de un programa, que es un conjunto finito de instrucciones; y una cinta inicializada con algunos datos. Las instrucciones actúan sobre la cinta. Este modelo se entiende bien y es lo que queremos decir con un cálculo. Si tiene un programa, se entiende que el programa tiene instrucciones junto con los datos iniciales. O puede darle nuevos datos a medida que se ejecuta, no creo que eso haga ninguna diferencia computacionalmente. Sin embargo, el significado de la máquina de Turing reside fuera de la MT, en la mente del programador humano. Las TM no tienen un significado intrínseco.
@nir Cualquier definición UTM dada especificará cómo se distinguen el programa TM y los datos de entrada, por ejemplo, a través de un símbolo separador. Creo que estoy de acuerdo en que los cálculos son relativos al observador, como triángulos, triángulos realmente muy complicados. ¿Se pueden superponer diferentes definiciones UTM en el mismo sistema físico? Probablemente.
@ user4894 Con respecto al inglés. Lo que Searle SÍ dice: (1) "Las computadoras nunca pueden entender su entrada. PRUEBA: Podría ser una computadora programable, procesando la entrada china, ¡pero nunca lo entendería!" Lo que Searle NO dice: (2) "Las computadoras programables siempre deben comprender su entrada principal : ¡el programa! " contradice su tesis.
@Phil_132 No es necesario que el programa esté en inglés. Un programa es una secuencia de instrucciones en un lenguaje formal. Sigues afirmando esto, pero no solo está mal, es absurdo. Searle no mencionó las TM, pero podemos poner su argumento en el contexto de las TM y está claro que un programa no necesita estar en inglés y, de hecho, NO ESTÁ en inglés.
No entiendo por qué está tan seguro de que el programa de la computadora Searle debe estar en inglés (suponiendo que solo habla inglés). También podríamos simplemente, como una versión cruel del juego de cartas de Mao , mediante el condicionamiento pavloviano con latigazos, hacer que John Searle siga las reglas correctas.
El hecho de que Searle conozca el programa en inglés pero no el chino es el corazón mismo de la estructura lógica de la CRA y, nuevamente, Searle lo ha dejado muy claro en repetidas ocasiones: Su artículo original de 1980 : "...después de este primer lote de escritos en chino, Me dieron un segundo lote de escritura china junto con un conjunto de reglas para correlacionar el segundo lote con el primero. Las reglas están en inglés, ... el conjunto de reglas en inglés que me dieron, lo llaman el 'programa'. ' "
Y 29 años después, ( Searle, 2009 ) hace exactamente lo mismo: “Enunciado del argumento: … Imagina que estoy encerrado en una habitación con cajas de símbolos chinos (la base de datos) junto con un libro de instrucciones en inglés. para manipular los símbolos (el programa)." Obviamente, los programas de la CRA no pueden codificarse arbitrariamente porque la computadora es el mismo Searle, y debe comprender las reglas del programa para poder ejecutarlas correctamente.
La pregunta no es si en la formulación original de la CRA de Searle las reglas están en inglés. No lo niego. Se trata de su afirmación de que las reglas tienen que estar en inglés, que la CRA no puede reformularse fácilmente para que no haya reglas en inglés involucradas (como propuse en mi último comentario). No has demostrado por qué esto no puede funcionar.
El análogo a las instrucciones en inglés son las cargas eléctricas reales que fluyen mecánicamente a través del procesador y sin contenido semántico ni capacidad para la semántica. Tenga en cuenta que Searle también señala que "computadora" solía entenderse comúnmente como "la persona que computa"
Sí, acepto que el uso del inglés por parte del CR se corresponde con el diseño y la función de los circuitos (CPU, memoria, etc.). ¿No es eso "semántico"? Claramente, está por debajo de la comprensión autoconsciente a nivel humano. Por lo tanto, ¿es una manipulación de símbolos puramente formal (FSM)? No. FSM no es representativo : los tokens identifican su tipo de símbolo y nada más . Pero los símbolos de programa van más allá de las identidades tipo para representar cosas en el mundo. "+" y "-" representan procesos físicos particulares de la máquina, que la computadora debe instanciar correctamente. Si bien no es humano, va más allá de FSM a la representación del mundo real.

Wittgenstein en su período intermedio dio una respuesta, antes de la era de la investigación en IA y las objeciones de Searle. En pocas palabras: la semántica es otra sintaxis. Las palabras solo significan como actores en un cálculo lingüístico, y su significado se reduce a la colección de reglas que gobiernan su uso en el cálculo. Por supuesto, estaba pensando en las matemáticas y el lenguaje en general más que en las computadoras. Aquí está Wittgenstein sobre las metamatemáticas como "semántica" de las matemáticas :

" Lo que hace Hilbert son matemáticas y no metamatemáticas. Es otro cálculo como cualquier otro. Puedo jugar con piezas de ajedrez, de acuerdo con ciertas reglas. Pero también puedo inventar un juego en el que juego con las reglas mismas. Las piezas de mi juego son ahora las reglas del ajedrez, y las reglas del juego son, digamos, las leyes de la lógica. En ese caso, tengo otro juego y no un metajuego... Lo que se conoce como la 'teoría del ajedrez' es t una teoría que describe algo, es una especie de geometría. Es, por supuesto, a su vez, un cálculo y no una teoría ".

Lo que Wittgenstein llegó a apreciar más tarde, en Investigaciones filosóficas, es que los "juegos de lenguaje" realistas no se pueden reducir a cálculos, están demasiado matizados para eso. Pero eso no significó el restablecimiento de la "intencionalidad" y los "significados" como entidades, significó que incluso las "reglas" no son entidades que puedan ser enunciadas. El "sentido" se adquiere en la actividad, en la práctica lingüística. De una forma muy diferente y por una ruta muy diferente, otros llegaron a la misma conclusión, y llegaron a desempeñar un papel inesperadamente destacado en la investigación de la IA. Dreyfus, el crítico perenne de lo que pueden hacer las computadoras desde la década de 1960, ofrece un relato muy interesante en Por qué falló la IA heideggeriana y cómo arreglarla requeriría hacerla más heideggeriana :

"Usando a Heidegger como guía, comencé a buscar señales de que todo el programa de investigación de IA estaba degenerando. Me llamó especialmente la atención el hecho de que, entre otros problemas, los investigadores se enfrentaban al problema de representar el significado y la relevancia, un problema que, según Heidegger, estaba implícito en la comprensión de Descartes del mundo como un conjunto de hechos sin sentido a los que la mente se enfrenta. asignó lo que Descartes llamó valores y John Searle ahora llama predicados de funciones. Pero, advirtió Heidegger, los valores son simplemente más hechos sin sentido... Una versión de este problema de relevancia se llama el problema del marco. Si la computadora está ejecutando una representación del estado actual del mundo y algo en el mundo cambia, ¿cómo determina el programa cuál de los hechos representados se puede suponer que ha permanecido igual?

El trabajo de Merleau-Ponty, por el contrario, ofrece una explicación no figurativa de la forma en que se acoplan el cuerpo y el mundo que sugiere una forma de evitar el problema del marco. Según Merleau-Ponty, a medida que un agente adquiere habilidades, esas habilidades se “almacenan”, no como representaciones en la mente, sino como una preparación corporal para responder a las solicitudes de situaciones en el mundo. Lo que el aprendiz adquiere a través de la experiencia no se representa en absoluto, sino que se presenta al aprendiz como situaciones cada vez más finamente discriminadas... "

Agre, Brooks, Wheeler, Winograd y otros grandes nombres de la IA finalmente llegaron a asimilar lo que Dreyfus estaba vendiendo en nombre de Heidegger y Merleau-Ponty. Esto ahora se llama "cognición incrustada en el cuerpo", y la "IA heideggeriana" también es un término técnico. Incluso Cog de Dennett incorporó algunas de estas ideas, aunque eso no lo salvó. Así que Searle tiene razón, la semántica no es sintaxis, pero es poco probable que le gusten las conclusiones que los investigadores de IA extrajeron de ella. Es decir, que los significados no son entidades representacionales conectadas misteriosamente con el mundo real, como diría Descartes, y que la intencionalidad no es una sustancia pegajosa especial exudada por los sistemas orgánicos, como diría Searle, sino efectos dinámicos que emergen en el proceso de interacción con el medio ambiente. , incluidos otros actores. La semántica no es sintaxis porque el significado y la intencionalidad son prerrogativas de los jugadores activos. La computadora no puede ser un jugador así, tiene que ser un robot de IA de algún tipo. En cierto modo, esta actitud se muestra en versiones más recientes de laSistemas y Robot responde a la sala china.

Queda por ver si esta "intencionalidad incorporada-incrustada" funciona. Como sugiere el título de Dreyfus, es un trabajo en progreso, y él acusa que todas las implementaciones existentes todavía son demasiado representativas.

Si no lo hubieras explicado, habría puesto la "IA heideggeriana" en la misma cesta que la "Hermenéutica cuántica".
Hmmm: "La computadora no puede ser un jugador así, tiene que ser un robot de IA de algún tipo" Un jugador (a nivel político) puede ser un representante de una coalición. En algún nivel, somos representantes programados de nuestros genes egoístas. Y nosotros somos los jugadores principales. Entonces, ¿por qué los representantes de grupos de humanos no calificarían también como jugadores? ¿Por qué la intención se invierte en otra cosa y se despliega independientemente ya no es intención?
@Alexander Esa también fue mi reacción inicial. Estaba incrédulo incluso leyendo a Dreyfus hasta que citó a suficientes personas de IA que conocía que mencionaron a Heidegger por su nombre, y luego busqué enlaces sobre "inteligencia artificial incorporada". Pero creo que Dreyfus es uno de esos "traductores analíticos" sobre los que una vez preguntaste, dudo seriamente que incluso los investigadores de IA con inclinaciones filosóficas puedan conectar a Heidegger con lo que estaban haciendo. Nunca antes se me había ocurrido eso tampoco.
La afirmación de Winograd de estar motivada por Heidegger surge en amazon.com/Understanding-Computers-Cognition-Foundation-Design/… que es un texto de pregrado que la gente normal debería poder leer, si quiere ver qué tan genuino es.
@jobermark Bien puede ser que las computadoras implementen las intenciones humanas de la misma manera que los humanos implementan las "intenciones" de sus genes, la diferencia es que las computadoras no juegan. Su repertorio de movimientos es demasiado pobre, son demasiado inertes y estáticos, y dependen demasiado de sus "despliegues" para interactuar con el entorno como para que se manifieste cualquier "inteligencia" separada. Tal vez, con suficiente juego, no necesitas ninguna intencionalidad preexistente, prestada o no, surge. Dennett se quejó de que con la habitación china, Searle eligió en cambio un caso degenerado que enmascara el efecto que él usa para negar.
Buena respuesta. Estoy deseando leer esas referencias. Sin embargo, lo que más me llama la atención es la idea de que la representación se puede evitar de alguna manera. No puedo imaginar cómo podría evitarse eso, porque los llamados efectos dinámicos de la interacción con el entorno solo pueden comunicarse por medio de la representación.
@PédeLeão La visión representativa de nosotros mismos está profundamente arraigada. Afortunadamente, ahora tenemos modelos para evitarlo. La red neuronal "aprende" a reconocer una cara después de que se le presenten muchos ejemplares. No lo hace formando una representación de rostro en general, sino ajustando pesos regulando sus disparos. Quizás esto se pueda convertir en una representación (no sabemos exactamente cómo), y quizás nuestro cerebro lo haga en alguna ocasión, pero el aprendizaje y luego la comunicación no requieren tal conversión. Muchos concluyeron que la operación representacional de nuestras mentes también es empíricamente dudosa.
@Conifold. Entiendo cómo funcionan las redes neuronales y las computadoras en general representan la información por medio de datos de forma similar a como lo hacen las palabras. También se supone que las neuronas funcionan de manera similar. Por eso, no veo cómo ningún sistema físico puede evitar la representación, porque eso implicaría transferir información pura independiente de cualquier medio digital. Así, el problema del funcionalismo es que tal representación está epistémicamente aislada de lo que representa.
@PédeLeão Las redes neuronales no funcionan como computadoras digitales, pueden ser simuladas por ellas, pero a diferencia de ellas no representan nada. Es por eso que no podemos "descargar" lo que la red neuronal "sabe" en un archivo, o "cargar" información digital en él. Por ejemplo, se puede "enseñar" a la red neuronal a distinguir rostros masculinos y femeninos, pero incluso la mayoría de los humanos no pueden producir una descripción representativa de la diferencia. El conocimiento-cómo (habilidad, habilidad) no requiere conocimiento digitalizable-que para funcionar, por lo que actuar y responder al entorno no requiere representarlo.
@Conifold. Nunca dije nada sobre el conocimiento digitalizable, pero lo que estás describiendo es precisamente lo que yo llamaría representación. Si no le gusta mi elección de palabras, podemos hablar de que los datos tienen alguna conexión potencialmente inferencial con sus causas. En el caso de la red neuronal, esa conexión conduce a alguna respuesta programada. Sin embargo, lo que quiero decir es que la conexión está epistémicamente aislada de la causa. La computadora no tiene la capacidad de sacar inferencias, por lo que responde sin "saber" que tiene algo que ver con la distinción de rostros.
@PédeLeão Me temo que no sigo "conexión inferencial con causas" y "aislamiento epistémico". También mencionó que la información fluye sin un medio digital, ¿podría explicar cómo se conecta esto?
Los datos tienen valor epistemológico en virtud de X (no sé qué palabra le parecería agradable para X), y esta X está epistémicamente aislada de sus causas de la misma manera que las personas en la sala china están epistémicamente aisladas de los chinos. mensaje. Los datos que están procesando no les proporcionan los medios para saber nada sobre el mensaje, ni ese conocimiento es necesario para que procesen la información. Si una red neuronal pudiera "saber" que está distinguiendo caras, entonces tal aislamiento no existiría, pero no existe ningún medio para tal conocimiento en un sistema físico.
El argumento de que "no saben cómo jugar" es una petición de principio. Por supuesto que ahora no , pero ¿pueden mejorarse hasta ese punto o no? Esa es la cuestión, de la IA dura para empezar, ¿no?
@jobermark No es un argumento, solo una observación. A las computadoras que aprendieron a jugar las llamé "algún tipo de robot de IA". No tomo ninguna posición sobre si tal cosa es factible.

Usted hace la pregunta obvia. "Si la semántica no es sintaxis, ¿entonces qué es?"

Si los dos están realmente separados, tiene una terrible dificultad para explicar cómo se puede enseñar la semántica. O terminas en algún tipo de idealismo obligatorio donde los conceptos básicos de significado necesarios para arrancar la semántica ya están 'allí', o con un modelo funcionalista como Wittgenstein, Desassure o Lacan.

En este último caso no hay sintaxis y semántica, sólo hay un continuo de semiótica con dos extremos inalcanzables. (Una forma 'más linda' de presentar el caso que hace @Conifold. Así que no me voy a molestar en repetir el razonamiento aquí). La semántica es solo la sintaxis del comportamiento en general, en lugar de la sintaxis de un rango estrecho específico de comportamientos que hace con tu aparato vocal, con texto, o con gestos. Si su distinción es un espectro, y las formas puras de ninguno de los extremos son reales, el argumento ya no se puede hacer.

En el primer caso, el más en consonancia con Searle, el argumento se vuelve mucho más amplio y toma demasiadas formas para acabar con todas a la vez. Pero en la mayoría de las formas de idealismo que permiten una estructura interna básica para la mente independiente de su función en la realidad, la semántica tampoco es real.

El significado en la forma que puede ocupar la mente es real, y es significado, no semántica. Y la conexión entre mentes que transfiere significado a través del comportamiento es real. Y lo es, al estar hecho de comportamiento, sintaxis, no semántica.

La inteligencia, entonces, tal como se muestra funcionalmente a través del comportamiento de los humanos, es solo este envoltorio sintáctico generalizado en torno a un proceso esencialmente diferente . Tal vez uno no pueda reproducir artificialmente ese proceso , pero esa es una declaración diferente. No hay ninguna razón por la cual el envoltorio mismo, la inteligencia, no pueda existir sin el relleno habitual de la mente y la voluntad.

"No hay ninguna razón por la que el envoltorio mismo, la inteligencia, no pueda existir sin el relleno habitual de la mente y la voluntad". Me pregunto por qué nadie arrojó eso en la corte de Searle. ¿O ellos y yo lo hemos perdido?
Creo que cae bajo la misma queja que hice a la respuesta de @Conifold. Hay una suposición implícita de que la inteligencia sin una mente detrás no es inteligencia, que el propósito prestado no tiene suficiente propósito. Pero para mí, esa suposición implícita niega que nosotros, como animales, seamos conjuntos de intenciones prestadas, impulsados ​​por nuestros impulsos, tomados de nuestros genes. Básicamente, si lo sigues, tienes que atribuir inteligencia a las culturas, a las especies y, en última instancia, a los genes, lo que la gente encuentra ridículo. (Pero yo no)

Creo que la oración exacta de Searle en el artículo de Chinese Room fue "la sintaxis no es suficiente para la semántica". Precisó el significado de la oración al proponer un caso en el que la sintaxis de una lengua se opera perfectamente sin que del proceso surja ninguna comprensión semántica. Ahora bien, la semántica en el sentido de Searle es cierta comprensión mental y es bastante obvio que es posible operar la sintaxis de un lenguaje sin un atisbo mental de su significado que emerge de la operación. Por lo tanto, en el sentido de Searle, la sintaxis no es suficiente para la semántica.

Esta idea, que la sintaxis es independiente de la semántica y, por lo tanto, una computadora puede funcionar perfectamente sin siquiera saber el significado de lo que está computando parece un argumento mucho más fuerte contra la IA y el funcionalismo Mente-Cuerpo en general, que el argumento chino original de Searle.

aquí hay misticismo. una simulación de un humano es un humano. es lo mismo. las mentes humanas son software que se ejecuta en una computadora clásica. eso es lo que ya eres: una computadora que ejecuta software. los detalles del hardware no importan para los cálculos. no se requiere alma ni moléculas orgánicas.

un programa de software de inteligencia tiene que hacer ciertas cosas. incluido en la lista es crear conocimiento. el único proceso conocido de creación de conocimiento es la evolución. el conocimiento se puede crear a través de la replicación con variación y selección. (en el caso de las ideas, esto normalmente se llama lluvia de ideas y pensamiento crítico para eliminar errores). software que hace esto dentro de varios parámetros, y hace algunas otras cosas, sería una persona pensante. Eso es todo al respecto. cosas como las emociones son propiedades emergentes del software, no están ligadas a las almas, el hardware está hecho de moléculas orgánicas en lugar de silicio, etc.

La forma en que abstraes la diferencia entre inteligencia artificial y natural me genera dudas. Incrustas tu discurso, lo marcas como perteneciente a un dominio diferente de la realidad del cerebro humano y, sin embargo, terminas diciendo, "sintaxis" y "semántica", sin reservas.

Para ser estricto en términos, estaría hablando de rutinas de análisis de IA en estructuras designadas de IA, no en realidad procesos sintácticos en semántica. En ese sentido, creo que las rutinas pueden ser independientes de las estructuras, en una mente artificial. Las computadoras no tienen conocimiento.

Para los humanos, Beatty y Schluroff encontraron que la incoherencia semántica anulaba la corrección sintáctica. La curva pupilométrica para secuencias distorsionadas semánticamente se aproximó a la de fragmentos estructurados incidentalmente. La sintaxis natural no es independiente de la semántica.

https://feedbackandlanguage.com/capítulo-tres-el-rol-de-la-retroalimentación-en-el-uso-del-lenguaje/

¿Podría redactar más de cerca su respuesta a la pregunta? Tengo problemas para entender cómo se vinculan los dos.