¿Agregar estructura hace que la habitación china sea semántica?

La sala china reacciona solo a la sintaxis, o forma de los símbolos (es puramente sintáctico). Pero los cerebros están llenos de estructura. En la habitación, los símbolos chinos se encuentran dispersos en "montones" en el piso o se mueven en "lotes" o "racimos", o se almacenan revueltos en "canastas" sin conexiones estructurales entre los símbolos.

Las cosas que procesan las computadoras se llaman "símbolos". Las computadoras pueden construir estructuras entre símbolos y reaccionar o seguirlos, y con frecuencia lo hacen. Las conexiones virtuales entre ubicaciones de memoria se pueden establecer mediante punteros, y los algoritmos pueden seguir las conexiones utilizando los métodos de direccionamiento directo de memoria e indirección.

Esta capacidad estructural, o relacional, del programa informático puede reflejarse en la sala china añadiendo a la ontología de la sala un nuevo tipo de objeto: cadena. Las instancias de cadena en la sala pueden luego conectar símbolos chinos tokenizados. Cada trozo de cuerda tiene las mismas características, incluida la longitud. Son la encarnación de la estructura, son elementos relacionales de la estructura.

En la habitación, si las conexiones establecidas entre los símbolos son una consecuencia causal de la contigüidad temporal en la superficie sensorial que da como resultado que los símbolos sensoriales contiguos salgan del sensor y luego entren en la habitación, las conexiones entre los símbolos sensoriales registran como estructura interna las instancias externas de contigüidad temporal. en la superficie sensorial. ¿Es tal estructura interna un elemento de contenido semántico?

En la computadora, si las estructuras de memoria interna construidas con punteros son árboles, un programa puede recorrer los árboles y emitir como salida copias de las hojas (símbolos), sin reaccionar a (identificar) las formas de los símbolos. El programa simplemente copia y emite todo aquello a lo que llega que no tiene hijos. El programa no contiene condicionales indexados en forma de símbolo.

Supongamos que Searle tiene los ojos vendados y luego camina sobre un árbol siguiendo la cuerda con las manos. Cuando llega a una hoja (una tarjeta inscrita con un ideograma chino cuya tarjeta no tiene cadenas hacia abajo), emite la tarjeta y luego continúa su caminata táctil en el árbol. Dado que las reglas que está siguiendo no indican una reacción a la forma de ningún símbolo chino (y, por lo tanto, no contienen un ejemplo o descripción de ninguna forma de símbolo chino), ¿significa esto que el programa en el libro de reglas no es sintáctico con respecto a a los símbolos chinos, y Searle manipula los símbolos de forma no sintáctica?

En 2014, Searle dice (énfasis suyo): " ...una computadora digital es una máquina sintáctica . Manipula símbolos y no hace nada más" ("Lo que su computadora no puede saber", en The New York Review of Books , octubre 9, 2014, sección 2, párrafo 7). La cadena no es símbolos. ¿Es su cuidadosa evitación de la estructura su error fundamental?

En "Mente, cerebro y programas", Searle recibe "instrucciones" y "reglas" para que pueda dar respuestas. No especifica cuáles son para que sean generales. Al final no entiende chino y por eso el programa que está imitando tampoco entiende chino. No creo que esté evitando nada. Si entendiera chino, entonces se justificaría un fuerte dualismo mente-cuerpo de IA y la mente podría separarse del cuerpo. Sin embargo, no entendía chino.
Cuerdas de que? Las cadenas son cadenas de símbolos. No tienen más contenido semántico que los símbolos individuales. La cadena "gato" no tiene más contenido semántico que las cadenas individuales 'c', 'a' y 't'. Son los humanos quienes asignan significado a esa cadena. Y para el caso, ¿no es un símbolo individual solo una cadena de longitud uno? No entiendo el punto que estás tratando de hacer. Los símbolos o cadenas de símbolos son lo mismo. Caminar con los ojos vendados por una estructura de datos no es más que un procesamiento sintáctico de símbolos.
@usuario4894. Con el texto, claro, la relación entre los símbolos, por ejemplo, c,a,t (de contigüidad temporal (TC) cuando pasan a través de una superficie o de contigüidad espacial cuando se almacenan), no tiene propiedades semánticas. Pero para los símbolos sensoriales, el hecho de que uno siga a otro en la computadora refleja (no denota, no significa) TC en la superficie sensorial entre lo que hizo que el sensor creara los símbolos. Es la misma relación: TC en el ambiente, TC entre símbolos sensoriales. Es lo mismo por dentro que por fuera. ¿No es esto un elemento semántico? (Eso podría incluso ser un componente de las representaciones)
@Frank Hubeny Para mí, el programa no entiende las respuestas en chino porque todo lo que contiene son condicionales sobre las formas de los símbolos chinos. Si Searle entendió chino simplemente en virtud de identificar las formas de los símbolos chinos, no veo cómo esto podría implicar dualismo. La mente seguiría siendo un residente del plano físico, no espiritual. La mente (el programa) podría separarse del cuerpo (la computadora), pero el programa seguiría siendo un objeto físico. ¿Entiendo bien tu comentario?
@Roddus No estoy seguro de lo que quiere decir con "símbolos sensoriales". Si te refieres a la secuencia de símbolos generados por un sensor conectado al exterior, ¿cómo sabe la computadora algo sobre eso? Si una CPU ve un flujo de bits, un humano puede saber que esos son la salida de un sensor físico, pero la computadora no tiene tal conocimiento. Es solo otra cadena de bits para ser manipulada de acuerdo con las reglas. Ese es un ejemplo perfecto de un ser humano proporcionando la semántica. Los humanos saben que la cadena de bits representa una temperatura en el mundo real. La CPU solo ve la cadena de bits y no tiene idea de lo que significa.
@ user4894 La computadora no lo sabe. Pero entonces no sé si los pulsos en ciertas fibras provienen de mis ojos u oídos. No sé dónde están estas fibras, no sé si algo está latiendo a lo largo de ellas, mi mente ignora por completo la física de las conexiones entre mis ojos y mi cerebro. Pero en el aprendizaje temprano, las estructuras se crean a partir de cada flujo de bits del sensor en sus propias áreas cerebrales. La inclinación adicional conecta las estructuras de un solo sentido mediante la "unión". Las estructuras conectadas podrían pasar por representaciones de objetos externos. Esta es una imagen realmente diferente de la habitación china.
@Roddus. Pero las estructuras no pueden pasar por representación de objetos externos, como usted afirma, porque la computadora no puede acceder a ellas como tales. Entonces, aunque es una imagen diferente de la habitación china, no es realista.
@Pé de Leão Por " no son de ninguna manera accesibles como tales " ¿quiere decir que la computadora no puede acceder a la estructura? ¿O quiere decir que la computadora puede acceder a la estructura pero no puede reconocerla como una representación de un objeto externo? Es decir, ¿la computadora no puede entender lo que significa la estructura?
@Roddus. La estructura es un concepto abstracto que existe en nuestra mente, por lo que la computadora no puede entenderlo ni acceder a él. Como dije antes, cada bit en una computadora está epistémicamente aislado, por lo que el concepto de relación no tiene sentido para la computadora. No puede percibir un solo bit y mucho menos cualquier relación entre bits.
@Pé de Leão Pero una computadora puede realizar el concepto abstracto de estructura. Los cerebros se dan cuenta del concepto abstracto de estructura al contener estructuras. Las computadoras también pueden realizar el concepto abstracto. Estoy de acuerdo en que cada bit (pulso de voltaje, dominio magnético, estado del interruptor) en una computadora está epistémicamente aislado y no podemos percibir bits o relaciones entre ellos. Pero tampoco puedo percibir pulsos neurales en cerebros biológicos. Puedo percibir dendritas, conexiones neuronales, pero no conexiones de memoria de computadora. Pero eso es porque las conexiones de memoria son "virtuales" y creadas por punteros...
@Pé de Leão Cont... Los algoritmos pueden seguir las conexiones virtuales de la computadora mediante el uso de punteros, que permiten que los algoritmos se muevan de una ubicación de memoria directamente a otra en la memoria lineal de la computadora. Para mí, esto parece lo mismo que un proceso que se mueve a lo largo de un tubo físico real desde una ubicación de coordenadas tridimensionales xyz a otra. Los punteros deben usarse en una computadora porque la memoria de la computadora es lineal, unidimensional y la estructura del cerebro es tridimensional. Pero creo que los punteros permiten "imitar" estructuras 3-D (si esa es la palabra correcta) en memoria lineal 1-D en los aspectos necesarios.
@Roddus. Los estados cerebrales de alguna manera se asignan a la conciencia, que sirve como un "dispositivo de salida" que se caracteriza por algún principio unificador, que hace posible el pensamiento y la abstracción. Sin embargo, lo mismo no es cierto para las computadoras porque no hay nada como la conciencia para mapear los datos, por lo que no hay forma de decodificarlos y, por lo tanto, permanecen inaccesibles para siempre, algo así como los símbolos en la habitación china. Puede afirmar que las computadoras pueden realizar conceptos abstractos, pero ni siquiera puede comenzar a proponer ningún mecanismo de cómo eso podría ser posible.

Respuestas (2)

Soy consciente de que esta respuesta está un poco fuera de tema, sin embargo, espero que todavía ayude.

Creo que ver la sala Searls Chines como "Intuition Pump", un concepto introducido por Daniel Denett, es un enfoque útil. Donde los experimentos mentales son entidades que nos dan mejor o peor intuición de un determinado fenómeno. Al cambiar ligeramente partes del experimento mental en cuestión, uno ve si es una buena bomba de intuición o no. Analizando si el experimento mental cambiado sustenta la misma intuición.

Mi conclusión es que el CRA depende fuertemente de su forma inicial para crear la intuición demandada. Lo que significa que agregar nuevas entidades como usted sugiere fe "cadenas" muestra la validez limitada de la CRA para los fenómenos analógicos que intenta describir.

No estoy de acuerdo con su afirmación de que hay:

no hay conexiones estructurales entre los símbolos en el CRA.

Ya que el ordenarlos, guiado por el reglamento, crea una estructura que contiene significado para el receptor. El punto clave parece ser más bien un desconocimiento/desinterés de/en la estructura por parte de la persona en la habitación. Esto crea un corte claro entre la sintaxis y la semántica. Este claro corte también es causado por el libro de reglas que contiene 2 idiomas, que están superpuestos por alguien que no es la persona en la sala que solo entiende uno y mezcla expresiones del otro idioma.

Este desinterés plantea la pregunta de que, dada la estructura temporal de la entrada sensorial, ¿tiene la persona en el CRA el deseo de derivar la propiedad semántica? Aparentemente no solo hace su trabajo.

Tenga en cuenta que la parte en la que analiza el software parece distanciarse de lo que Searle parece querer decir, ya que está discutiendo sobre las estructuras utilizadas en el libro de reglas para transmitir las propiedades semánticas deseadas. No la propia CRA.

Me parece que la CRA se centraría principalmente en la analogía de un solo núcleo de CPU. Por lo tanto, exigir un interés por el mecanismo de cambio de bits parece problemático.

Debido a la bomba de intuición mencionada anteriormente, su enfoque parece apropiado pero también inapropiado. Apropiado ya que reestructura el CRA inicial para que brinde mejores intuiciones para computadoras posiblemente más complejas. Sin embargo, el CRA inicial aún se mantiene para sistemas más simples como las calculadoras normales.

Otros han elegido enfoques similares, tratando de identificar el sistema general como relevante, dando más importancia a la estructura del libro de reglas (software). Yo mismo intenté esto reformulando el CRA para que pareciera más una célula nerviosa y agregándolo con otros CRA modificados para obtener una estructura similar a un cerebro en 3D.

Mi conclusión es que el CRA ilustra el nivel de análisis incorrecto para sistemas complejos. Por lo tanto, veo que su enfoque es inadecuado ya que la elección de la CRA como modelo parece innecesaria para las preguntas generales que parece expresar. Como cómo surge una semántica en un sistema. O qué es exactamente la semántica, cómo afecta la complejidad a la semántica, etc.

Gracias. Sí, las preguntas de entrada y las respuestas de salida comprenden símbolos temporalmente contiguos a medida que las cadenas entran/salen de la habitación (por lo tanto, los símbolos a medida que entran/salen son términos de instancias de la relación de contigüidad temporal). Pero una vez dentro y antes de que se vayan, y los repuestos en las "cajas" o "canastas", no parecen ser partes de ninguna estructura, y solo se consideran fichas individuales. No hay estructuras de árbol, por ejemplo, pero los cerebros están llenos de ellas (y se supone que la habitación es una computadora que intenta ser un cerebro, y los programas pueden crear fácilmente estructuras de árbol).
Cont... Qué es exactamente la semántica es un gran problema, por supuesto. Los lingüistas y filósofos lo tienen bastante claro, según los conceptos de lingüística y filosofía del lenguaje, pero no de informática. Una idea que quería discutir es que una semántica es un bosque de árboles en el que la sintaxis (símbolos o equivalentes) por sí sola es insuficiente para la semántica, pero cuando se agrega el elemento estructural de las conexiones de árbol ("arcos"), los dos tipos de componentes, símbolos y conexiones, se combinan para producir propiedades semánticas. Aunque hay bastante resistencia a una idea tan simple.
@Roddus ¿Por qué enfoca su vista en estructuras de árbol? ¿Es solo porque "los cerebros están llenos de ellos"? ¿Por qué no listas, arreglos, etc.? ¿No es perceptible que el libro de reglas instancia un programa que crea un funcionamiento de la persona en la habitación que se asemeja a una estructura de árbol? ¿No aumenta esto simplemente la velocidad con la que se genera la salida debido a una estructuración más eficiente de la acción y los tokens en lugar de atribuir propiedades semánticas en este nivel de análisis? Incluso si uno simpatiza con su idea, no está claro por qué el mecanismo que agrega los componentes debe ser consciente de esta semántica.
Los árboles parecen interesantes por varias razones, pero también se pueden construir listas enlazadas, etc. Presumiblemente, el libro de reglas podría instruir a Searle para crear estructuras de árbol, si hubiera una forma de relacionar los símbolos (y los nodos creados) entre sí. Cuando dice que el mecanismo agrega los componentes , ¿quiere decir que el programa y/o la CPU es el mecanismo? No estaba pensando que estos podrían tener propiedades semánticas, sino que la estructura construida en sí misma es la semántica. La conciencia es una característica de alto nivel. Estaba mirando más el problema de bajo nivel de hacer representaciones internas de objetos externos.
@Roddus. Al llamar a la conciencia una "característica de alto nivel", ¿está sugiriendo que es algo que podría suceder por sí solo sin que un programador tenga la intención de tener idea de cómo lograrlo?
@ Pé de Leão Creo que la conciencia es un algoritmo que sería intencionalmente diseñado como un algoritmo de conciencia (es decir, no como una propiedad emergente, un algoritmo 'evolucionado genéticamente' o un accidente). Dado que se sabe tan poco acerca de los fenómenos mentales realmente básicos, parece bueno comenzar bastante cerca del fondo con cuestiones como: ¿qué es una representación interna de un objeto externo? ¿Qué tipo de estructura de memoria de computadora realizaría una representación? y ¿Cómo se desarrollan estas estructuras a través del aprendizaje de la experiencia? Para tener conciencia, presumiblemente muchas representaciones internas ya tienen que existir.
@Roddus Sí, lo hago. Entiendo CRA = Unidad de procesamiento de un solo núcleo con la unidad de control (Reglamento), ALU (humano en el CRA) y registros (montones). Si cree que la estructura de construcción en sí misma (todo el CRA o la salida resultante como software comprensible para nosotros) es semántica, ¿por qué está agregando nuevos tipos de datos al CRA? Con consciente no era necesario significar conciencia. Me propongo preguntar dónde se vuelve relevante el significado semántico y para quién. En el caso de la CPU podemos decir los programadores, pero ¿no es arbitraria la interpretación que utilizan?

La única forma en que agregar estructura podría hacer que el Argumento de la habitación china (CRA) de Searle sea semántico es si uno pudiera imaginar a Searle entendiendo chino pasando por el proceso programático con esta estructura adicional, sea lo que sea, incluida. Searle no especifica lo que un programa podría pedirle que haga. Puede ser tan avanzado que está más allá de nuestra imaginación hoy. Puede tener mucho éxito y convencer a todos de que entiende chino. Incluso con todo esto, afirma Searle, y estoy de acuerdo, no entendería el chino después de imitar el proceso. Entonces, concluyo que "agregar estructura" no ayuda. Searle ya lo ha agregado implícitamente.

Considere la pregunta final: "¿Es su error fundamental [la de Searle] la evitación cuidadosa de la estructura?" No creo que Searle esté cometiendo ningún error con la CRA. Sin embargo, puede estar cometiendo un error con su fisicalismo, pero eso es independiente de la CRA. Un idealista o un dualista tradicional mente-cuerpo podría usar el CRA para obtener los mismos dos resultados que Searle obtiene en su obra "Minds, Brains, and Programs", a saber, que las máquinas no pueden entender y que la máquina y sus programas no explican nuestra capacidad humana. comprender. Puede haber muchas formas de explicar nuestra capacidad de comprensión además de los "ciertos procesos cerebrales" preferidos por Searle, pero los programas de IA no son una de ellas.

Puede ser tan avanzado que está más allá de nuestra imaginación hoy. -- En realidad, tenemos una implementación funcional de la sala china en Google Translate. ¿Alguien cree que Google Translate entiende chino?
@ user4894 Como sabemos que hay un programa subyacente en Google Translate, no estaríamos tentados a antropomorfizarlo. Lo mismo podría decirse cuando nuestro lector de libros electrónicos abre un archivo. ¿Creemos que este software lee con la comprensión de lo que está en el libro que abre para que podamos leer? O considere un libro físico. ¿Creemos que el libro físico entiende el texto que nos presenta cuando lo leemos?
"* Incluso con todo esto [complejidad y estructura programática añadida], afirma Searle, y estoy de acuerdo, no entendería chino después de imitar el proceso*". No lo he visto hablar de estructuras en la habitación. Parece centrarse únicamente en el significado extrínseco y la sintaxis intrínseca de los símbolos. Él usa el término "base de datos" y "base de datos" (sin espacio) pero está hablando de "canastas" y "cajas" y no hay una estructura de símbolos dentro de estos (y de hecho no son bases de datos). Así como habla de "racimos" y "lotes", no hay estructura.
Cont... Creo que la estructura más la sintaxis pueden explicar la semántica, pero la sintaxis por sí sola no puede. Lo cual es un punto interesante. Si los programas de computadora pueden crear estructura (lo que pueden hacer), entonces la sala china no tiene en cuenta todas las cosas que puede hacer una computadora. Y el argumento de la habitación china tampoco tiene en cuenta todas las cosas que puede hacer una computadora. Mi argumento es que la estructura no es sintaxis. Si es cierto, entonces la premisa de Searle de que "las computadoras son dispositivos puramente sintácticos" es falsa y el CRA no es sólido. Entonces, una buena pregunta parece ser: ¿la estructura es sintaxis?
@Roddus "¿Es la sintaxis de la estructura?" sugiere la "respuesta de los sistemas" que Searle aborda en "Mentes, cerebros y programas". Para eliminar cualquier influencia externa al individuo (que es lo que supongo que quiere decir con "estructura"), deja que el individuo internalice todos los elementos del sistema e incluso saca a la persona del exterior. Independientemente de si la estructura es sintaxis o no, Searle la tiene en cuenta. Una pregunta que hace es ¿cómo distinguiría la IA fuerte lo mental de lo no mental si se aceptara una IA fuerte? Por ejemplo, ¿un termostato entiende la temperatura?
@Frank Hubeny Por estructura me refiero a la capacidad de un programa para crear (y seguir) una estructura. Si la sintaxis es una reacción a la forma del símbolo, entonces la capacidad de construir una estructura (relacionar los símbolos entre sí sin reaccionar a sus formas) es un superpoder adicional que tienen los programas, y la premisa de Searle de que las computadoras son dispositivos puramente sintácticos es falsa (y el CRA no es sólido) . La sala china interiorizada sigue siendo un sistema puramente sintáctico según Searle, pero si puede crear una estructura, entonces la sala interiorizada no es puramente sintáctica y la premisa de Searle es falsa. Esa es la idea que me gustaría ofrecer.
@Roddus No veo cómo Searle no ha cubierto la "estructura" en su respuesta a la respuesta de los sistemas a la CRA. Desde mi punto de vista, veo que esta estructura no agrega nada nuevo a la sintaxis y aquellos que soportan una IA sólida ven que la semántica no agrega nada nuevo a la sintaxis. Cualquier cosa que un programa pudiera hacer, Searle podría imitarlo y no llegar a comprender el chino. Supongo que una forma de que la IA fuerte evite esto es afirmar que la semántica no existe, es decir, que es una especie de ilusión, sin embargo, no creo que eso sea cierto.
@Frank Hubeny Según entiendo a Searle (y Stevan Harnad, etc.), la sintaxis es forma. Pero, de manera más general, podría considerarse como una propiedad (diferentes formas son diferentes valores de la propiedad de forma). El programa es puramente sintáctico porque sus condicionales actúan solo sobre las formas de los símbolos chinos, una propiedad intrínseca , sin referencia a los significados de las formas, una relación de 2 términos, uno de los cuales es la forma y el otro un significado ( la relación es en realidad más compleja que esto ya que la forma es un universal). La estructura es una relación , no una propiedad.
@Frank Hubeny Cont... Entonces, mi argumento es que, dado que la sintaxis es una propiedad, y dado que la estructura es una relación de 2 términos, y dado que las propiedades no son relaciones de 2 términos, la estructura no es sintaxis. Y dado que las computadoras (sus programas) pueden crear y seguir una estructura, la premisa CRA de Searle de que "las computadoras son puramente sintácticas" es falsa y la CRA no es sólida. Esto abre la posibilidad de que, aunque la sintaxis es insuficiente para la semántica, la sintaxis + estructura podría ser suficiente y las computadoras podrían construir estructuras semánticas internas.
@Roddus Con respecto a las "formas", Searle menciona esto: "estas reglas me indican cómo devolver ciertos símbolos chinos con ciertos tipos de formas en respuesta a ciertos tipos de formas que me dieron en el tercer lote" (Mentes, cerebros y programas") . Usó "forma" para enfatizar que no sabe lo que significan los caracteres chinos ni su sintaxis. Para él , son solo formas . El programa puede construir una cadena de salida. No importa cómo lo haga el programa. Cuando Searle imita el programa, no entiende.
@Frank Hubeny (Steven Harnad también habla mucho sobre la forma cuando habla de lo que hacen las computadoras). Por "ni su sintaxis", ¿quiere decir ni su semántica? Tal como lo entiendo, para Searle la forma es sintaxis, por lo que al ver la forma del símbolo conocería la sintaxis. ¿Podría importar cómo el programa construye la salida? Creo que el programa necesita manipular los símbolos solo en función de sus formas. Estoy de acuerdo en que el punto central de la habitación china es que Searle no entiende lo que significan las formas.
@Roddus Mientras lo leo, todo lo que Searle sabe es la "forma". No conoce ni la semántica ni la sintaxis del chino. Sabe lo suficiente como para distinguir un personaje individual por su forma. El programa tiene una forma de generar una salida correcta que Searle puede imitar. Donde podría no estar de acuerdo con Searle es que el programa realmente no conoce la sintaxis más que la semántica, pero el programa tiene un método para manipular los símbolos para obtener la respuesta correcta.
@ Frank Hubeny, sí, estoy de acuerdo en que el programa no conoce la sintaxis (porque no sabe nada). Pero cuando Searle habla de sintaxis, ¿qué cree que quiere decir exactamente? ¿Se refiere solo a la forma o hay más en la sintaxis en la sala china (o en la computadora) que solo la forma?
@Roddus Creo que Searle asocia la "sintaxis" del lenguaje humano con las reglas formales del programa, pero no estoy seguro. La idea de "forma" solo se aplica al ser humano en el Salón Chino. Todo lo que el humano conoce es la forma de los personajes porque los ve, nada más. Esa persona sigue las reglas formales del programa, no la sintaxis del chino que puede ser diferente. Los humanos rompen las reglas sintácticas en el habla coloquial, lo que me hace pensar que la división sintaxis-semántica no está clara para nosotros. Pero un lenguaje de programación solo tendría reglas formales, solo su sintaxis.