La sala china reacciona solo a la sintaxis, o forma de los símbolos (es puramente sintáctico). Pero los cerebros están llenos de estructura. En la habitación, los símbolos chinos se encuentran dispersos en "montones" en el piso o se mueven en "lotes" o "racimos", o se almacenan revueltos en "canastas" sin conexiones estructurales entre los símbolos.
Las cosas que procesan las computadoras se llaman "símbolos". Las computadoras pueden construir estructuras entre símbolos y reaccionar o seguirlos, y con frecuencia lo hacen. Las conexiones virtuales entre ubicaciones de memoria se pueden establecer mediante punteros, y los algoritmos pueden seguir las conexiones utilizando los métodos de direccionamiento directo de memoria e indirección.
Esta capacidad estructural, o relacional, del programa informático puede reflejarse en la sala china añadiendo a la ontología de la sala un nuevo tipo de objeto: cadena. Las instancias de cadena en la sala pueden luego conectar símbolos chinos tokenizados. Cada trozo de cuerda tiene las mismas características, incluida la longitud. Son la encarnación de la estructura, son elementos relacionales de la estructura.
En la habitación, si las conexiones establecidas entre los símbolos son una consecuencia causal de la contigüidad temporal en la superficie sensorial que da como resultado que los símbolos sensoriales contiguos salgan del sensor y luego entren en la habitación, las conexiones entre los símbolos sensoriales registran como estructura interna las instancias externas de contigüidad temporal. en la superficie sensorial. ¿Es tal estructura interna un elemento de contenido semántico?
En la computadora, si las estructuras de memoria interna construidas con punteros son árboles, un programa puede recorrer los árboles y emitir como salida copias de las hojas (símbolos), sin reaccionar a (identificar) las formas de los símbolos. El programa simplemente copia y emite todo aquello a lo que llega que no tiene hijos. El programa no contiene condicionales indexados en forma de símbolo.
Supongamos que Searle tiene los ojos vendados y luego camina sobre un árbol siguiendo la cuerda con las manos. Cuando llega a una hoja (una tarjeta inscrita con un ideograma chino cuya tarjeta no tiene cadenas hacia abajo), emite la tarjeta y luego continúa su caminata táctil en el árbol. Dado que las reglas que está siguiendo no indican una reacción a la forma de ningún símbolo chino (y, por lo tanto, no contienen un ejemplo o descripción de ninguna forma de símbolo chino), ¿significa esto que el programa en el libro de reglas no es sintáctico con respecto a a los símbolos chinos, y Searle manipula los símbolos de forma no sintáctica?
En 2014, Searle dice (énfasis suyo): " ...una computadora digital es una máquina sintáctica . Manipula símbolos y no hace nada más" ("Lo que su computadora no puede saber", en The New York Review of Books , octubre 9, 2014, sección 2, párrafo 7). La cadena no es símbolos. ¿Es su cuidadosa evitación de la estructura su error fundamental?
Soy consciente de que esta respuesta está un poco fuera de tema, sin embargo, espero que todavía ayude.
Creo que ver la sala Searls Chines como "Intuition Pump", un concepto introducido por Daniel Denett, es un enfoque útil. Donde los experimentos mentales son entidades que nos dan mejor o peor intuición de un determinado fenómeno. Al cambiar ligeramente partes del experimento mental en cuestión, uno ve si es una buena bomba de intuición o no. Analizando si el experimento mental cambiado sustenta la misma intuición.
Mi conclusión es que el CRA depende fuertemente de su forma inicial para crear la intuición demandada. Lo que significa que agregar nuevas entidades como usted sugiere fe "cadenas" muestra la validez limitada de la CRA para los fenómenos analógicos que intenta describir.
No estoy de acuerdo con su afirmación de que hay:
no hay conexiones estructurales entre los símbolos en el CRA.
Ya que el ordenarlos, guiado por el reglamento, crea una estructura que contiene significado para el receptor. El punto clave parece ser más bien un desconocimiento/desinterés de/en la estructura por parte de la persona en la habitación. Esto crea un corte claro entre la sintaxis y la semántica. Este claro corte también es causado por el libro de reglas que contiene 2 idiomas, que están superpuestos por alguien que no es la persona en la sala que solo entiende uno y mezcla expresiones del otro idioma.
Este desinterés plantea la pregunta de que, dada la estructura temporal de la entrada sensorial, ¿tiene la persona en el CRA el deseo de derivar la propiedad semántica? Aparentemente no solo hace su trabajo.
Tenga en cuenta que la parte en la que analiza el software parece distanciarse de lo que Searle parece querer decir, ya que está discutiendo sobre las estructuras utilizadas en el libro de reglas para transmitir las propiedades semánticas deseadas. No la propia CRA.
Me parece que la CRA se centraría principalmente en la analogía de un solo núcleo de CPU. Por lo tanto, exigir un interés por el mecanismo de cambio de bits parece problemático.
Debido a la bomba de intuición mencionada anteriormente, su enfoque parece apropiado pero también inapropiado. Apropiado ya que reestructura el CRA inicial para que brinde mejores intuiciones para computadoras posiblemente más complejas. Sin embargo, el CRA inicial aún se mantiene para sistemas más simples como las calculadoras normales.
Otros han elegido enfoques similares, tratando de identificar el sistema general como relevante, dando más importancia a la estructura del libro de reglas (software). Yo mismo intenté esto reformulando el CRA para que pareciera más una célula nerviosa y agregándolo con otros CRA modificados para obtener una estructura similar a un cerebro en 3D.
Mi conclusión es que el CRA ilustra el nivel de análisis incorrecto para sistemas complejos. Por lo tanto, veo que su enfoque es inadecuado ya que la elección de la CRA como modelo parece innecesaria para las preguntas generales que parece expresar. Como cómo surge una semántica en un sistema. O qué es exactamente la semántica, cómo afecta la complejidad a la semántica, etc.
La única forma en que agregar estructura podría hacer que el Argumento de la habitación china (CRA) de Searle sea semántico es si uno pudiera imaginar a Searle entendiendo chino pasando por el proceso programático con esta estructura adicional, sea lo que sea, incluida. Searle no especifica lo que un programa podría pedirle que haga. Puede ser tan avanzado que está más allá de nuestra imaginación hoy. Puede tener mucho éxito y convencer a todos de que entiende chino. Incluso con todo esto, afirma Searle, y estoy de acuerdo, no entendería el chino después de imitar el proceso. Entonces, concluyo que "agregar estructura" no ayuda. Searle ya lo ha agregado implícitamente.
Considere la pregunta final: "¿Es su error fundamental [la de Searle] la evitación cuidadosa de la estructura?" No creo que Searle esté cometiendo ningún error con la CRA. Sin embargo, puede estar cometiendo un error con su fisicalismo, pero eso es independiente de la CRA. Un idealista o un dualista tradicional mente-cuerpo podría usar el CRA para obtener los mismos dos resultados que Searle obtiene en su obra "Minds, Brains, and Programs", a saber, que las máquinas no pueden entender y que la máquina y sus programas no explican nuestra capacidad humana. comprender. Puede haber muchas formas de explicar nuestra capacidad de comprensión además de los "ciertos procesos cerebrales" preferidos por Searle, pero los programas de IA no son una de ellas.
franco hubeny
usuario4894
Roddus
Roddus
usuario4894
Roddus
usuario3017
Roddus
usuario3017
Roddus
Roddus
usuario3017