¿Por qué es imposible que un programa o IA tenga comprensión semántica?

relativamente nuevo en la filosofía.

Esta pregunta se basa en el argumento de la habitación china de John Searle .

Me parece extraño que su argumento principal de por qué los programas no podían pensar era porque los programas solo podían seguir las reglas de sintaxis pero no podían asociar ninguna comprensión o semántica a las palabras (o cualquier objeto/símbolo).

Este punto me parece discutible (aunque no puedo expresarlo lo suficientemente bien). ¿Cómo está John tan seguro de que sería imposible que un programa entendiera la semántica? ¿Imitar la comprensión semántica es realmente diferente de la comprensión semántica genuina?

¿Qué dice la filosofía acerca de si es verdaderamente imposible que la humanidad desarrolle algún día un programa capaz de comprensión semántica? De acuerdo con el argumento de la misma evidencia de Turing, si una computadora puede pasar la prueba, tendríamos que asumir que es capaz de comprender. ¿Podríamos siquiera distinguir entre la comprensión imitada simulada y la comprensión real?

Editar: wow, esto realmente explotó. ¡Gracias por las respuestas!

Nota al margen:

Planteé esta pregunta en parte porque la visualización de John de cómo se ve un programa me parece defectuosa. Es capaz de desglosar y visualizar claramente un programa (la habitación) con un "núcleo" (el hombre en la habitación) en el medio que maneja las entradas y produce las salidas.

Sin embargo, los programas algorítmicos complejos no están diseñados de una manera tan simple. Tomemos como ejemplo las redes neuronales artificiales , de las que se dice que son "cajas negras" debido al hecho de que no podemos dividir una red neuronal en componentes para deducir cómo decide generar ciertos resultados. El argumento de John parece basarse en el hecho de que podemos 'espiar' cómo los programas/algoritmos toman decisiones cuando eso no es necesariamente cierto.

Los algoritmos de ajedrez como el infame Deep Blue y Alpha Zero a veces producen movimientos que los ajedrecistas profesionales no tienen en cuenta. ¿Argumentaría John que estos algoritmos "no entienden el ajedrez?". Parece erróneo decir que el programa falla en la comprensión semántica cuando puede mostrar una creatividad de la que los propios jugadores de ajedrez humanos pueden carecer.

"¿Imitar la comprensión semántica es realmente diferente de la comprensión semántica genuina?"... eso es lo que se supone que muestra el argumento de la habitación china. ¿Dónde no estás de acuerdo con el argumento?
Aquí hay una pregunta relacionada que podría interesarle Computadoras, inteligencia artificial y epistemología .
¡Bienvenido a Filosofía SE! Gracias por tu contribución. Tómese un momento para hacer el recorrido o buscar ayuda . Puede realizar búsquedas aquí o buscar aclaraciones adicionales en el metasitio . No olvides que cuando alguien haya respondido a tu pregunta, puedes hacer clic en la flecha para recompensar al colaborador y en la marca de verificación para seleccionar la que creas que es la mejor respuesta.
"¿Qué dice la filosofía?" es una pregunta demasiado amplia para este sitio, las enciclopedias son mejores para obtener información general. Véase, por ejemplo , SEP, The Chinese Room Argument sobre lo que Searle quiere decir con "comprensión semántica" y cómo los filósofos orientados a la IA lo cuestionan.
No es imposible. La semántica es simplemente establecer una correspondencia entre un símbolo (funciona como "manzana" o "libertad", o signos como "!" o un triángulo rojo) con otros símbolos (una definición) o entrada sensorial (los diversos contextos en los que "manzana" " o "libertad" se pronunciaron a tu alrededor). No hay magia detrás de esto, y una IA es perfectamente capaz de hacerlo. Las aplicaciones actuales siguen siendo muy especializadas en comparación con los humanos, pero la diferencia está en el grado, no en la calidad.
Esos argumentos se hicieron antes de una comprensión moderna de las redes neuronales artificiales, cuando se suponía que las computadoras siempre eran algorítmicas. Cualquier cantidad de interacción con GPT-3 demostrará un poco de comprensión semántica y GPT-4, etc. solo mejorará.
@Eugene Por el contrario, la interacción con GPT-3 demuestra la capacidad de imitar la comprensión semántica. La conclusión (muy controvertida) de Searle es que incluso la imitación perfecta de la comprensión semántica no implica una comprensión semántica real.
@CharlesStaats Cuando estaba escribiendo, Searle solo podía concebir un conjunto predefinido de entradas/salidas, por lo que cualquier comprensión semántica era mímica. Las redes neuronales han demostrado la capacidad de producir resultados creativos más allá de sus conjuntos de datos de entrenamiento y más allá de lo mejor humano. Ahora sabemos que nuestros cerebros son redes neuronales de las que solo conocemos la subjetividad porque podemos describirlas desde adentro (a diferencia de las redes neuronales artificiales, hasta ahora), entonces, ¿cómo se puede argumentar que un tipo de red neuronal tiene comprensión semántica, mientras que el otro solo lo esta imitando?
@Eugene - Searle no restringió su argumento a programas con "un conjunto predefinido de entradas/salidas", si lee la sección sobre "respuestas" en su artículo original de 1980 , bajo el título III analiza la "respuesta del simulador cerebral" que implica una simulación detallada de un cerebro humano real. No sugiere ningún escepticismo de que tal simulación pueda comportarse como un cerebro humano, pero aún cree que su argumento demuestra que no tendría comprensión, ya que un ser consciente podría ejecutar el programa sin entender chino.
@Eugene ¿De qué manera las redes neuronales no son algorítmicas? Se ejecutan en hardware perfectamente convencional. Por supuesto que son algorítmicos. Podría ejecutar una red neuronal usando papel y lápiz, aunque lentamente. Una instrucción a la vez. La ponderación de nodos es una técnica bastante antigua, y la neurona de McCulloch-Pitts data de la década de 1940.
@ user4894: no hay algoritmos que determinen qué tipo de agrupación harán las redes neuronales, ya sea en nuestras cabezas o en una de nuestras computadoras. Hemos escrito algoritmos para realizar el procesamiento de redes neuronales, pero el procesamiento de redes neuronales en sí no es algorítmico. Tenga en cuenta también que si construimos una red neuronal real, que realizó un procesamiento analógico como lo hacen nuestros cerebros, en lugar de simular una red neuronal como lo hacemos actualmente, entonces no podríamos identificar "una instrucción a la vez" que implica el procesamiento de la red neuronal real. .
" Es imposible ... poner un Cadillac en tu nariz, es simplemente imposible... " - Steve Martin
@Dcleve En principio, podría ejecutar una red neuronal una instrucción a la vez con lápiz y papel. Por supuesto que es algorítmico. Se ejecuta en hardware convencional. Las redes neuronales no son mágicas, son programas de computadora que se ejecutan en hardware de computadora convencional listo para usar. En segundo lugar, si tuviera una "red neuronal real", como la llama, que hace procesamiento analógico, no sería una red neuronal digital en absoluto, por lo que está hablando de algo completamente diferente. Y no tienes uno de esos excepto entre las orejas, y no sabemos cómo funciona.
@ user4894: existen diferencias claras entre un enfoque algorítmico de la informática, donde las funciones son identificables, caracterizables y se pueden extraer y analizar por separado de la implementación, y las simulaciones de "red neuronal", donde las funciones de salida NO son caracterizables, etc. Esas diferencias se entienden bien en la comunidad de IA, y como las limitaciones de Deep Learning AI se han vuelto evidentes, la última área de investigación en IA se centra en cómo hacer una fusión de procesamiento entre estos dos métodos DIFERENTES de implementar IA. Declararlos iguales es un dogmatismo tonto.
@Dcleve Estoy seguro de que los estudiantes universitarios de CS que tienen la intención de especializarse en IA se sienten aliviados al descubrir que no usarán algoritmos. JAJAJA. No estoy participando en un dogmatismo tonto. Estoy rechazando el misticismo de la IA que afirma que las redes neuronales no usan algoritmos, no son programas de computadora, "hacen cosas que no entendemos", lo cual es cierto para el 99% de los grandes programas comerciales que existen. Para pensar claramente sobre la IA, debe usar las palabras con precisión. (continuar...)
@Dcleve ... Las redes neuronales son de hecho algoritmos, como lo revelaría un vistazo a su código fuente. Son increíblemente complejos, pero también lo es la cadena de suministro global. Otra colección de algoritmos locales cuyo comportamiento global nadie entiende, pero que nadie dota de misticismo y bombo.
@user4894 Hay algoritmos que describen la capa de entrenamiento y ejecución, pero la aleatoriedad involucrada hace que el resultado sea completamente impredecible y no determinista, especialmente si se usa la técnica común de 2 redes antagónicas que trabajan una contra la otra. El experimento mental original de la habitación china suponía un conjunto de reglas extremadamente grande, pero todavía determinista, es decir, algorítmico.
@Eugene Las redes neuronales simplemente no son aleatorias ni no deterministas. Se ejecutan en hardware convencional. En el nivel del núcleo de la CPU, ejecutan una instrucción de máquina a la vez, una tras otra, sin diferencia en principio de "Hola mundo". Seguramente debes saber esto. Impredecible no es lo mismo que no determinista. El lanzamiento de una moneda es impredecible pero perfectamente determinista en función de la fuerza y ​​el ángulo del lanzamiento, la presión del aire, etc. Nada que ver con la sala china. Simplemente rechazando este misticismo de que las redes neuronales no son algoritmos ni deterministas.
@Eugene Una búsqueda casual dio esto: phoenixite.com/are-neural-networks-stochastic-or-deterministic ¿Las redes neuronales son deterministas? La respuesta a esta pregunta es bastante sencilla; una vez entrenado, el funcionamiento interno de una red neuronal se vuelve determinista y no estocástico. Las redes neuronales son estocásticas antes de ser entrenadas. Se vuelven deterministas después de haber sido entrenados. El entrenamiento instala reglas en una red que prescriben sus comportamientos, por lo que un modelo no entrenado muestra comportamientos inconsistentes. La capacitación crea patrones de decisión claros dentro de la red.
@Eugene Las redes neuronales son una serie de algoritmos [mi énfasis] con la increíble capacidad de extraer significado de datos imprecisos o complejos y encontrar patrones y detectar tendencias complejas para varias técnicas informáticas. Estoy seguro de que otras fuentes respaldarían esto, ya que todos los programas de computadora que se ejecutan en hardware convencional (no cuántico) son deterministas. ¿Quién diablos puede afirmar lo contrario? No hay fantasmas en nuestras máquinas.
@ user4894 una buena prueba de si algo es determinista, es si puede predecir el resultado dadas las entradas. Si alguna vez prueba redes neutrales de generación de imágenes o texto, verá que puede repetir la misma entrada literalmente más de 1000 veces (probado por curiosidad) y obtener resultados relacionados pero completamente diferentes. Si tiene una copia de una red neutral, sin forzar la generación no aleatoria, no puede predecir qué salida generará para una entrada determinada. Eso es lo más estocástico posible.
@user4894 Busqué al autor del artículo que vinculó en LinkedIn, linkedin.com/mwlite/in/zachary-gene-botkin-a05b341b2 , es un analista de imágenes en una startup que proporciona datos para la clasificación de imágenes de IA, por lo que se perdió el bosque para los árboles Las redes neuronales de clasificación de imágenes SON deterministas, si lo alimenta una entrada 1000 veces, le dirá que es un gato con 97.86 ÷ certeza cada vez, pero lo generalizó a todas las redes metálicas, incluidas las generativas, lo cual es completamente incorrecto.
@Eugene "una buena prueba de si algo es determinista, es si puede predecir el resultado dadas las entradas". Completamente falso. El lanzamiento de una moneda es determinista pero impredecible. Toda la teoría del caos se trata de cosas que son deterministas pero impredecibles. Este no es el lugar adecuado para entrar en todo el resto de esto, pero simplemente estás equivocado. Una red neuronal finalmente ejecuta las instrucciones de la máquina una por una, de manera determinista. Si cree que un núcleo de CPU decide por sí solo hacer algo diferente a lo que está programado para hacer en función del código de alto nivel que está ejecutando, vuelve a CS 101 para usted.

Respuestas (17)

Me parece extraño que su argumento principal de por qué los programas no podían pensar era porque los programas solo podían seguir las reglas de sintaxis pero no podían asociar ninguna comprensión o semántica a las palabras (o cualquier objeto/símbolo).

Esa fue más su conclusión que su argumento. Su argumento real sobre el experimento mental de la habitación china era que si la habitación estaba ocupada por un agente consciente que es perfectamente capaz de comprensión semántica, como una persona, y debían ejecutar a mano las reglas sintácticas de un programa de habla china ( o de memoria), sin embargo, carecerían de cualquier comprensión semántica del chino. Por ejemplo, en el artículo de SEP sobre la Sala China al que usted se vinculó, cita a Searle dando un resumen del argumento en 1999 donde dice (énfasis mío):

Imagina a un hablante nativo de inglés que no sabe chino encerrado en una habitación llena de cajas de símbolos chinos (una base de datos) junto con un libro de instrucciones para manipular los símbolos (el programa). Imagine que las personas fuera de la sala envían otros símbolos chinos que, sin que la persona de la sala lo sepa, son preguntas en chino (la entrada). E imagine que siguiendo las instrucciones del programa, el hombre en la habitación puede repartir símbolos chinos que son las respuestas correctas a las preguntas (la salida). El programa permite que la persona en la sala apruebe el Test de Turing para comprender el chino, pero no entiende ni una palabra de chino.

Y cita una declaración posterior de 2010 donde dijo:

Un sistema, yo, por ejemplo, no adquiriría una comprensión del chino simplemente siguiendo los pasos de un programa de computadora que simulara el comportamiento de un hablante de chino.

También encontré su artículo original de 1980 sobre el tema en línea aquí , donde se imaginaba que era un hablante nativo de inglés en la sala respondiendo preguntas en inglés de forma natural y respondiendo preguntas en chino basándose en la simulación manual de un elaborado programa informático. y su argumento se basaba en el contraste entre su propia comprensión en el primer caso y su incomprensión en el segundo:

Ahora, las afirmaciones hechas por una IA fuerte son que la computadora programada entiende las historias y que el programa, en cierto sentido, explica la comprensión humana. Pero ahora estamos en condiciones de examinar estas afirmaciones a la luz de nuestro experimento mental.

  1. En cuanto a la primera afirmación, me parece bastante obvio en el ejemplo que no entiendo una palabra de las historias chinas. Tengo entradas y salidas que son indistinguibles de las del hablante nativo de chino, y puedo tener cualquier programa formal que quieras, pero sigo sin entender nada. Por las mismas razones, la computadora de Schank no entiende nada de ninguna historia, ya sea en chino, inglés o lo que sea, ya que en el caso chino la computadora soy yo, y en los casos en que la computadora no soy yo, la computadora no tiene nada más que yo. en el caso de que no entienda nada.

  2. En cuanto a la segunda afirmación, que el programa explica el entendimiento humano, podemos ver que la computadora y su programa no brindan condiciones suficientes de comprensión ya que la computadora y el programa están funcionando y no hay comprensión. Pero, ¿proporciona siquiera una condición necesaria o una contribución significativa a la comprensión? Una de las afirmaciones hechas por los partidarios de una IA fuerte es que cuando entiendo una historia en inglés, lo que estoy haciendo es exactamente lo mismo, o quizás más de lo mismo, que lo que estaba haciendo al manipular los símbolos chinos. Es simplemente una manipulación más formal del símbolo lo que distingue el caso en inglés, donde entiendo, del caso en chino, donde no entiendo.

Ha habido varias respuestas al argumento por parte de filósofos que no lo encuentran convincente, véase la sección 4 del artículo de la SEP. La que creo que es la refutación más convincente es la "respuesta de sistemas", que básicamente dice que los límites de los "sistemas" son algo arbitrarios y que un sistema físico con un nombre dado puede tener múltiples subprocesos computacionales que podrían ser lo suficientemente independiente como para que cada uno individualmente pueda tener comprensión semántica de ciertas cosas y, sin embargo, carecer de comprensión de cosas que el otro subproceso sí entiende. Para elegir un caso extremo, imagina una especie alienígena que tiene naturalmente dos cabezas, con cerebros independientes que no tienen conexiones neuronales entre ellos, aunque ambos cerebros podrían considerarse parte de un solo "sistema" biológico. no nos sorprendería si un cerebro pudiera entender algo (digamos, el idioma chino) que el otro ignoraba. Y aunque hubieraalgunas conexiones neuronales entre ellos, es posible que no tengan la configuración correcta para garantizar que ambos cerebros necesariamente compartan una comprensión conceptual de alto nivel de cualquier tema arbitrario.

Aquí está David Chalmers dando este tipo de argumento en la p. 326 de su libro The Conscious Mind , donde el agente dentro de la habitación es un "demonio" que puede tener capacidades de memorización mucho más allá de las de los humanos de la vida real:

Searle también da una versión del argumento en el que el demonio memoriza las reglas del cálculo e implementa el programa internamente. Por supuesto, en la práctica, las personas no pueden memorizar ni siquiera cien reglas y símbolos, y mucho menos miles de millones, pero podemos imaginar que un demonio con un módulo de supermemoria podría memorizar todas las reglas y los estados de todos los símbolos. En este caso, podemos esperar nuevamente que el sistema dé lugar a experiencias conscientes que no son las experiencias del demonio. Searle argumenta que el demonio debe tener las experiencias si alguien las tiene, ya que todo el procesamiento es interno al demonio, pero esto debería considerarse como un ejemplo de dos sistemas mentales realizados dentro del mismo espacio físico. La organización que da lugar a las experiencias chinas es bastante distinta de la organización que da lugar a las experiencias del demonio. La organización de comprensión del chino radica en las relaciones causales entre miles de millones de ubicaciones en el módulo de supermemoria; una vez más, el demonio sólo actúa como una especie de facilitador causal. Esto queda claro si consideramos un espectro de casos en los que el demonio correteando alrededor del cráneo memoriza gradualmente las reglas y los símbolos, hasta que todo lo interioriza. La estructura relevante se traslada gradualmente del cráneo a la supermemoria del demonio, pero la experiencia permanece constante en todo momento y completamente separada de las experiencias del demonio. una vez más, el demonio sólo actúa como una especie de facilitador causal. Esto queda claro si consideramos un espectro de casos en los que el demonio correteando alrededor del cráneo memoriza gradualmente las reglas y los símbolos, hasta que todo lo interioriza. La estructura relevante se traslada gradualmente del cráneo a la supermemoria del demonio, pero la experiencia permanece constante en todo momento y completamente separada de las experiencias del demonio. una vez más, el demonio sólo actúa como una especie de facilitador causal. Esto queda claro si consideramos un espectro de casos en los que el demonio correteando alrededor del cráneo memoriza gradualmente las reglas y los símbolos, hasta que todo lo interioriza. La estructura relevante se traslada gradualmente del cráneo a la supermemoria del demonio, pero la experiencia permanece constante en todo momento y completamente separada de las experiencias del demonio.

en la práctica, la gente no puede memorizar ni siquiera cien... símbolos . Debo haber entendido mal esto porque ni siquiera necesitamos estar hablando de un chino razonablemente bien educado que sabe miles de símbolos; Diría que un niño promedio de dos años podría identificar más de 100 íconos diferentes de animales básicos, objetos domésticos, etc.
en la práctica, la gente no puede memorizar ni siquiera cien reglas y símbolos . No soy un chino bien educado y, sin embargo, he memorizado caracteres latinos en mayúsculas y minúsculas, números, símbolos matemáticos, la mayoría de las letras griegas en mayúsculas y minúsculas, algunas letras cirílicas. letras, algunas señales de tráfico y otros iconos abstractos, todos de hiragana y katakana, unos cientos de kanji, y decenas de reglas gramaticales, de tráfico, de cortesía y reglas en varios lenguajes de programación. Seguramente varios chinos bien educados saben todo eso más 5k+ ideogramas. :-)
@CaiusJard Re: el niño promedio de dos años podría identificar más de 100 íconos diferentes [...] Si bien (sorprendentemente) cierto, sus ejemplos no son íconos abstractos sino imágenes de cosas. Para símbolos abstractos como letras, "prohibido", "riesgo biológico", etc., es más difícil.
Sí, pero ¿cuál es realmente la diferencia entre lo abstracto y lo concreto para un niño de dos años? Muéstrales ❤️ dicen "corazón" a pesar de que en realidad nunca han visto un corazón, y si los llevaste al mostrador de la carne en la tienda local, no se parece en nada a eso. No estoy necesariamente de acuerdo en que "prohibido" o "riesgo biológico" (dejando de lado las complejidades de la pronunciación) sería significativamente más difícil de memorizar para un niño que cualquier otra cosa que nunca haya experimentado. No entiendo la afirmación de los 100 símbolos porque Pictionary sería un juego muy aburrido si fuera cierto...
Entonces, el argumento de Searle es que pasar una prueba de Turing no es una prueba de comprensión. No prueba que crear una comprensión artificial sea imposible. (Aunque tengo la impresión de que Searle de hecho discutió el segundo punto).
@Dave: Nunca escuché a nadie afirmar seriamente que pasar una prueba de Turing es una prueba de comprensión en primer lugar, así que si eso es lo que quería decir Searle, está refutando un hombre de paja.
@Kevin Podríamos distinguir entre una prueba de Turing real administrada por un humano durante un período de tiempo limitado, frente a una prueba de Turing ideal administrada por un agente superinteligente que tiene una cantidad infinita de tiempo para probar todas las capacidades de comportamiento de una entidad para ver si realmente tiene todos los tipos de comportamientos que en un humano tomaríamos como evidencia de cosas como 'comprensión', 'inteligencia', 'creatividad', 'empatía', etc. Hay varios sabores de "funcionalismo" en la filosofía de mente que creo vería el tipo ideal de prueba como una demostración de estados mentales.
Y como otro ejemplo, aunque Chalmers no identifica los estados mentales con los estados funcionales, argumenta que las "leyes psicofísicas" que postula que relacionan los estados físicos con los estados mentales probablemente respetarían un principio de invariancia funcional (los sistemas funcionalmente idénticos tendrían idénticos estados mentales). estados), consulte este documento donde defiende la idea de que "la experiencia es invariable en los sistemas con la misma organización funcional de grano fino".
@Hypnosifl: En mi humilde opinión, Searle solo estaba usando la prueba de Turing como una ilustración del tipo de comportamiento que esperaríamos ver de un agente que comprende, en lugar de una prueba real de comprensión. Sigo pensando que Searle está completamente equivocado, por supuesto, pero prefiero interpretarlo de la manera más caritativa posible y, según mi interpretación, estaba tratando de hacer un punto mucho más profundo sobre la relación entre la sintaxis y la semántica, no solo desacreditar la prueba de Turing. .
Esta es una excelente respuesta, pero me gustaría decir algo sobre la afirmación de Searle, "una computadora tiene sintaxis pero no semántica". Hace esta afirmación dos veces en "Minds, Brains and Programs": en primer lugar, como conclusión cuando afirma lo que la Sala China está tratando de mostrar, en segundo lugar, como premisa cuando intenta justificar su despido, la respuesta de los sistemas. Esto es, por supuesto, una petición de principio, y cuando elimina todo el razonamiento circular, todo lo que le queda es la afirmación indiscutible de que "una computadora tiene sintaxis pero no semántica".
En el punto en el que imaginas un extraterrestre de dos cabezas, creo que podrías sustituirlo por el fenómeno de la vista ciega, donde una persona negará tener conocimiento de algo, pero actuará de una manera que demuestre que lo tiene.

Hay un problema flagrante con el argumento de Searle y es bastante difícil entender por qué no se ha señalado antes: ninguna de las células cerebrales del Sr. Searle entiende inglés, ¿pero afirma que puede hacerlo ? ¿Qué argumento puede hacer que una IA no puede revertir y arrojarle directamente a la cara?

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
Sí, desconcertante por qué dejamos que el Sr. Searle se saliera con la suya. Lo vi dar este argumento en persona hace unos 40 años.

Tal como lo veo, Searle está llegando al punto en que la sintaxis es algorítmica , un sistema impulsado por reglas y procedimientos predefinidos, pero la semántica (hasta donde sabemos) no lo es. En otras palabras, es bastante fácil crear y reconocer una oración sintácticamente bien formada por razones puramente procesales, pero juzgar el significado de una oración requiere algo más que eso. Es decir, compare las siguientes expresiones:

  • Jarod ama las papas fritas
  • Le encantan las papas fritas Jarod
  • Patatas fritas Jarod ama

La primera es sintácticamente correcta y claramente significativa. El segundo es sintácticamente incorrecto (no sigue las reglas de construcción de oraciones procesales del inglés). El tercero es sintácticamente correcto (tratando a 'chip' como un verbo), pero de significado cuestionable. ¿Qué significa 'amores de patata frita'? Ahora, si imagina esas tres frases pasadas a la inversa de la sala china (una sala en la que un hablante que solo habla mandarín está procesando reglas algorítmicas para el inglés), ese hombre reconocería a °2 como una tontería estructural, pero no haría ninguna distinción. entre °1 y °3. ¿Cómo podría?

Tenga en cuenta que esto es similar a la distinción en lógica entre la validez y el valor de verdad de una serie de proposiciones. El primero no nos dice nada sobre el segundo, y viceversa.

Lo que falta en el análisis sintáctico es la capacidad de generar significado a partir de la ambigüedad (a través de procesos no procedimentales como la extensión, la analogía, la metáfora, la simplificación, la correlación...). Usted y yo podemos sentarnos y reflexionar sobre lo que significa 'amores de patata frita', y tarde o temprano le asignaremos un significado. Pero para poder asignar un significado tenemos que evaluar el significado de las palabras individuales y encontrar alguna correspondencia dentro de ellas. Eso es más una función del uso práctico de las palabras que su estructura sintáctica o las definiciones abiertas del diccionario.

Esto podría ser más claro a ver si pensamos en términos de humor. Por ejemplo, si tomamos un par de bromas (claramente estúpidas):

  • ¿Por qué nunca deberías pelear con un dinosaurio? ¡Porque te van a dar patadas jurásicas!
  • Quien haya inventado los chistes toc toc debería recibir un premio sin campana.

... podemos ver que ambos son sintácticamente correctos, pero el chiste radica en sus extrañas correspondencias: el enlace de las peleas a que te pateen el trasero, y de los dinosaurios al Jurásico; la similitud de 'no bell' (que significa que no hay timbre, de ahí la necesidad de tocar) con 'Nobel' (el premio arquetípico para las personas inteligentes). Podemos programar una computadora para repetir estos chistes, obviamente, pero si los introdujimos en nuestra habitación china inversa, el hombre que está dentro no se reiría y no emitiría un 'ja, ja' a menos que se le dijera explícitamente que lo hiciera para estos conjuntos de simbolos Hacer que una computadora entienda el humor de estos chistes (o al menos la estupidezde ellos), tendríamos que hacer que la computadora fuera capaz de asociaciones difusas de amplio alcance entre conceptos que de otro modo no estarían relacionados, y nadie ha desarrollado todavía un algoritmo para hacer eso. Si lo hacen, requerirá más que un análisis sintáctico, por lo que el problema de la habitación china de Searle aún se mantendrá.

Parece estar asumiendo alguna noción de IA simbólica donde programamos la IA con "conceptos" de alto nivel y varios tipos de asociaciones entre ellos, pero ese enfoque ha caído en gran medida en desgracia entre los investigadores de IA. La atención se centra en enfoques de abajo hacia arriba como las redes neuronales, donde la clasificación de las entradas sensoriales en agrupaciones de alto nivel que se asemejan a "conceptos" surge de la experiencia en lugar de estar programada desde el principio. Searle afirmaría que el argumento también funciona en este caso, pero muchos filósofos no están de acuerdo.
Bueno, no iba a llegar allí con una crítica como Hypnosifl, pero ser gramatical no es una promesa de sensatez como muestra 'Las ideas verdes incoloras duermen furiosamente'. Incluso cuando se tienen en cuenta la sintaxis y las partes del discurso, el lenguaje aún posee la intención y colectivamente la comprensión que permite que ocurra la inferencia tópica. Si bien los algoritmos epistémicos de ML y los métodos simbólicos como las ontologías pueden proporcionar comprensiones, no se comprende remotamente cómo se ponen de manifiesto para formar la base de lo que es más o menos equivalente a la intuición. La producción significativa del lenguaje es algo altamente normativo.
Ah, y las computadoras también se pueden programar para manejar la contingencia de manera heurística.
Buena respuesta, creo que el punto de las bromas es bueno, porque representan usos creativos no algorítmicos del lenguaje. Es interesante ver ejemplos de dónde Watson falló con las pistas de Jeapordy: thenewatlantis.com/futurisms/…
@Hypnosifl: A los efectos de mi argumento, realmente no importa si la máquina usa un algoritmo de arriba hacia abajo o de abajo hacia arriba. La distinción sintáctica/semántica aún se mantiene. Por ejemplo, si tomamos (digamos) una red neuronal que está diseñada para hacer reconocimiento facial, el software está desarrollando un conjunto de algoritmos (una sintaxis ) para comparar datos de superficie 3D. No sabe que es un 'rostro', mucho menos que este 'rostro' es una característica de un objeto en particular.
@Hypnosifl: Como ejemplo, considere lo que sucedería si arrojáramos rostros de perros o gatos con rostros humanos en los datos de entrenamiento de la red neuronal. Dudo que la red pueda por sí sola determinar que hay dos tipos diferentes de rostros, o que la red pueda generalizar el concepto de 'cface' de tal manera que estaría sujeto a pareidolia . Sin embargo, los humanos hacen esto de forma natural e incluso mantienen contracciones (es decir, saber que algo parece una cara pero no es una cara). Esa es una comprensión del concepto cara.
Si solo dice que las redes neuronales actuales son demasiado simples para calificarlas como comprensivas de la semántica, estoy de acuerdo, pero el argumento de Searle es un principio: ¿está argumentando que incluso una red neuronal simulada tan compleja como el cerebro de un bebé podría ¿No desarrollará la comprensión semántica a través de la experiencia de la misma manera que lo hace la gente?
Tenemos una sala china, se llama traductor de Google, y si le damos "Jarod chips Potato Loves", es perfectamente capaz de generar una oración significativa (al menos en francés, español, alemán y japonés) asignando "chips" para ser el apellido de Jarod (como en "ese tipo, llamado Jarod Chips, ama la papa"). Entonces, un algoritmo es perfectamente capaz de asignar significado a una oración ambigua. Ahora bien, ¿es el significado correcto? Tal vez no, pero los humanos no son mejores. Nadie que asigne un significado a la oración "Jarod chips Potato Loves" puede afirmar tener la interpretación realmente correcta de la misma.
@Hypnosifl: Lo que digo es que las redes neuronales simuladas, tal como se conciben actualmente, tienen limitaciones que son tanto lógicas como tecnológicas (dependiendo de cómo se quiera interpolar Searle). Las computadoras y el software actuales, en pocas palabras, no son capaces de conceptualizar de la forma en que lo hacen los cerebros humanos. Cualquier afirmación más allá de eso es ciencia ficción; darse cuenta de ello dependerá de la creación de una forma de computación completamente nueva y especulativa. Podría argumentar a favor de las computadoras cuánticas, si lo desea...
@armand: Interpretar 'chips' como el apellido de Jerod es una mala sintaxis; eso haría de 'potato' un verbo, que es algo que las patatas definitivamente no son. Se podría argumentar que el apellido de Jarod es 'papa', con 'papas fritas' como su apodo (es decir, Jarod "papas fritas" patata). Eso sería gramaticalmente correcto, pero realmente tonto. Pero el punto de Searle sigue en pie: Google Translate no 'entiende' el significado de la oración. Simplemente sigue un algoritmo para la traducción, y si ponemos basura, sacamos basura. Podemos dar sentido a la basura; Google no puede.
No, simplemente asume que el verbo se coloca al final para dar sentido a la oración, que es exactamente lo que afirmas que no puede hacer. Bueno, simplemente lo hace, obviamente. ¿Qué significa "amar papas fritas" de todos modos? ¿Qué es "amores"? Afirmas que tu reinterpretación de una oración defectuosa es mejor que la de Google, pero es igual de basura sintáctica. ¿Qué te permite esta interpretación, sino la suposición de que la IA siempre estará más equivocada que tú porque eres humano? es decir, solo estás pidiendo por favor la pregunta.
Con respecto a la IA y las bromas, lo han intentado y no son tan malos como algunos humanos.
Está reclamando una diferencia entre los sistemas algorítmicos y semánticos en función del comportamiento de esos sistemas. Esto pierde el punto. Searle argumenta que incluso si se creara un algoritmo que pudiera imitar perfectamente el comportamiento humano (dentro de los límites de una prueba de Turing), aún no tendría una comprensión semántica del lenguaje que estaba produciendo. Si una IA no puede explicar el tipo de bromas que ha hecho, esa brecha podría usarse para hacer que falle la prueba de Turing.
Pero cuando dice que las redes neuronales simuladas, tal como se conciben actualmente, tienen limitaciones "lógicas", ¿cuáles serían? Su argumento anterior acerca de una red neuronal entrenada mensualmente en rostros humanos y que se confunde si añadimos caras de gato podría verse simplemente como una falta de suficiente experiencia de amplio alcance para desarrollar un buen reconocimiento de los límites de categoría (no tan diferente de un niño que ve un foca por primera vez y llamándolo 'perrito'), junto con la falta de tamaño suficiente para poder albergar una gama tan amplia de experiencias.
Como analogía, si un extraterrestre visitara la Tierra en la era Cámbrica, cuando los cerebros más grandes probablemente eran comparables a, por ejemplo, las langostas, podrían hacer observaciones empíricas sobre cómo estos cerebros se confundían fácilmente con algunos tipos novedosos de estímulos sensoriales, pero no lo harían. No estaría justificado decir que había alguna limitación "lógica" fundamental en la verdadera comprensión semántica de los cerebros formados por neuronas biológicas al estilo de la Tierra.
@CharlesStaats: Punto interesante. Eso nos lleva a concluir (1) que ninguno de nosotros 'entiende' nada de lo que hacemos o decimos, ya que todos somos reducibles a máquinas de Turing, o (2) que una máquina de Turning no puede modelar perfectamente el comportamiento humano. debemos tener cuidado con las premisas potencialmente falsas.
@TedWrigley Creo en la opinión de Searle, un cerebro biológico puede 'comprender', pero una simulación perfecta por computadora de ese mismo cerebro biológico no puede. Véase también zombi filosófico . Tenga en cuenta que mi comprensión de las opiniones de Searle es probablemente imperfecta. En particular, no sé con certeza si él cree que los seres simulados podrían tener los mismos debates filosóficos que tenemos sobre la "comprensión" sin darse cuenta de que ellos mismos no tienen "comprensión".
" la sintaxis es algorítmica, un sistema impulsado por reglas predefinidas " Esto es bastante dudoso en mi opinión para los lenguajes naturales, específicamente para el inglés. Hasta donde tengo entendido, nadie ha ideado aún un conjunto de reglas o un algoritmo que pueda distinguir de manera confiable la sintaxis válida de la inválida en inglés que cubre la gama completa del idioma. Mire los intentos de formular "reglas" en ELL.SE que a menudo reducen a "no hay una regla general, esa es simplemente la forma en que los hablantes nativos usan esta palabra o construcción". Decir que "la sintaxis es algorítmica" agita la mano como un problema muy difícil, que puede no ser soluble en absoluto.
@CharlesStaats una mente es un (gran conjunto de) simulaciones que se ejecutan en un cerebro. Así que no, los cerebros no entienden nada bendito. Al igual que mi coche no conduce al trabajo. Incluso si pudiera guiarse solo a mi lugar de trabajo, no funciona allí. "¿ Es verdad que los caníbales no comen payasos porque tienen un sabor raro? "

Respuesta corta

Hay una serie de posiciones esbozadas en su enlace SEP a Searle's Room que dejan en claro que la filosofía no ha decidido por consenso de una forma u otra la cuestión de la comprensión humana y semántica. La historia de la IA es un debate en curso, de hecho, sobre la cuestión. Una gran introducción a esa historia es The Quest for Artificial Intelligence de Nils Nilsson . Le advierto que cualquiera que le responda fuertemente negativamente o afirmativamente ni siquiera ha tomado y leído este libro. La filosofía está indecisa en gran parte porque la filosofía no ha alcanzado un consenso sólido sobre lo que constituye la comprensión. La ciencia no ha llegado a un consenso sobre la semántica en el cerebro.Dicho esto, las computadoras han logrado avances en las últimas dos décadas, quizás no demostrando la inteligencia a nivel humano, pero ciertamente lo suficiente como para escucharlo y satisfacer algunas de sus necesidades. Esencialmente, sin embargo, además de los agnósticos, hay dos campos: aquellos que creen en una noción cartesiana de comprensión que rechaza cualquier otra cosa que no sean humanos como capaces de una inteligencia similar a la humana, y una multitud advenediza que está interesada en la inteligencia artificial general y cree que es posible en teoría. (Advertencia de que mi inclinación es la última). Cualquiera que sea el caso, usted está firmemente en la filosofía de la inteligencia artificial , una rama relativamente nueva de la investigación filosófica de menos de 100 años dada la aparición de la computación digital a fines de la década de 1930 y principios de la de 1940.

Respuesta larga

mojarse los pies

El sueño de animar lo inanimado para comportarse como un ser humano se remonta a miles de años atrás, directamente a la mitología de los protoindoeuropeos . La contabilidad abreviada de los mismos también parece ser una introducción en todos los libros de hoy que buscan introducir la IA. Obviamente, tienes dos preguntas en juego, una sobre Searle y la Sala China, pero la cuestión más amplia es qué dice la filosofía sobre el desarrollo de máquinas que piensan.

Ha citado el Argumento de la habitación china, que tiene varias publicaciones en este sitio. Comience con una revisión de aquellos:

Comprender el argumento de Searle y los argumentos que lo replican, en particular la respuesta de los sistemas , es necesario para orientarse. Una vez que lo haya hecho, si yo fuera usted, buscaría una copia de La filosofía de la inteligencia artificial de Margaret Boden y What Computer Cant Do de Hubert Dreyfus. Si quiere saber qué está cocinando el campo AGI, una buena publicación reciente llamada Inteligencia General Artificial de Ben Goertzel y Cassio Pennachin (Eds.) ofrece algunos de los intentos (IMNSHO) agitados de crear arquitecturas para imbuir el software con humanos. Rasgos de inteligencia de alto nivel.

En cuanto a la pregunta de cómo puede Searle estar tan seguro. Bueno, John Searle es famoso por su filosofía, y esa confianza puede ser una función de su éxito como filósofo y su falta de sofisticación técnica como científico informático. La continuación de John Searle de los éxitos del giro lingüísticoen filosofía es difícil de discutir. Ha escrito mucho sobre cómo el lenguaje se refleja en la realidad, tanto personal como social, pero me gustaría señalar que Searle tiene una herramienta que usa para lidiar con la complejidad de la mente llamada The Background. A menudo descarta los detalles directamente en esa cosa nebulosa y difusa para simplificar para hacer sus puntos. En general, es una excelente estrategia para reducir su argumentación a lo que merece atención, pero la desventaja es que corre el peligro de hacer que sea demasiado fácil dejar de lado las proposiciones relativas, ya que el argumento informal se rige por una lógica no monótona y proposiciones rebatibles .

La inteligencia a nivel humano y la naturaleza del pensamiento

La otra parte de su pregunta gira en torno a llegar a un acuerdo con lo que significa simular la comprensión, particularmente del lenguaje. Como probablemente sepa, Alan Turing es famoso por muchas cosas, pero entre ellas está su prueba de Turing , que es un intento de poner en práctica la inteligencia semántica humana. A medida que nos acercamos a los 100 años, nadie ha sido capaz de hacerlo, lo que en la historia de la inteligencia artificial a menudo se ha promocionado como a la vuelta de la esquina, al igual que los reactores de fusión han estado constantemente a 30 años (Discovery Magazine) . De hecho, cuando Hubert Dreyfus comenzó a atacar el programa de IA en el campus y con RAND, notó la total hostilidad de sus compañeros de pensamiento casi de inmediato.

¿Por qué la promesa de la IA ha tardado tanto en materializarse (aunque últimamente las mejoras en la inteligencia artificial han logrado algunos objetivos fantásticos)? Bueno, todo se reduce a lo que la ciencia de la lingüística ha descubierto sobre la semántica. La forma más fácil de explicarlo es decir que el significado tiene sus raíces en la encarnación física , y que el procesamiento de cadenas en una ALU en serie no alcanza parte de la naturaleza conectista del cerebro humano . Estos son los detalles computacionales donde la cuestión de la inteligencia humana se torna arenosa y donde la ignorancia de la ciencia de los materiales y las estructuras matemáticas de la computación comienzan a influir en la filosofía de la mente .

De hecho, la cuestión de qué constituye la inteligencia humana no es sólo una cuestión abierta en la filosofía de la mente, sino en la psicología misma, donde hay dos modelos, en términos generales, que compiten por la aprobación, el modelo de Cattell-Horn que está relacionado con el El factor G y se pone en práctica a través de pruebas de cociente de inteligencia , y lo que podría llamarse una noción pluralista de inteligencia que es más famosa a través de la teoría MI de Howard Gardner , que es popular entre humanistas y educadores. Así como hay seguidores de "ciencias de la mente" más duras y más suaves, también este sesgo se refleja en la noción de inteligencia.

Semántica y Comprensión

En última instancia, la pregunta que está buscando tiene sus raíces más en la filosofía del lenguaje que en cualquier otra cosa, porque la discusión de la dicotomía sintaxis-semántica recae allí en los filósofos y científicos del lenguaje. Hay una serie de modelos en competencia sobre cómo sucede exactamente esta cosa, cosa, experiencia llamada "significado", y si realmente quiere comprender qué implica cómo funciona la semántica con las personas, le recomiendo dos libros para comenzar su camino. , aunque no son lecturas fáciles. Primero, Ray Jackendoff tiene sus Fundamentos del lenguajeque es muy técnico, pero presenta un argumento arquitectónico específico sobre cómo los sistemas incorporados del cerebro dan lugar a lo que reconocemos como significado. El segundo también es una lectura difícil, pero vale la pena si realmente quiere entender por qué la promesa de la IA a nivel humano y el uso del lenguaje no se ha materializado, Cognitive Linguistics de Evans y Green, que ofrece una imagen completa de cómo se fundamentan el lenguaje y el significado. en la experiencia corporal.

Suma

Ahora, lo que he ofrecido aquí no es tanto una respuesta fácil como un modelo para comprender por qué la mayoría de los filósofos están fuera de su elemento cuando discuten cómo implementar un aspecto de la cognición humana real arraigada en la computación neuronal en sistemas diseñados para implementar el Arquitectura de von Neumann de una máquina de Turing . Las contribuciones de Searle al lenguaje, la semántica y la intencionalidad son indiscutibles; sin embargo, en algunos aspectos, la cuestión de la ingeniería de la comprensión semántica ha comenzado a salir de la filosofía y adentrarse en los dominios científicos del aprendizaje automático, la ingeniería de software y la neurología. Como tal, verá resistencia a abandonar nociones clásicas en filosofía como la semántica de condiciones de verdad.y matemáticas platónicas que se aducen a favor de formas trascendentales de metafísica . De hecho, el propio Searle admite que el cerebro es una computadora biológica, pero se muestra escéptico de que nuestra tecnología informática actual pueda imitarlos, lo cual es un conservadurismo mesurado.

Como filósofo aficionado: ¿Por qué no se menciona la (posibilidad del) alma? Si tal cosa existe, no sería sorprendente que el cerebro no pueda ser duplicado por una computadora física. Ciertamente, hay muchos filósofos que dirían que los humanos tienen alma. ¿Es simplemente que su respuesta ya es lo suficientemente larga, o hay alguna razón para descalificar al alma de esta discusión?
@Spritemaster Un alma es en gran medida un concepto teológico debido a la filosofía ratioempírica. Es decir, un alma es rechazada por la mayoría de las personas que toman en serio la filosofía científica moderna porque es una idea sobrenatural. Y muchos filósofos rechazan lo sobrenatural. Creo que encontrarás que los ateos dominan los últimos 100 años de tradiciones continentales y angloamericanas. El alma no sólo carece de cualquier estatus empírico, sino que, como los dioses, es innecesaria para explicar las cosas. El naturalismo es defendido abrumadoramente por filósofos profesionales contemporáneos...
philpapers.org/surveys/… Hay una encuesta sobre el ateísmo.
No diría que el 50% a favor del naturalismo en comparación con el 25% a favor del no naturalismo es "abrumador". Dicho esto, mi intención no es entrar en una discusión aquí, así que gracias por la aclaración.
@Spritemaster Esa encuesta es poco más que una encuesta de paja, y se ofrece debido a sus estadísticas con respecto a los ateos, por lo que no se ofende. No tiene que creerme, pero los filósofos están mucho más dispuestos al ateísmo que el público en general, particularmente en los EE. UU., que tiene una población excepcionalmente religiosa en el mundo modernizado. Busqué y aquí hay algo que podría ponerlo en la pista de los datos. psicologíatoday.com/us/blog/logical-take/201402/…
@Spitemaster, es posible que la filosofía moderna no se ocupe mucho del concepto del alma, pero sí se ocupa del concepto de la mente. Todo el debate en torno a la Sala China y los problemas relacionados se puede describir como la cuestión de si la mente puede o no reducirse al cerebro o si hay algo más en ello.
¿Realmente imaginas que si la ciencia obtuviera una comprensión completa de cómo el cerebro "hace" la semántica, alguien como John Searle cambiaría de opinión? Todo el argumento de la habitación china es una tautología gigante, que plantea la pregunta, sin absolutamente ningún poder predictivo. Simplemente afirma las creencias de Searle. ¿Qué podría convencerlo de cambiarlos? Ciertamente no va a ser ciencia, o una charla con una verdadera IA (si alguna vez logramos construir una; y a menos que sea una verdadera superinteligencia, presumiblemente :D).
@Luaan: Puedo dar una mejor respuesta. La operación de la Sala China es incapaz de aprender que es un error. Pero sigue siendo un hombre de paja. La realidad aún permanece, no sabemos cómo saber si una máquina es inteligente o no.
@Joshua Ese sería un desafío interesante: cambiar las reglas a mitad del experimento y luego ver cuánto tiempo tarda la IA en repararse. Pero también suena un poco injusto, ver cómo los humanos son notoriamente malos para adaptarse a tales desafíos: D
¿Por qué necesitamos un consenso? Sólo necesitamos una persona para resolverlo. Entonces, tenemos que aceptar la respuesta. " Un camello es un caballo diseñado por un comité " .
@ScottRowe En términos generales, se requiere consenso para la facticidad. Este sitio, en la medida de su capacidad, cumple la función de brindar datos sobre la filosofía.
No me confundas con la facticidad :-). La primera persona en hacer algo bien tiene razón, incluso si otros 7 mil millones dicen que está mal.
@ScottRowe Cierto hasta que no lo es.
Buena respuesta, pero sería bueno si las referencias a AGI reflejaran el reciente cambio de paradigma de los sistemas lógicos "expertos" a los sistemas conexionistas de abajo hacia arriba, que en realidad tiene solo una década. En consecuencia, los argumentos y las críticas de AGI también han cambiado en respuesta, pero creo que es justo decir que los intentos recientes de IA de abajo hacia arriba (por ejemplo, GPT-3) han renovado el debate sobre la comprensión sintáctica frente a la semántica en IA.

TL:DR;

Si consideramos los cerebros como máquinas informáticas (que, por lo que sabemos, lo son), no hay base para la afirmación de Searle.

De acuerdo con la tesis de Church-Turing, que es un resultado muy respetado en informática, no hay cálculo que no pueda ser realizado por una computadora ordinaria.

Puedes verlo como un desafío: muéstrame un problema solucionable que no pueda ser resuelto por un programa de computadora. Hasta ahora nadie ha sido capaz de hacerlo.

La importancia de ese resultado es que (si no tenemos en cuenta la velocidad y el espacio) cualquier computadora que pueda existir en el universo, ya sea eléctrica, cuántica o basada en una tecnología que no podemos imaginar, sería igual de capaz de resolver un problema. como el teléfono en tu bolsillo.

Si consideramos que el cerebro entra en esa categoría, entonces la diferencia entre el cerebro y cualquier otra computadora es solo el software que ejecuta.

Si estamos de acuerdo con todo eso, podemos refutar fácilmente la afirmación de Searle de que, debido a que puede realizar cálculos que generan chino sin entenderlo, la computadora no lo entiende. La respuesta es que es el software el que "entiende" cualquier cosa, no el hardware, por ejemplo, los chips de silicona no pueden jugar al ajedrez, y tampoco las neuronas, pero si los organizamos de la manera correcta, ambos pueden jugar al ajedrez.

El experimento de la habitación china sólo funciona si no consideramos los cerebros como máquinas informáticas, es decir, si pensamos que está sucediendo algo en nuestros cerebros que no puede suceder en ningún otro tipo de sistema. Sin embargo, nadie ha podido proporcionar evidencia de que tal cosa suceda.

Aquí hay una lista de problemas que no pueden ser resueltos por un programa de computadora: en.wikipedia.org/wiki/List_of_undecidable_problems
Esta respuesta no muestra familiaridad con la literatura ni una comprensión real del problema. Recomiendo borrarlo.
Si tiene una crítica específica, exprésela. En cuanto a los problemas indecidibles, estos no pueden ser resueltos por el cerebro humano, por lo que su existencia por sí sola no prueba nada.
Note que digo "no hay cálculo que no pueda ser realizado por una computadora ordinaria". y no "no hay problema matemático que no pueda ser resuelto por un programa de computadora"
@DavidGudeman Philosophy-of-mind no muestra familiaridad con la literatura moderna de CS y neurociencia y no comprende los problemas que abordan. Recomiendo borrarlo. (Eso es sarcasmo; mi punto es que encuentro valor tanto en el campo como en esta respuesta en particular).
No creo que Searle en realidad esté afirmando que un programa de computadora no podría exhibir los mismos comportamientos funcionales que un humano (incluyendo pasar la prueba de Turing en chino), su argumento es más sobre cualidades subjetivas internas como la conciencia y la comprensión. Básicamente, parece estar argumentando que la habitación sería algo así como un zombi filosófico . Y este argumento sería compatible con la idea de que los comportamientos funcionales del cerebro humano pueden explicarse completamente en términos computacionales.
Estoy de acuerdo contigo, y eso es lo que estoy tratando de decir con mi respuesta: que todo se reduce a la pregunta de si crees que los zombis/robots/animales son cualitativamente diferentes de los humanos. Todo lo demás en el argumento de Searle, como el uso de un idioma extranjero, parece superfluo.
De lo contrario, la pregunta es una que no puede responderse ya que un lado quiere pruebas de que los robots son humanos (de los cuales no puede haber ninguno) y el otro lado quiere pruebas de que los robots no son como los humanos (de los cuales, de nuevo, no hay ninguno).
'Observe que digo "no hay cálculo que no pueda ser realizado por una computadora ordinaria". y no "no hay ningún problema matemático que no se pueda resolver con un programa de computadora". También dijiste: "muéstrame un problema que no se pueda resolver con un programa de computadora. Hasta ahora nadie ha sido capaz de hacerlo". Esto es falso y muestra una falta de comprensión del problema. El espacio de la computabilidad es complejo, y ciertamente hay problemas que no pueden ser resueltos por ninguna máquina concebible. Muchos más problemas no pueden ser resueltos (a escala) por computadoras ordinarias; se llaman problemas NP.
Su discusión parece pensar que el argumento de Searle asume que el cerebro no es una computadora. No hace tal cosa. Si lo hiciera, sería un argumento circular. Lo que hace es presentar un ejemplo específico en el que se simula la comprensión sin que esté presente ninguna comprensión. No se supone que esto sea válido para todos los casos; es solo una instancia. En cuanto a su sugerencia de que "el software entiende", se trata de una especulación pseudorreligiosa basada en la fe. No tiene evidencia alguna para una afirmación tan notable, aparte de que cree que la necesita para refutar el argumento de Searle.
Se agregó la palabra solucionable en la publicación. Nuevamente, la existencia de problemas que en principio no tienen solución es un hecho trivial que es irrelevante para el argumento.
@DavidGudeman: "Puedes verlo como un desafío: muéstrame un problema solucionable que no pueda ser resuelto por un programa de computadora. Hasta ahora nadie ha sido capaz de hacerlo". Su lista de ejemplos en Wikipedia no tiene solución .
@ gnasher729, el texto de la respuesta se ha cambiado para agregar la palabra "soluble". Esa palabra no estaba allí cuando dejé mi comentario. Si lo hubiera sido, no habría estado tan seguro de que Marinov está por encima de su cabeza aquí. Sin embargo, realmente no sabes, sin plantear la pregunta, que esos problemas no tienen solución, solo que una máquina no los puede resolver. ¿Podría un matemático con tiempo infinito y atención infinita a los detalles resolver el problema de la detención para cada máquina de Turing? No conozco ninguna prueba de que no pudiera.
Aquí está la prueba: como dijiste "matemático", asumo que esta persona usará algún tipo de algoritmo para resolver el problema, o un montón de algoritmos diferentes (lo mismo). Pero todo algoritmo puede codificarse en una máquina de Turing (tesis de Church-Turing). Si codificamos el algoritmo de este matemático, obtendríamos una máquina de Turing que es capaz de resolver el problema de Halting. Pero sabemos que no existe una máquina de Turing que resuelva el problema de la detención, por lo que un matemático humano tampoco puede hacerlo.
@DavidGudeman No hay matemático con tiempo infinito e infinita atención a los detalles.
@ gnasher729 No existe una máquina con tiempo infinito o almacenamiento infinito, sin embargo, esa abstracción se usa para definir qué significa "computable".
No es cierto, las máquinas de Turing deben completar el cálculo en un tiempo finito.
@BorisMarinov: la irresolubilidad de los problemas en nuestro mundo muestra que nuestro mundo no es computable. El proyecto de IA asume que el mundo es computable, y que la inteligencia es computable, la imposibilidad de resolver refuta una suposición clave del proyecto de IA y pone la otra bajo gran duda.
"El proyecto AI asume que el mundo es computable". Esta es la primera vez que escucho esa afirmación. ¿Cuál es la fuente? El "proyecto AI" es hacer una inteligencia artificial que sea tan poderosa como un humano, no una que sea capaz de resolver todos los problemas del mundo.

Creo que la forma más sencilla de explicarlo: la sintaxis se puede analizar computacionalmente, pero el cálculo se puede resumir en instancias ridículas o "divertidas". Dado que no sabemos cómo los estados mentales (por ejemplo, la comprensión semántica, la conciencia, la conciencia, etc.) surgen de lo físico, "la brecha insondable entre el proceso físico y la conciencia subjetiva que se burla de nuestra búsqueda de los filamentos que unen lo corporal y lo mental". juntos", ¿deberíamos poner algún peso en la idea de que esto produce estados mentales (por ejemplo, comprensión semántica)? "No hay hecho más asombroso y desconcertante que el de la conciencia". Alegamos ignorancia de cómolas neuronas y el cerebro dan lugar a la conciencia, pero de todas las cosas que creemos firmemente sobre la conciencia, el cerebro está involucrado: "no hay duda de que los humanos tenemos una vida mental, porque tenemos cerebro".

No estamos preparados para dar el salto hacia algo más que cerebros que den lugar a la conciencia, aunque no sepamos cómo lo hacen los cerebros. Seguramente la computación por sí sola no puede serlo, solo piense en todas las "instancias divertidas" de la computación más allá de una persona en una habitación barajando cartas: abrevaderos, moviendo granos de arena, etc. El experimento de la habitación china es solo otra "instanciación divertida". de cómputo.

[1] todas las citas tomadas de: Maudlin, T. (1989). Computación y Conciencia. Revista de Filosofía, 86(8), 407. doi:10.2307/2026650

Una máquina posiblemente podría tener su propia semántica. Esto solo requeriría que tuviera su propia representación interna del mundo. Sin embargo, ¿cuál sería el uso de eso? Cada humano obviamente tiene su propia representación mental privada del mundo. Sin embargo, a pesar de esto, compartimos la mayor parte y esto simplemente porque somos biológicamente muy similares entre nosotros y somos sociables, por lo que compartimos gran parte de nuestras vidas. Todos entendemos qué es el Sol porque solo hay un Sol y tenemos, en términos generales, la misma experiencia de él. Por lo tanto, terminamos con la misma semántica en líneas generales. Hay diferencias, pero representan un pequeño subconjunto del todo, al contrario de lo que pueden sugerir las controversias en Internet o, de hecho, en la vida real.

Entonces, el problema no es tanto que una máquina tenga su propia semántica sino que tenga una semántica lo suficientemente cercana a la de un ser humano, al menos si queremos que humanos y máquinas se entiendan. La dificultad, entonces, radica en que la producción de una semántica humana sigue siendo en gran parte un proceso desconocido. Puede que no sea imposible hacer algo comparable en principio, pero probablemente por ahora esté al menos muy por encima de nuestras capacidades técnicas, en particular en términos de los datos masivos que el cerebro humano procesa continuamente.

Re: datos masivos, al igual que una imagen o sonido digital se vuelve más convincente con más detalles y variaciones, nuestra propia experiencia parece más 'no robótica' con más detalles, tiempo de experiencia, variación, etc. Estamos engañados al pensar que no podemos ser 'máquinas'. Todo lo que se mueve es una máquina. Tenemos que darle la vuelta al argumento de Searle y mirarnos de cerca. ¡Por supuesto, somos tan complejos que insistiremos obstinadamente en nuestra divinidad!
@ScottRowe (1) " engañado " No. Es posible que en el futuro llamemos a las máquinas "computadoras" más como nuestros cerebros y no tanto como las computadoras de hoy, pero por ahora ninguna computadora es como un cerebro humano. Esto puede ser lo que se quiere decir. El punto es que es una falacia afirmar que un cerebro humano es una máquina cuando no sabes cómo funciona. A los humanos no les importan mucho las afirmaciones metafísicas. Somos pragmáticos, y reducir el cerebro a una máquina tonta parece una muy mala idea. La gente no quiere tener una computadora que les diga lo que deben hacer. (2) " Todo lo que se mueve es una máquina " Lenguaje privado.
Su cerebro les está diciendo qué hacer. Que no me guste no lo hace falso. Cuanto antes aceptemos que somos partes muy pequeñas de un gran todo, como las hormigas, antes dejaremos de pegarnos con palos y nos llevaremos bien. como hormigas Es un universo grande, no muy amigable. En este punto, el individualismo que nos ayudó a sobrevivir hasta ahora probablemente hará que nos maten a todos. Un poco de pensamiento mecánico sería una mejora.
@ScottRowe " Su cerebro les dice qué hacer " Claro, y es su cerebro, y la mayoría de las veces ni siquiera lo saben. (2) " cuanto antes aceptemos " Es posible que puedas leer las runas, pero el homo sapiens ha sobrevivido más tiempo y tiene más experiencia que tú. Estás tratando de usar el razonamiento lógico para adivinar la selección natural y la vida. Estás enormemente superado en armas. La especie humana es una máquina mucho más grande que tu cerebro.
Estaba de acuerdo contigo.
@ScottRowe Lo siento, soy muy bueno para estar en desacuerdo con todo el mundo.

Llamemos a un agente comprensivoun ser pensante que posee una "comprensión semántica" del significado de las palabras ordenadas proposicionalmente. Supongamos ahora que hay en el flujo de entrada de un agente comprensivo una palabra que el agente no ha encontrado antes. Ahora, cuando una máquina de traducción, por ejemplo, puede encontrar una palabra "original" o sin sentido para la cual se puede inferir una traducción adecuada a partir de pistas contextuales, pero no refleja ninguna instancia particular de texto en el "corpus real" que pretende traducir: - ¿Cuál debería ser su salida? Una máquina de traducción podría simplemente generar un resultado nulo o ingresar un comportamiento indefinido; sin embargo, ¿cuál debería ser la salida de un agente comprensivo, en ese caso? La capacidad de traducción "perfecta" parece implicar, en otras palabras,

En mi opinión, la importancia de la traducción, la dificultad y la complejidad involucradas, por regla general, tal vez se subestiman un poco, e involucran todas las problemáticas que los fenomenólogos, los deconstruccionistas y los psicoanalistas han planteado en torno a las 'profundas profundidades' en el trabajo en la génesis de la traducción. estructura trascendental local.

Quizá los límites del llamado "comportamiento indefinido" del software son sugerentemente similares aquí a los de la propia penumbra exterior del lenguaje, es decir, del disparate y el hapax legemomon , que tal vez desempeñen un papel más importante en la construcción del "sentido" que podríamos imaginar. Pero baste decir que todos estos análisis del lenguaje me parecen plantear la cuestión del origen y el valor del sentido como una entidad distinta; y, además, me parece que los esfuerzos más diligentes de los filósofos de las matemáticas, Frege y Russell, no logran exactamente resolver la ambigüedad en el corazón de algunos de estos sistemas de razonamiento axiomáticos que fundamentan los sentidos como ZFC.

Otro argumento que he visto en contra del experimento es que “junto con un libro de instrucciones para manipular los símbolos (el programa)”, capaz de interpretar mandarín como un hablante nativo, de hecho no podría existir. Los lenguajes humanos naturales no funcionan de esa manera, y hay un número infinito de oraciones posibles en chino. Incluso si de alguna manera encontrara un subconjunto de chino lo suficientemente grande como para incluirlo en su libro de reglas, el hombre en la caja nunca podría hacerse pasar por un hablante nativo porque solo podría dar respuestas idénticas a preguntas idénticas. Este enfoque no funcionó para el inglés, y entiendo que tampoco funcionaría para el chino.

Esto podría ser más una limitación de la analogía que una refutación decisiva del punto subyacente, pero resulta que un sistema que funciona buscando y siguiendo una lista de reglas gramaticales no produce respuestas lo suficientemente convincentes como para que lo consideremos como “comprender” un lenguaje humano.

Entonces, ¿cómo aprenden los bebés chinos a hablar chino? Observan a los chinos y construyen un conjunto de reglas en su cerebro. La lista de "reglas gramaticales" es demasiado corta para manejar el idioma inglés por completo.
@ gnasher729 Creo que estoy diciendo algo diferente aquí: ese enfoque se probó para inglés y no funciona. Si intentara hacer un libro de reglas que pudiera seguir para escribir respuestas convincentes en inglés a preguntas arbitrarias, no pasaría la prueba de Turing. Y no se trata solo de que el libro deba tener miles y miles de millones de páginas; el enfoque en sí es defectuoso y no se parece a cómo hablan los humanos.
Los bebés de @gnasher729 no construyen un conjunto de reglas, forman asociaciones, vínculos. Enlaces infinitamente flexibles, como las conexiones entre objetos a través de campos, ondas, etc. La lógica binaria no funciona en el mundo físico, por lo que tampoco funciona para las mentes.

La habitación china china

El principal problema con el argumento de la habitación china es que presupone algo enorme, enorme: un algoritmo que proporciona "respuestas en idioma chino". Se supone que debemos aceptar esta caja negra sin dudar para poder centrarnos en los "problemas reales" del debate. ¡Pero podemos destruir por completo el argumento de la habitación china con un simple truco! ¡Solo definimos de dónde viene este algoritmo!

Verá, la suposición implícita es que el "algoritmo" es de alguna manera antinatural... un producto frío y sin vida del ingenio humano que no puede reflejar la belleza y la gloria de la conciencia humana. ¿Pero por qué no? ¿Qué pasaría si el "algoritmo" no fuera más que una descripción precisa de un cerebro chino real ? ¿Qué pasaría si la "Habitación china" no fuera más que un cerebro de habla china real y ordinario que fuera reemplazado por un homúnculo de habla inglesa que, por lo demás, ejecuta exactamente las mismas acciones que el cerebro chino correspondiente ? ¿Searle seguirá insistiendo en que el homúnculo en el caparazón realmente no "entiende" el chino? Por supuesto, el homúnculo no necesariamente entiende chino,a.

La habitación Searle

Por supuesto, no necesitamos traer mandarín (o cantonés, o cualquiera de los miles de otros idiomas chinos). Simplemente podemos reemplazar el cerebro de John Searle con un homúnculo de habla extraterrestre y una descripción algorítmica de su cerebro. Entonces, podemos darle la vuelta a su argumento e insistir en que los cerebros tampoco entienden inglés . Y si ese es el caso, entonces los cerebros no son especiales y, por lo tanto, están al mismo nivel que las computadoras/IA.

Por supuesto, Roger Penrose entendió implícitamente el peligro de este argumento, por lo que tomó el largo camino de tratar de demostrar que no existe una descripción algorítmica del cerebro porque los cerebros son especiales, aprovechando los efectos cuánticos . Ese es un hilo completamente diferente, así que lo dejaré así.

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
Correcto, es una especie de argumento del Barco de Teseo. Pero las neuronas y la dopamina tampoco entienden chino. Ninguna parte del cerebro entiende chino. Ninguna parte de la computadora/algoritmo lo entenderá.

El argumento de Searle se enmarcó en tiempos en los que solo teníamos IA simbólica que se basa en una lógica basada en reglas . Este tipo de sistema es inflexible y no dinámico. Funciona de forma estática a través de sistemas de demostración teórica y/o tablas de verdad. Cada extensión y adición de reglas debe implementarse manualmente a mano. Uno de los ejemplos de un entorno de lógica simbólica que tenía grandes esperanzas en términos de IA en ese momento, pero fracasó, fue el lenguaje de programación Prolog .

Las limitaciones de los sistemas basados ​​en reglas no se aplican en la actualidad. Ahora imitamos y reproducimos sistemas de aprendizaje automático basados ​​en redes neuronales del cerebro que pueden aprender contextos semánticos a través de procesos de aprendizaje supervisados, semisupervisados ​​o incluso no supervisados ​​(Ejemplo ) . Un ejemplo es el software basado en Python SpaCy que funciona en el área de NLP ( procesamiento del lenguaje natural ).

A través del enfoque lingüístico computacional, la máquina ahora puede utilizar redes neuronales para aprender constantemente contextos semánticos de, por ejemplo, artículos biológicos, artículos científicos o incluso periódicos y también cualquier otro texto. Por ejemplo, puede extraer lo que necesita en función del significado del texto (similitud semántica) que se logra mediante la creación de incrustaciones de palabras, vectores que actúan como "mapas" para los términos (ver demostración ) .

Para concluir, se vuelve cada vez más factible hacer afirmaciones "duras" sobre la comprensión de la semántica por parte de la IA que en la era del argumento de la habitación china de Searle. Más aún, el campo de la neurociencia computacional ahora implementa las partes digitales del cerebro que modelan los procesos humanos de aprendizaje e incluso la cognición. De hecho, existe la esperanza de que las máquinas sean capaces de "comprender" el significado de maneras más allá del argumento de Searle.

Cualquier sistema suficientemente complejo es indistinguible de inconformista.

El problema con el argumento de la habitación china es que el hombre solo recibe información de una sola fuente, el mensaje donde, como comprensión semántica, requiere que el mensaje esté asociado con otras entradas.

Entonces, casi por definición, la sala no puede tener comprensión semántica.

Sin embargo, si agregó entradas adicionales, como la hora del día, el clima y la memoria, el hombre pronto podría asociar "buenos días" con mañanas soleadas.

Puede ir más allá y eliminar las entradas externas, simplemente codificando la asociación en las instrucciones en inglés. Esto equivaldría a una traducción y el hombre, habiendo aprendido la traducción, obviamente tendría una comprensión semántica del chino.

Es fácil ver que un programa de computadora también puede recibir entradas y memoria externas. De hecho, puede imaginar un programa muy simple "buenos días" = SunPosition && noClouds que, a primera vista, es comprensión semántica.

Así se descifró el código de Enigma: información externa.

Searle no está señalando que los programas no pueden ser semánticos, está comenzando con la definición de un programa de computadora, que es formal, también conocido como sintáctico, y luego traza paralelos con el uso humano de sistemas formales (instrucciones mecánicas) y lo compara con real comprensión.

Un buen ejemplo sería: aprender el material en un examen de memoria (esto sería sintáctico/mecánico) versus tomarse su tiempo para comprender realmente el material (esto sería la semántica). La comprensión no es el '¡ajá!' sentimiento que obtienes al consumir profundamente el material, sino que viene con ese sentimiento. Cuando entiendes el material del examen, no es lo mismo que haberlo aprendido de memoria.

Este es básicamente el mismo caso que en el argumento de la habitación china. Se podría dar cualquier otro ejemplo de personas que siguen algún tipo de programa de computadora, algún tipo de conjunto específico de instrucciones paso a paso, y llegar a la misma conclusión a la que llegó Searle con su habitación china, pero con cierta intuición de la experiencia personal para haz una copia de seguridad (todos hemos tenido que seguir algún tipo de lista de instrucciones paso a paso en algún momento, estoy seguro).

Hay muchas respuestas ya publicadas aquí, que ofrecen una visión significativa. Sin embargo, no veo ninguno que parezca entender completamente el punto del problema de pensamiento de Searle, y muchos toman posiciones inverosímiles/insostenibles.

Respondí completamente esta pregunta para un autor diferente, aquí: ¿Cómo maneja el argumento de la habitación china la paradoja del montón de arena?

El uso de "semántica" por parte de Searle, que es un término puramente lingüístico, puede estar distrayendo a algunos de los que publican aquí para que no entiendan su punto. Uno PUEDE hacer lenguaje sin conciencia, pero Seale está trabajando con una definición de comprensión, de modo que uno no puede hacer "comprensión" sin conciencia, y estaba usando "semántica" como sustituto de la comprensión.

La comprensión implica competencia, conciencia de la respuesta proporcionada por la competencia y I/O. Los "libros" en la habitación tienen competencia, pero no conciencia. El operador tiene conocimiento, y los mecanismos del operador más en la sala realizan E/S.

La mayoría de las respuestas aquí que rechazan el argumento de Searle, también rechazan que la comprensión requiere conciencia. Son respuestas explícitamente conductistas. Tratan la conciencia como algo irrelevante y a los humanos como máquinas reduccionistas. Tenga en cuenta, sin embargo, que la filosofía, la psicología y la ciencia en general han rechazado el conductismo y también el reduccionismo, consulte la sección 5 de la SEP sobre reducción científica: https://plato.stanford.edu/entries/scientific-reduction/ Tenga en cuenta también que el una sintonía evolutiva muy clara de la conciencia requiere que la conciencia sea causal, por lo que este rechazo de la conciencia causal está en contradicción con los principios biológicos esenciales.

También noté que la mayoría de los que rechazaban el problema de pensamiento de Searle acusaban a Searle de ser anticientífico y dualista. Esto es explícitamente falso. Searle es un defensor del fisicalismo no reduccionista. Considera que la conciencia es emergente y no computacional, por lo que la conciencia no puede surgir de los cálculos realizados por el funcionalismo. Su posición alternativa es que existe alguna característica aún desconocida de los sistemas biológicos que permite que la conciencia surja de ellos.

De las respuestas al problema de pensamiento de Searle citadas aquí, la única que aborda el tema de la conciencia son las citas de Chalmers. Chalmers entiende el argumento de Searle de que, al separar la competencia de la conciencia y el I/O, Searle estaba destacando la imposibilidad de vincular la conciencia a la competencia demostrada. Chalmers es el raro filósofo que agarró este toro por los cuernos. Básicamente admitió que la competencia por sí sola (los libros) no tenía conciencia, sino que afirma que la ASAMBLEA del salón tiene conciencia. Que el sistema de la sala sea consciente cuando el operador implementa las funciones en los libros y realiza las E/S. Esta es una visión rara, ya que el SISTEMA de habitaciones no es el tipo de cosa que la mayoría de los filósofos admitirán que puede soportar la conciencia.

tl; dr : el argumento de la habitación china es una tontería pura, a la par con la teoría de la Tierra plana . Sin haber realizado una encuesta formal, en general entiendo que los que están en el campo lo ignoran en gran medida como una posición antiintelectual.


El " argumento de la habitación china " es pura tontería.

El argumento de Searle es básicamente:

  1. Suponga que la IA son máquinas sin sentido.

  2. Esa suposición no se puede refutar porque cualquier evidencia de lo contrario podría ser la consecuencia de un algoritmo similar a un script que simplemente suena humano (o suena como si entendiera chino).

  3. Debido a que la suposición no se puede refutar, debe ser correcta .

El argumento de Searle es solo una copia y pega del argumento solipsista :

  1. Suponga que otras personas son zombis sin sentido .

  2. Esa suposición no se puede refutar porque cualquier evidencia de lo contrario podría ser una consecuencia de un comportamiento similar a un guión que simplemente suena humano (o parece que no es un zombi).

  3. Debido a que la suposición no se puede refutar, debe ser correcta .

Wikipedia enumera un montón de críticas al argumento de Searle . No porque necesite más desacreditación, sino porque hay muchas cosas mal en él.

Básicamente, es vitalismo .

A riesgo de parecer ingenuo, solo señalaría al interrogador que en todas estas muy buenas respuestas, no está del todo claro qué se entiende por "semántica" y "significado".

Creo que Searle estaba, hace muchos años, introduciendo en una filosofía analítica mucho más refinada cuestiones que ahora están más desarrolladas con la reintroducción de algunas versiones de la metafísica e incluso del idealismo en los planes de estudio angloamericanos.

Las cuestiones de "significado" están estrictamente excluidas del modelo de información de Shannon, en el que todavía se basa la "sintaxis" informática. Al igual que la teoría de la gravedad de Newton o la teoría de la utilidad de Jevon, ofrece un modelado matemático y se abstiene de cualquier hipótesis "sustancialista" o "esencialista" de lo que cuantifican los modelos.

El argumento de Searle puede haber sido necesario dentro de la tradición lamentablemente restringida en la que enseñó, pero creo que se habría considerado tonto y redundante en las llamadas tradiciones "continentales" desde Husserl.

Es un poco como tratar de comparar la definición matemática de información de Shannon con la de Walter Ong. En este último hay un portador irreductible de "experiencia", el cuerpo, las vibraciones físicas producidas por la Palabra hablada entre los cuerpos.

Esta experiencia está trágicamente bloqueada. En realidad no puedo "sentir tu dolor". Puede transferirse "simpatéticamente" pero no sintácticamente. La máquina tampoco puede imitar la "vida" real en el sentido de sufrir las complejas interacciones semánticas que le permiten reproducirse a sí misma tanto física como "inexactamente". (Aparte de los replicadores de máquinas de Von Neumann).

En mi propia lectura informal, Searle simplemente indica la exclusión de estos muchos temas filosóficos tradicionales del camino tomado por la "filosofía" analítica en su época. Aunque no le he leído mucho, el colega californiano de Searle, Hubert Dreyfus, puede haber escrito en alguna parte un rechazo contemporáneo de toda la base del "problema" de la habitación china.

Los números son misteriosamente "iguales" y, por lo tanto, pueden encajar en "ecuaciones". Pero las experiencias de los cuerpos a lo largo del tiempo en algún nivel desafían la equivalencia, nunca pueden ser exactamente iguales y, por lo tanto, nunca pueden modelarse completamente en cantidades discontinuas.

¿Qué es la conciencia?

En términos simplificados, si tiene una máquina de IA (sin importar cuán compleja sea), podría describirse mediante tres cosas: estado de la máquina (tanto interna como externa) S, entrada en la máquina I y salida O. La salida sería una función de la entrada y el estado O=f(I,S), y cualquier aleatoriedad se modelaría a través del estado (pseudo-aleatoriedad). En otras palabras, la salida sería determinista.

El modelo descrito anteriormente es cierto incluso para las redes neuronales más complejas y, como podemos ver, simplemente no tiene libre albedrío . Incluso si asumimos que podría aprender (es decir, cambiar su propio algoritmo), esto todavía se hace de manera determinista: con cierta entrada y estado, nuestra máquina de IA se cambiaría a sí misma, pero solo de la manera prescrita. De nuevo, tenga en cuenta que incluso si incluimos la aleatoriedad en este cambio, esta aleatoriedad sigue siendo parte del estado S, por lo que se incluye en nuestra ecuación básica.

Dado que nuestra máquina de IA no tiene libre albedrío, de eso se deriva que no puede crear , o en otras palabras, cualquier estructura nueva hecha por esta máquina simplemente estaría preprogramada en ella. En cualquier momento dado, la máquina tendría un conjunto de patrones P y un conjunto de modificaciones M. La máquina podría aplicar esas modificaciones a los patrones, creando un conjunto de "nuevos" patrones Pn, pero ese conjunto ya estaría predeterminado por el conjunto inicial de P y M.

¿Qué tiene esto que ver con la semántica? La semántica es simplemente el estudio del significado. Tienes cierto fenómeno (palabras, sonidos, letras, imágenes...) de pie en lugar de otra cosa. Por ejemplo, la palabra "perro" (tanto escrita como hablada) simboliza ciertas especies animales. Los perros tienen pelo, cuatro patas, son mamíferos carnívoros. Igual que los gatos. Sin embargo, (casi) ningún ser humano llamaría gato a un perro. Los barcos, por otro lado, no tienen piernas, pelo y no son animales en absoluto, ¡sin embargo, los humanos llaman a algunos de ellos perros de hierro ! ¿Cómo explicaría a AI cuál es el significado de la palabra "perro"?

Los seres humanos somos irracionales e ilógicos . Esto ha sido probado matemáticamente por los teoremas de incompletitud de Gödel y el teorema de indefinibilidad de Tarski . En cualquier sistema formal fuerte no se puede definir completamente la verdad. Tendrás algunas verdades (y algunas falsedades) que son indemostrables. No se podía definir todo. Sin embargo, de alguna manera extraña (intuitivamente) los humanos diferenciarían entre los dos. Los budistas zen llaman a ese aplauso de una mano . Desafía la explicación porque no se puede definir: es absurdo pero convincente. Y completamente incomprensible para AI porque no se puede traducir a un lenguaje formal.

"Sin embargo, de alguna manera extraña (intuitivamente) los humanos diferenciarían entre los dos". – ¿Está afirmando que los humanos son capaces de determinar intuitivamente si una declaración es verdadera o falsa?
@TannerSwett Sí, por supuesto. Eso es todo un punto de intuición ;)
@TannerSwett Debería preguntar: ¿Está afirmando que los humanos son capaces de determinar intuitivamente correctamente si una declaración es verdadera o falsa?
@ gnasher729 Por supuesto que no (con 100% de precisión). Pero tampoco son capaces de una precisión del 100% al determinar la verdad racionalmente. En otras palabras, tanto la intuición como la razón tienen una capacidad limitada.
Correcto, solo necesita ser "suficientemente bueno", no perfecto. " No tengo que correr más rápido que el oso, solo tengo que correr más rápido que tú " .