relativamente nuevo en la filosofía.
Esta pregunta se basa en el argumento de la habitación china de John Searle .
Me parece extraño que su argumento principal de por qué los programas no podían pensar era porque los programas solo podían seguir las reglas de sintaxis pero no podían asociar ninguna comprensión o semántica a las palabras (o cualquier objeto/símbolo).
Este punto me parece discutible (aunque no puedo expresarlo lo suficientemente bien). ¿Cómo está John tan seguro de que sería imposible que un programa entendiera la semántica? ¿Imitar la comprensión semántica es realmente diferente de la comprensión semántica genuina?
¿Qué dice la filosofía acerca de si es verdaderamente imposible que la humanidad desarrolle algún día un programa capaz de comprensión semántica? De acuerdo con el argumento de la misma evidencia de Turing, si una computadora puede pasar la prueba, tendríamos que asumir que es capaz de comprender. ¿Podríamos siquiera distinguir entre la comprensión imitada simulada y la comprensión real?
Editar: wow, esto realmente explotó. ¡Gracias por las respuestas!
Nota al margen:
Planteé esta pregunta en parte porque la visualización de John de cómo se ve un programa me parece defectuosa. Es capaz de desglosar y visualizar claramente un programa (la habitación) con un "núcleo" (el hombre en la habitación) en el medio que maneja las entradas y produce las salidas.
Sin embargo, los programas algorítmicos complejos no están diseñados de una manera tan simple. Tomemos como ejemplo las redes neuronales artificiales , de las que se dice que son "cajas negras" debido al hecho de que no podemos dividir una red neuronal en componentes para deducir cómo decide generar ciertos resultados. El argumento de John parece basarse en el hecho de que podemos 'espiar' cómo los programas/algoritmos toman decisiones cuando eso no es necesariamente cierto.
Los algoritmos de ajedrez como el infame Deep Blue y Alpha Zero a veces producen movimientos que los ajedrecistas profesionales no tienen en cuenta. ¿Argumentaría John que estos algoritmos "no entienden el ajedrez?". Parece erróneo decir que el programa falla en la comprensión semántica cuando puede mostrar una creatividad de la que los propios jugadores de ajedrez humanos pueden carecer.
Me parece extraño que su argumento principal de por qué los programas no podían pensar era porque los programas solo podían seguir las reglas de sintaxis pero no podían asociar ninguna comprensión o semántica a las palabras (o cualquier objeto/símbolo).
Esa fue más su conclusión que su argumento. Su argumento real sobre el experimento mental de la habitación china era que si la habitación estaba ocupada por un agente consciente que es perfectamente capaz de comprensión semántica, como una persona, y debían ejecutar a mano las reglas sintácticas de un programa de habla china ( o de memoria), sin embargo, carecerían de cualquier comprensión semántica del chino. Por ejemplo, en el artículo de SEP sobre la Sala China al que usted se vinculó, cita a Searle dando un resumen del argumento en 1999 donde dice (énfasis mío):
Imagina a un hablante nativo de inglés que no sabe chino encerrado en una habitación llena de cajas de símbolos chinos (una base de datos) junto con un libro de instrucciones para manipular los símbolos (el programa). Imagine que las personas fuera de la sala envían otros símbolos chinos que, sin que la persona de la sala lo sepa, son preguntas en chino (la entrada). E imagine que siguiendo las instrucciones del programa, el hombre en la habitación puede repartir símbolos chinos que son las respuestas correctas a las preguntas (la salida). El programa permite que la persona en la sala apruebe el Test de Turing para comprender el chino, pero no entiende ni una palabra de chino.
Y cita una declaración posterior de 2010 donde dijo:
Un sistema, yo, por ejemplo, no adquiriría una comprensión del chino simplemente siguiendo los pasos de un programa de computadora que simulara el comportamiento de un hablante de chino.
También encontré su artículo original de 1980 sobre el tema en línea aquí , donde se imaginaba que era un hablante nativo de inglés en la sala respondiendo preguntas en inglés de forma natural y respondiendo preguntas en chino basándose en la simulación manual de un elaborado programa informático. y su argumento se basaba en el contraste entre su propia comprensión en el primer caso y su incomprensión en el segundo:
Ahora, las afirmaciones hechas por una IA fuerte son que la computadora programada entiende las historias y que el programa, en cierto sentido, explica la comprensión humana. Pero ahora estamos en condiciones de examinar estas afirmaciones a la luz de nuestro experimento mental.
En cuanto a la primera afirmación, me parece bastante obvio en el ejemplo que no entiendo una palabra de las historias chinas. Tengo entradas y salidas que son indistinguibles de las del hablante nativo de chino, y puedo tener cualquier programa formal que quieras, pero sigo sin entender nada. Por las mismas razones, la computadora de Schank no entiende nada de ninguna historia, ya sea en chino, inglés o lo que sea, ya que en el caso chino la computadora soy yo, y en los casos en que la computadora no soy yo, la computadora no tiene nada más que yo. en el caso de que no entienda nada.
En cuanto a la segunda afirmación, que el programa explica el entendimiento humano, podemos ver que la computadora y su programa no brindan condiciones suficientes de comprensión ya que la computadora y el programa están funcionando y no hay comprensión. Pero, ¿proporciona siquiera una condición necesaria o una contribución significativa a la comprensión? Una de las afirmaciones hechas por los partidarios de una IA fuerte es que cuando entiendo una historia en inglés, lo que estoy haciendo es exactamente lo mismo, o quizás más de lo mismo, que lo que estaba haciendo al manipular los símbolos chinos. Es simplemente una manipulación más formal del símbolo lo que distingue el caso en inglés, donde entiendo, del caso en chino, donde no entiendo.
Ha habido varias respuestas al argumento por parte de filósofos que no lo encuentran convincente, véase la sección 4 del artículo de la SEP. La que creo que es la refutación más convincente es la "respuesta de sistemas", que básicamente dice que los límites de los "sistemas" son algo arbitrarios y que un sistema físico con un nombre dado puede tener múltiples subprocesos computacionales que podrían ser lo suficientemente independiente como para que cada uno individualmente pueda tener comprensión semántica de ciertas cosas y, sin embargo, carecer de comprensión de cosas que el otro subproceso sí entiende. Para elegir un caso extremo, imagina una especie alienígena que tiene naturalmente dos cabezas, con cerebros independientes que no tienen conexiones neuronales entre ellos, aunque ambos cerebros podrían considerarse parte de un solo "sistema" biológico. no nos sorprendería si un cerebro pudiera entender algo (digamos, el idioma chino) que el otro ignoraba. Y aunque hubieraalgunas conexiones neuronales entre ellos, es posible que no tengan la configuración correcta para garantizar que ambos cerebros necesariamente compartan una comprensión conceptual de alto nivel de cualquier tema arbitrario.
Aquí está David Chalmers dando este tipo de argumento en la p. 326 de su libro The Conscious Mind , donde el agente dentro de la habitación es un "demonio" que puede tener capacidades de memorización mucho más allá de las de los humanos de la vida real:
Searle también da una versión del argumento en el que el demonio memoriza las reglas del cálculo e implementa el programa internamente. Por supuesto, en la práctica, las personas no pueden memorizar ni siquiera cien reglas y símbolos, y mucho menos miles de millones, pero podemos imaginar que un demonio con un módulo de supermemoria podría memorizar todas las reglas y los estados de todos los símbolos. En este caso, podemos esperar nuevamente que el sistema dé lugar a experiencias conscientes que no son las experiencias del demonio. Searle argumenta que el demonio debe tener las experiencias si alguien las tiene, ya que todo el procesamiento es interno al demonio, pero esto debería considerarse como un ejemplo de dos sistemas mentales realizados dentro del mismo espacio físico. La organización que da lugar a las experiencias chinas es bastante distinta de la organización que da lugar a las experiencias del demonio. La organización de comprensión del chino radica en las relaciones causales entre miles de millones de ubicaciones en el módulo de supermemoria; una vez más, el demonio sólo actúa como una especie de facilitador causal. Esto queda claro si consideramos un espectro de casos en los que el demonio correteando alrededor del cráneo memoriza gradualmente las reglas y los símbolos, hasta que todo lo interioriza. La estructura relevante se traslada gradualmente del cráneo a la supermemoria del demonio, pero la experiencia permanece constante en todo momento y completamente separada de las experiencias del demonio. una vez más, el demonio sólo actúa como una especie de facilitador causal. Esto queda claro si consideramos un espectro de casos en los que el demonio correteando alrededor del cráneo memoriza gradualmente las reglas y los símbolos, hasta que todo lo interioriza. La estructura relevante se traslada gradualmente del cráneo a la supermemoria del demonio, pero la experiencia permanece constante en todo momento y completamente separada de las experiencias del demonio. una vez más, el demonio sólo actúa como una especie de facilitador causal. Esto queda claro si consideramos un espectro de casos en los que el demonio correteando alrededor del cráneo memoriza gradualmente las reglas y los símbolos, hasta que todo lo interioriza. La estructura relevante se traslada gradualmente del cráneo a la supermemoria del demonio, pero la experiencia permanece constante en todo momento y completamente separada de las experiencias del demonio.
Hay un problema flagrante con el argumento de Searle y es bastante difícil entender por qué no se ha señalado antes: ninguna de las células cerebrales del Sr. Searle entiende inglés, ¿pero afirma que puede hacerlo ? ¿Qué argumento puede hacer que una IA no puede revertir y arrojarle directamente a la cara?
Tal como lo veo, Searle está llegando al punto en que la sintaxis es algorítmica , un sistema impulsado por reglas y procedimientos predefinidos, pero la semántica (hasta donde sabemos) no lo es. En otras palabras, es bastante fácil crear y reconocer una oración sintácticamente bien formada por razones puramente procesales, pero juzgar el significado de una oración requiere algo más que eso. Es decir, compare las siguientes expresiones:
La primera es sintácticamente correcta y claramente significativa. El segundo es sintácticamente incorrecto (no sigue las reglas de construcción de oraciones procesales del inglés). El tercero es sintácticamente correcto (tratando a 'chip' como un verbo), pero de significado cuestionable. ¿Qué significa 'amores de patata frita'? Ahora, si imagina esas tres frases pasadas a la inversa de la sala china (una sala en la que un hablante que solo habla mandarín está procesando reglas algorítmicas para el inglés), ese hombre reconocería a °2 como una tontería estructural, pero no haría ninguna distinción. entre °1 y °3. ¿Cómo podría?
Tenga en cuenta que esto es similar a la distinción en lógica entre la validez y el valor de verdad de una serie de proposiciones. El primero no nos dice nada sobre el segundo, y viceversa.
Lo que falta en el análisis sintáctico es la capacidad de generar significado a partir de la ambigüedad (a través de procesos no procedimentales como la extensión, la analogía, la metáfora, la simplificación, la correlación...). Usted y yo podemos sentarnos y reflexionar sobre lo que significa 'amores de patata frita', y tarde o temprano le asignaremos un significado. Pero para poder asignar un significado tenemos que evaluar el significado de las palabras individuales y encontrar alguna correspondencia dentro de ellas. Eso es más una función del uso práctico de las palabras que su estructura sintáctica o las definiciones abiertas del diccionario.
Esto podría ser más claro a ver si pensamos en términos de humor. Por ejemplo, si tomamos un par de bromas (claramente estúpidas):
... podemos ver que ambos son sintácticamente correctos, pero el chiste radica en sus extrañas correspondencias: el enlace de las peleas a que te pateen el trasero, y de los dinosaurios al Jurásico; la similitud de 'no bell' (que significa que no hay timbre, de ahí la necesidad de tocar) con 'Nobel' (el premio arquetípico para las personas inteligentes). Podemos programar una computadora para repetir estos chistes, obviamente, pero si los introdujimos en nuestra habitación china inversa, el hombre que está dentro no se reiría y no emitiría un 'ja, ja' a menos que se le dijera explícitamente que lo hiciera para estos conjuntos de simbolos Hacer que una computadora entienda el humor de estos chistes (o al menos la estupidezde ellos), tendríamos que hacer que la computadora fuera capaz de asociaciones difusas de amplio alcance entre conceptos que de otro modo no estarían relacionados, y nadie ha desarrollado todavía un algoritmo para hacer eso. Si lo hacen, requerirá más que un análisis sintáctico, por lo que el problema de la habitación china de Searle aún se mantendrá.
Hay una serie de posiciones esbozadas en su enlace SEP a Searle's Room que dejan en claro que la filosofía no ha decidido por consenso de una forma u otra la cuestión de la comprensión humana y semántica. La historia de la IA es un debate en curso, de hecho, sobre la cuestión. Una gran introducción a esa historia es The Quest for Artificial Intelligence de Nils Nilsson . Le advierto que cualquiera que le responda fuertemente negativamente o afirmativamente ni siquiera ha tomado y leído este libro. La filosofía está indecisa en gran parte porque la filosofía no ha alcanzado un consenso sólido sobre lo que constituye la comprensión. La ciencia no ha llegado a un consenso sobre la semántica en el cerebro.Dicho esto, las computadoras han logrado avances en las últimas dos décadas, quizás no demostrando la inteligencia a nivel humano, pero ciertamente lo suficiente como para escucharlo y satisfacer algunas de sus necesidades. Esencialmente, sin embargo, además de los agnósticos, hay dos campos: aquellos que creen en una noción cartesiana de comprensión que rechaza cualquier otra cosa que no sean humanos como capaces de una inteligencia similar a la humana, y una multitud advenediza que está interesada en la inteligencia artificial general y cree que es posible en teoría. (Advertencia de que mi inclinación es la última). Cualquiera que sea el caso, usted está firmemente en la filosofía de la inteligencia artificial , una rama relativamente nueva de la investigación filosófica de menos de 100 años dada la aparición de la computación digital a fines de la década de 1930 y principios de la de 1940.
El sueño de animar lo inanimado para comportarse como un ser humano se remonta a miles de años atrás, directamente a la mitología de los protoindoeuropeos . La contabilidad abreviada de los mismos también parece ser una introducción en todos los libros de hoy que buscan introducir la IA. Obviamente, tienes dos preguntas en juego, una sobre Searle y la Sala China, pero la cuestión más amplia es qué dice la filosofía sobre el desarrollo de máquinas que piensan.
Ha citado el Argumento de la habitación china, que tiene varias publicaciones en este sitio. Comience con una revisión de aquellos:
Comprender el argumento de Searle y los argumentos que lo replican, en particular la respuesta de los sistemas , es necesario para orientarse. Una vez que lo haya hecho, si yo fuera usted, buscaría una copia de La filosofía de la inteligencia artificial de Margaret Boden y What Computer Cant Do de Hubert Dreyfus. Si quiere saber qué está cocinando el campo AGI, una buena publicación reciente llamada Inteligencia General Artificial de Ben Goertzel y Cassio Pennachin (Eds.) ofrece algunos de los intentos (IMNSHO) agitados de crear arquitecturas para imbuir el software con humanos. Rasgos de inteligencia de alto nivel.
En cuanto a la pregunta de cómo puede Searle estar tan seguro. Bueno, John Searle es famoso por su filosofía, y esa confianza puede ser una función de su éxito como filósofo y su falta de sofisticación técnica como científico informático. La continuación de John Searle de los éxitos del giro lingüísticoen filosofía es difícil de discutir. Ha escrito mucho sobre cómo el lenguaje se refleja en la realidad, tanto personal como social, pero me gustaría señalar que Searle tiene una herramienta que usa para lidiar con la complejidad de la mente llamada The Background. A menudo descarta los detalles directamente en esa cosa nebulosa y difusa para simplificar para hacer sus puntos. En general, es una excelente estrategia para reducir su argumentación a lo que merece atención, pero la desventaja es que corre el peligro de hacer que sea demasiado fácil dejar de lado las proposiciones relativas, ya que el argumento informal se rige por una lógica no monótona y proposiciones rebatibles .
La otra parte de su pregunta gira en torno a llegar a un acuerdo con lo que significa simular la comprensión, particularmente del lenguaje. Como probablemente sepa, Alan Turing es famoso por muchas cosas, pero entre ellas está su prueba de Turing , que es un intento de poner en práctica la inteligencia semántica humana. A medida que nos acercamos a los 100 años, nadie ha sido capaz de hacerlo, lo que en la historia de la inteligencia artificial a menudo se ha promocionado como a la vuelta de la esquina, al igual que los reactores de fusión han estado constantemente a 30 años (Discovery Magazine) . De hecho, cuando Hubert Dreyfus comenzó a atacar el programa de IA en el campus y con RAND, notó la total hostilidad de sus compañeros de pensamiento casi de inmediato.
¿Por qué la promesa de la IA ha tardado tanto en materializarse (aunque últimamente las mejoras en la inteligencia artificial han logrado algunos objetivos fantásticos)? Bueno, todo se reduce a lo que la ciencia de la lingüística ha descubierto sobre la semántica. La forma más fácil de explicarlo es decir que el significado tiene sus raíces en la encarnación física , y que el procesamiento de cadenas en una ALU en serie no alcanza parte de la naturaleza conectista del cerebro humano . Estos son los detalles computacionales donde la cuestión de la inteligencia humana se torna arenosa y donde la ignorancia de la ciencia de los materiales y las estructuras matemáticas de la computación comienzan a influir en la filosofía de la mente .
De hecho, la cuestión de qué constituye la inteligencia humana no es sólo una cuestión abierta en la filosofía de la mente, sino en la psicología misma, donde hay dos modelos, en términos generales, que compiten por la aprobación, el modelo de Cattell-Horn que está relacionado con el El factor G y se pone en práctica a través de pruebas de cociente de inteligencia , y lo que podría llamarse una noción pluralista de inteligencia que es más famosa a través de la teoría MI de Howard Gardner , que es popular entre humanistas y educadores. Así como hay seguidores de "ciencias de la mente" más duras y más suaves, también este sesgo se refleja en la noción de inteligencia.
En última instancia, la pregunta que está buscando tiene sus raíces más en la filosofía del lenguaje que en cualquier otra cosa, porque la discusión de la dicotomía sintaxis-semántica recae allí en los filósofos y científicos del lenguaje. Hay una serie de modelos en competencia sobre cómo sucede exactamente esta cosa, cosa, experiencia llamada "significado", y si realmente quiere comprender qué implica cómo funciona la semántica con las personas, le recomiendo dos libros para comenzar su camino. , aunque no son lecturas fáciles. Primero, Ray Jackendoff tiene sus Fundamentos del lenguajeque es muy técnico, pero presenta un argumento arquitectónico específico sobre cómo los sistemas incorporados del cerebro dan lugar a lo que reconocemos como significado. El segundo también es una lectura difícil, pero vale la pena si realmente quiere entender por qué la promesa de la IA a nivel humano y el uso del lenguaje no se ha materializado, Cognitive Linguistics de Evans y Green, que ofrece una imagen completa de cómo se fundamentan el lenguaje y el significado. en la experiencia corporal.
Ahora, lo que he ofrecido aquí no es tanto una respuesta fácil como un modelo para comprender por qué la mayoría de los filósofos están fuera de su elemento cuando discuten cómo implementar un aspecto de la cognición humana real arraigada en la computación neuronal en sistemas diseñados para implementar el Arquitectura de von Neumann de una máquina de Turing . Las contribuciones de Searle al lenguaje, la semántica y la intencionalidad son indiscutibles; sin embargo, en algunos aspectos, la cuestión de la ingeniería de la comprensión semántica ha comenzado a salir de la filosofía y adentrarse en los dominios científicos del aprendizaje automático, la ingeniería de software y la neurología. Como tal, verá resistencia a abandonar nociones clásicas en filosofía como la semántica de condiciones de verdad.y matemáticas platónicas que se aducen a favor de formas trascendentales de metafísica . De hecho, el propio Searle admite que el cerebro es una computadora biológica, pero se muestra escéptico de que nuestra tecnología informática actual pueda imitarlos, lo cual es un conservadurismo mesurado.
TL:DR;
Si consideramos los cerebros como máquinas informáticas (que, por lo que sabemos, lo son), no hay base para la afirmación de Searle.
De acuerdo con la tesis de Church-Turing, que es un resultado muy respetado en informática, no hay cálculo que no pueda ser realizado por una computadora ordinaria.
Puedes verlo como un desafío: muéstrame un problema solucionable que no pueda ser resuelto por un programa de computadora. Hasta ahora nadie ha sido capaz de hacerlo.
La importancia de ese resultado es que (si no tenemos en cuenta la velocidad y el espacio) cualquier computadora que pueda existir en el universo, ya sea eléctrica, cuántica o basada en una tecnología que no podemos imaginar, sería igual de capaz de resolver un problema. como el teléfono en tu bolsillo.
Si consideramos que el cerebro entra en esa categoría, entonces la diferencia entre el cerebro y cualquier otra computadora es solo el software que ejecuta.
Si estamos de acuerdo con todo eso, podemos refutar fácilmente la afirmación de Searle de que, debido a que puede realizar cálculos que generan chino sin entenderlo, la computadora no lo entiende. La respuesta es que es el software el que "entiende" cualquier cosa, no el hardware, por ejemplo, los chips de silicona no pueden jugar al ajedrez, y tampoco las neuronas, pero si los organizamos de la manera correcta, ambos pueden jugar al ajedrez.
El experimento de la habitación china sólo funciona si no consideramos los cerebros como máquinas informáticas, es decir, si pensamos que está sucediendo algo en nuestros cerebros que no puede suceder en ningún otro tipo de sistema. Sin embargo, nadie ha podido proporcionar evidencia de que tal cosa suceda.
Creo que la forma más sencilla de explicarlo: la sintaxis se puede analizar computacionalmente, pero el cálculo se puede resumir en instancias ridículas o "divertidas". Dado que no sabemos cómo los estados mentales (por ejemplo, la comprensión semántica, la conciencia, la conciencia, etc.) surgen de lo físico, "la brecha insondable entre el proceso físico y la conciencia subjetiva que se burla de nuestra búsqueda de los filamentos que unen lo corporal y lo mental". juntos", ¿deberíamos poner algún peso en la idea de que esto produce estados mentales (por ejemplo, comprensión semántica)? "No hay hecho más asombroso y desconcertante que el de la conciencia". Alegamos ignorancia de cómolas neuronas y el cerebro dan lugar a la conciencia, pero de todas las cosas que creemos firmemente sobre la conciencia, el cerebro está involucrado: "no hay duda de que los humanos tenemos una vida mental, porque tenemos cerebro".
No estamos preparados para dar el salto hacia algo más que cerebros que den lugar a la conciencia, aunque no sepamos cómo lo hacen los cerebros. Seguramente la computación por sí sola no puede serlo, solo piense en todas las "instancias divertidas" de la computación más allá de una persona en una habitación barajando cartas: abrevaderos, moviendo granos de arena, etc. El experimento de la habitación china es solo otra "instanciación divertida". de cómputo.
[1] todas las citas tomadas de: Maudlin, T. (1989). Computación y Conciencia. Revista de Filosofía, 86(8), 407. doi:10.2307/2026650
Una máquina posiblemente podría tener su propia semántica. Esto solo requeriría que tuviera su propia representación interna del mundo. Sin embargo, ¿cuál sería el uso de eso? Cada humano obviamente tiene su propia representación mental privada del mundo. Sin embargo, a pesar de esto, compartimos la mayor parte y esto simplemente porque somos biológicamente muy similares entre nosotros y somos sociables, por lo que compartimos gran parte de nuestras vidas. Todos entendemos qué es el Sol porque solo hay un Sol y tenemos, en términos generales, la misma experiencia de él. Por lo tanto, terminamos con la misma semántica en líneas generales. Hay diferencias, pero representan un pequeño subconjunto del todo, al contrario de lo que pueden sugerir las controversias en Internet o, de hecho, en la vida real.
Entonces, el problema no es tanto que una máquina tenga su propia semántica sino que tenga una semántica lo suficientemente cercana a la de un ser humano, al menos si queremos que humanos y máquinas se entiendan. La dificultad, entonces, radica en que la producción de una semántica humana sigue siendo en gran parte un proceso desconocido. Puede que no sea imposible hacer algo comparable en principio, pero probablemente por ahora esté al menos muy por encima de nuestras capacidades técnicas, en particular en términos de los datos masivos que el cerebro humano procesa continuamente.
Llamemos a un agente comprensivoun ser pensante que posee una "comprensión semántica" del significado de las palabras ordenadas proposicionalmente. Supongamos ahora que hay en el flujo de entrada de un agente comprensivo una palabra que el agente no ha encontrado antes. Ahora, cuando una máquina de traducción, por ejemplo, puede encontrar una palabra "original" o sin sentido para la cual se puede inferir una traducción adecuada a partir de pistas contextuales, pero no refleja ninguna instancia particular de texto en el "corpus real" que pretende traducir: - ¿Cuál debería ser su salida? Una máquina de traducción podría simplemente generar un resultado nulo o ingresar un comportamiento indefinido; sin embargo, ¿cuál debería ser la salida de un agente comprensivo, en ese caso? La capacidad de traducción "perfecta" parece implicar, en otras palabras,
En mi opinión, la importancia de la traducción, la dificultad y la complejidad involucradas, por regla general, tal vez se subestiman un poco, e involucran todas las problemáticas que los fenomenólogos, los deconstruccionistas y los psicoanalistas han planteado en torno a las 'profundas profundidades' en el trabajo en la génesis de la traducción. estructura trascendental local.
Quizá los límites del llamado "comportamiento indefinido" del software son sugerentemente similares aquí a los de la propia penumbra exterior del lenguaje, es decir, del disparate y el hapax legemomon , que tal vez desempeñen un papel más importante en la construcción del "sentido" que podríamos imaginar. Pero baste decir que todos estos análisis del lenguaje me parecen plantear la cuestión del origen y el valor del sentido como una entidad distinta; y, además, me parece que los esfuerzos más diligentes de los filósofos de las matemáticas, Frege y Russell, no logran exactamente resolver la ambigüedad en el corazón de algunos de estos sistemas de razonamiento axiomáticos que fundamentan los sentidos como ZFC.
Otro argumento que he visto en contra del experimento es que “junto con un libro de instrucciones para manipular los símbolos (el programa)”, capaz de interpretar mandarín como un hablante nativo, de hecho no podría existir. Los lenguajes humanos naturales no funcionan de esa manera, y hay un número infinito de oraciones posibles en chino. Incluso si de alguna manera encontrara un subconjunto de chino lo suficientemente grande como para incluirlo en su libro de reglas, el hombre en la caja nunca podría hacerse pasar por un hablante nativo porque solo podría dar respuestas idénticas a preguntas idénticas. Este enfoque no funcionó para el inglés, y entiendo que tampoco funcionaría para el chino.
Esto podría ser más una limitación de la analogía que una refutación decisiva del punto subyacente, pero resulta que un sistema que funciona buscando y siguiendo una lista de reglas gramaticales no produce respuestas lo suficientemente convincentes como para que lo consideremos como “comprender” un lenguaje humano.
El principal problema con el argumento de la habitación china es que presupone algo enorme, enorme: un algoritmo que proporciona "respuestas en idioma chino". Se supone que debemos aceptar esta caja negra sin dudar para poder centrarnos en los "problemas reales" del debate. ¡Pero podemos destruir por completo el argumento de la habitación china con un simple truco! ¡Solo definimos de dónde viene este algoritmo!
Verá, la suposición implícita es que el "algoritmo" es de alguna manera antinatural... un producto frío y sin vida del ingenio humano que no puede reflejar la belleza y la gloria de la conciencia humana. ¿Pero por qué no? ¿Qué pasaría si el "algoritmo" no fuera más que una descripción precisa de un cerebro chino real ? ¿Qué pasaría si la "Habitación china" no fuera más que un cerebro de habla china real y ordinario que fuera reemplazado por un homúnculo de habla inglesa que, por lo demás, ejecuta exactamente las mismas acciones que el cerebro chino correspondiente ? ¿Searle seguirá insistiendo en que el homúnculo en el caparazón realmente no "entiende" el chino? Por supuesto, el homúnculo no necesariamente entiende chino,a.
Por supuesto, no necesitamos traer mandarín (o cantonés, o cualquiera de los miles de otros idiomas chinos). Simplemente podemos reemplazar el cerebro de John Searle con un homúnculo de habla extraterrestre y una descripción algorítmica de su cerebro. Entonces, podemos darle la vuelta a su argumento e insistir en que los cerebros tampoco entienden inglés . Y si ese es el caso, entonces los cerebros no son especiales y, por lo tanto, están al mismo nivel que las computadoras/IA.
Por supuesto, Roger Penrose entendió implícitamente el peligro de este argumento, por lo que tomó el largo camino de tratar de demostrar que no existe una descripción algorítmica del cerebro porque los cerebros son especiales, aprovechando los efectos cuánticos . Ese es un hilo completamente diferente, así que lo dejaré así.
El argumento de Searle se enmarcó en tiempos en los que solo teníamos IA simbólica que se basa en una lógica basada en reglas . Este tipo de sistema es inflexible y no dinámico. Funciona de forma estática a través de sistemas de demostración teórica y/o tablas de verdad. Cada extensión y adición de reglas debe implementarse manualmente a mano. Uno de los ejemplos de un entorno de lógica simbólica que tenía grandes esperanzas en términos de IA en ese momento, pero fracasó, fue el lenguaje de programación Prolog .
Las limitaciones de los sistemas basados en reglas no se aplican en la actualidad. Ahora imitamos y reproducimos sistemas de aprendizaje automático basados en redes neuronales del cerebro que pueden aprender contextos semánticos a través de procesos de aprendizaje supervisados, semisupervisados o incluso no supervisados (Ejemplo ) . Un ejemplo es el software basado en Python SpaCy que funciona en el área de NLP ( procesamiento del lenguaje natural ).
A través del enfoque lingüístico computacional, la máquina ahora puede utilizar redes neuronales para aprender constantemente contextos semánticos de, por ejemplo, artículos biológicos, artículos científicos o incluso periódicos y también cualquier otro texto. Por ejemplo, puede extraer lo que necesita en función del significado del texto (similitud semántica) que se logra mediante la creación de incrustaciones de palabras, vectores que actúan como "mapas" para los términos (ver demostración ) .
Para concluir, se vuelve cada vez más factible hacer afirmaciones "duras" sobre la comprensión de la semántica por parte de la IA que en la era del argumento de la habitación china de Searle. Más aún, el campo de la neurociencia computacional ahora implementa las partes digitales del cerebro que modelan los procesos humanos de aprendizaje e incluso la cognición. De hecho, existe la esperanza de que las máquinas sean capaces de "comprender" el significado de maneras más allá del argumento de Searle.
El problema con el argumento de la habitación china es que el hombre solo recibe información de una sola fuente, el mensaje donde, como comprensión semántica, requiere que el mensaje esté asociado con otras entradas.
Entonces, casi por definición, la sala no puede tener comprensión semántica.
Sin embargo, si agregó entradas adicionales, como la hora del día, el clima y la memoria, el hombre pronto podría asociar "buenos días" con mañanas soleadas.
Puede ir más allá y eliminar las entradas externas, simplemente codificando la asociación en las instrucciones en inglés. Esto equivaldría a una traducción y el hombre, habiendo aprendido la traducción, obviamente tendría una comprensión semántica del chino.
Es fácil ver que un programa de computadora también puede recibir entradas y memoria externas. De hecho, puede imaginar un programa muy simple "buenos días" = SunPosition && noClouds que, a primera vista, es comprensión semántica.
Searle no está señalando que los programas no pueden ser semánticos, está comenzando con la definición de un programa de computadora, que es formal, también conocido como sintáctico, y luego traza paralelos con el uso humano de sistemas formales (instrucciones mecánicas) y lo compara con real comprensión.
Un buen ejemplo sería: aprender el material en un examen de memoria (esto sería sintáctico/mecánico) versus tomarse su tiempo para comprender realmente el material (esto sería la semántica). La comprensión no es el '¡ajá!' sentimiento que obtienes al consumir profundamente el material, sino que viene con ese sentimiento. Cuando entiendes el material del examen, no es lo mismo que haberlo aprendido de memoria.
Este es básicamente el mismo caso que en el argumento de la habitación china. Se podría dar cualquier otro ejemplo de personas que siguen algún tipo de programa de computadora, algún tipo de conjunto específico de instrucciones paso a paso, y llegar a la misma conclusión a la que llegó Searle con su habitación china, pero con cierta intuición de la experiencia personal para haz una copia de seguridad (todos hemos tenido que seguir algún tipo de lista de instrucciones paso a paso en algún momento, estoy seguro).
Hay muchas respuestas ya publicadas aquí, que ofrecen una visión significativa. Sin embargo, no veo ninguno que parezca entender completamente el punto del problema de pensamiento de Searle, y muchos toman posiciones inverosímiles/insostenibles.
Respondí completamente esta pregunta para un autor diferente, aquí: ¿Cómo maneja el argumento de la habitación china la paradoja del montón de arena?
El uso de "semántica" por parte de Searle, que es un término puramente lingüístico, puede estar distrayendo a algunos de los que publican aquí para que no entiendan su punto. Uno PUEDE hacer lenguaje sin conciencia, pero Seale está trabajando con una definición de comprensión, de modo que uno no puede hacer "comprensión" sin conciencia, y estaba usando "semántica" como sustituto de la comprensión.
La comprensión implica competencia, conciencia de la respuesta proporcionada por la competencia y I/O. Los "libros" en la habitación tienen competencia, pero no conciencia. El operador tiene conocimiento, y los mecanismos del operador más en la sala realizan E/S.
La mayoría de las respuestas aquí que rechazan el argumento de Searle, también rechazan que la comprensión requiere conciencia. Son respuestas explícitamente conductistas. Tratan la conciencia como algo irrelevante y a los humanos como máquinas reduccionistas. Tenga en cuenta, sin embargo, que la filosofía, la psicología y la ciencia en general han rechazado el conductismo y también el reduccionismo, consulte la sección 5 de la SEP sobre reducción científica: https://plato.stanford.edu/entries/scientific-reduction/ Tenga en cuenta también que el una sintonía evolutiva muy clara de la conciencia requiere que la conciencia sea causal, por lo que este rechazo de la conciencia causal está en contradicción con los principios biológicos esenciales.
También noté que la mayoría de los que rechazaban el problema de pensamiento de Searle acusaban a Searle de ser anticientífico y dualista. Esto es explícitamente falso. Searle es un defensor del fisicalismo no reduccionista. Considera que la conciencia es emergente y no computacional, por lo que la conciencia no puede surgir de los cálculos realizados por el funcionalismo. Su posición alternativa es que existe alguna característica aún desconocida de los sistemas biológicos que permite que la conciencia surja de ellos.
De las respuestas al problema de pensamiento de Searle citadas aquí, la única que aborda el tema de la conciencia son las citas de Chalmers. Chalmers entiende el argumento de Searle de que, al separar la competencia de la conciencia y el I/O, Searle estaba destacando la imposibilidad de vincular la conciencia a la competencia demostrada. Chalmers es el raro filósofo que agarró este toro por los cuernos. Básicamente admitió que la competencia por sí sola (los libros) no tenía conciencia, sino que afirma que la ASAMBLEA del salón tiene conciencia. Que el sistema de la sala sea consciente cuando el operador implementa las funciones en los libros y realiza las E/S. Esta es una visión rara, ya que el SISTEMA de habitaciones no es el tipo de cosa que la mayoría de los filósofos admitirán que puede soportar la conciencia.
tl; dr : el argumento de la habitación china es una tontería pura, a la par con la teoría de la Tierra plana . Sin haber realizado una encuesta formal, en general entiendo que los que están en el campo lo ignoran en gran medida como una posición antiintelectual.
El argumento de Searle es básicamente:
Suponga que la IA son máquinas sin sentido.
Esa suposición no se puede refutar porque cualquier evidencia de lo contrario podría ser la consecuencia de un algoritmo similar a un script que simplemente suena humano (o suena como si entendiera chino).
Debido a que la suposición no se puede refutar, debe ser correcta .
El argumento de Searle es solo una copia y pega del argumento solipsista :
Suponga que otras personas son zombis sin sentido .
Esa suposición no se puede refutar porque cualquier evidencia de lo contrario podría ser una consecuencia de un comportamiento similar a un guión que simplemente suena humano (o parece que no es un zombi).
Debido a que la suposición no se puede refutar, debe ser correcta .
Wikipedia enumera un montón de críticas al argumento de Searle . No porque necesite más desacreditación, sino porque hay muchas cosas mal en él.
Básicamente, es vitalismo .
A riesgo de parecer ingenuo, solo señalaría al interrogador que en todas estas muy buenas respuestas, no está del todo claro qué se entiende por "semántica" y "significado".
Creo que Searle estaba, hace muchos años, introduciendo en una filosofía analítica mucho más refinada cuestiones que ahora están más desarrolladas con la reintroducción de algunas versiones de la metafísica e incluso del idealismo en los planes de estudio angloamericanos.
Las cuestiones de "significado" están estrictamente excluidas del modelo de información de Shannon, en el que todavía se basa la "sintaxis" informática. Al igual que la teoría de la gravedad de Newton o la teoría de la utilidad de Jevon, ofrece un modelado matemático y se abstiene de cualquier hipótesis "sustancialista" o "esencialista" de lo que cuantifican los modelos.
El argumento de Searle puede haber sido necesario dentro de la tradición lamentablemente restringida en la que enseñó, pero creo que se habría considerado tonto y redundante en las llamadas tradiciones "continentales" desde Husserl.
Es un poco como tratar de comparar la definición matemática de información de Shannon con la de Walter Ong. En este último hay un portador irreductible de "experiencia", el cuerpo, las vibraciones físicas producidas por la Palabra hablada entre los cuerpos.
Esta experiencia está trágicamente bloqueada. En realidad no puedo "sentir tu dolor". Puede transferirse "simpatéticamente" pero no sintácticamente. La máquina tampoco puede imitar la "vida" real en el sentido de sufrir las complejas interacciones semánticas que le permiten reproducirse a sí misma tanto física como "inexactamente". (Aparte de los replicadores de máquinas de Von Neumann).
En mi propia lectura informal, Searle simplemente indica la exclusión de estos muchos temas filosóficos tradicionales del camino tomado por la "filosofía" analítica en su época. Aunque no le he leído mucho, el colega californiano de Searle, Hubert Dreyfus, puede haber escrito en alguna parte un rechazo contemporáneo de toda la base del "problema" de la habitación china.
Los números son misteriosamente "iguales" y, por lo tanto, pueden encajar en "ecuaciones". Pero las experiencias de los cuerpos a lo largo del tiempo en algún nivel desafían la equivalencia, nunca pueden ser exactamente iguales y, por lo tanto, nunca pueden modelarse completamente en cantidades discontinuas.
En términos simplificados, si tiene una máquina de IA (sin importar cuán compleja sea), podría describirse mediante tres cosas: estado de la máquina (tanto interna como externa) S, entrada en la máquina I y salida O. La salida sería una función de la entrada y el estado O=f(I,S), y cualquier aleatoriedad se modelaría a través del estado (pseudo-aleatoriedad). En otras palabras, la salida sería determinista.
El modelo descrito anteriormente es cierto incluso para las redes neuronales más complejas y, como podemos ver, simplemente no tiene libre albedrío . Incluso si asumimos que podría aprender (es decir, cambiar su propio algoritmo), esto todavía se hace de manera determinista: con cierta entrada y estado, nuestra máquina de IA se cambiaría a sí misma, pero solo de la manera prescrita. De nuevo, tenga en cuenta que incluso si incluimos la aleatoriedad en este cambio, esta aleatoriedad sigue siendo parte del estado S, por lo que se incluye en nuestra ecuación básica.
Dado que nuestra máquina de IA no tiene libre albedrío, de eso se deriva que no puede crear , o en otras palabras, cualquier estructura nueva hecha por esta máquina simplemente estaría preprogramada en ella. En cualquier momento dado, la máquina tendría un conjunto de patrones P y un conjunto de modificaciones M. La máquina podría aplicar esas modificaciones a los patrones, creando un conjunto de "nuevos" patrones Pn, pero ese conjunto ya estaría predeterminado por el conjunto inicial de P y M.
¿Qué tiene esto que ver con la semántica? La semántica es simplemente el estudio del significado. Tienes cierto fenómeno (palabras, sonidos, letras, imágenes...) de pie en lugar de otra cosa. Por ejemplo, la palabra "perro" (tanto escrita como hablada) simboliza ciertas especies animales. Los perros tienen pelo, cuatro patas, son mamíferos carnívoros. Igual que los gatos. Sin embargo, (casi) ningún ser humano llamaría gato a un perro. Los barcos, por otro lado, no tienen piernas, pelo y no son animales en absoluto, ¡sin embargo, los humanos llaman a algunos de ellos perros de hierro ! ¿Cómo explicaría a AI cuál es el significado de la palabra "perro"?
Los seres humanos somos irracionales e ilógicos . Esto ha sido probado matemáticamente por los teoremas de incompletitud de Gödel y el teorema de indefinibilidad de Tarski . En cualquier sistema formal fuerte no se puede definir completamente la verdad. Tendrás algunas verdades (y algunas falsedades) que son indemostrables. No se podía definir todo. Sin embargo, de alguna manera extraña (intuitivamente) los humanos diferenciarían entre los dos. Los budistas zen llaman a ese aplauso de una mano . Desafía la explicación porque no se puede definir: es absurdo pero convincente. Y completamente incomprensible para AI porque no se puede traducir a un lenguaje formal.
Conoce a Sharma
JD
JD
Conifold
armando
eugenio
Carlos Staats
eugenio
hipnótico
usuario4894
Dcleve
scott rowe
usuario4894
Dcleve
usuario4894
usuario4894
eugenio
usuario4894
usuario4894
usuario4894
eugenio
eugenio
usuario4894
eugenio