Simplemente no puedo ver cómo la habitación china de John Searle tiene sentido. La habitación pasa la prueba de Turing. La gente fuera de la habitación piensa que hay un humano adentro que entiende chino. Pero, explica Searle, la sala en realidad contiene, en forma analógica, todos los elementos esenciales de una computadora digital electrónica programada para comprender (según Strong AI) el chino escrito. Pero el hombre monolingüe de habla inglesa en la sala (la CPU de la computadora) no entiende chino. Las tarjetas inscritas con símbolos chinos caen en la habitación a través de una ranura en la puerta. Estas son preguntas chinas sensatas. El libro de reglas (el programa) trata solo con sus formas, no con sus significados. Le indica al hombre que encuentre ciertos caracteres chinos entre los repuestos de la habitación y luego los saque por la ranura. Desconocido para el hombre, estas son respuestas chinas sensatas. Ni el hombre ni la habitación entienden los significados de las formas, ya que todo lo que tienen son las formas. A partir de aquí, Searle continúa argumentando que las computadoras nunca entenderán el lenguaje o el mundo.
Lo que me parece un error fundamental es que Searle basa su argumento en comparar una computadora que recibe símbolos chinos con un humano que recibe símbolos chinos. Luego, por el hecho de que la computadora no entiende el significado de los símbolos, Searle argumenta que las computadoras nunca podrían entender nada.
Bueno, los humanos tampoco pueden entender los significados de los símbolos. Los humanos primero tienen que aprender chino. ¿Por qué la sala no trata de aprender chino? Sin esto, el argumento de Searle no tiene sentido. Aprender chino implica desarrollar la estructura de la memoria. No hay estructura en el cuarto chino porque no hay nada en el cuarto para construirlo. La ontología de la habitación necesita que se le agreguen elementos estructurales para que luego contenga átomos de estructura así como símbolos (el contenido de la estructura). Luego, el programa puede indicarle al hombre que construya una estructura de memoria. Las computadoras digitales pueden construir fácilmente una estructura de memoria y, a menudo, lo hacen. Ahora con elementos estructurales, la sala china puede intentar aprender chino. Y, por cierto, la CRA no es sólida porque la premisa de Searle "... una computadora digital es una máquina sintáctica. Manipula símbolos y no hace nada más" (John Searle, 2014, "What Your Computer Can't Know", en The New York Review of Books, 9 de octubre de 2014) es falsa. Además, se puede argumentar bien que algunos elementos estructurales son semánticos.
Sería genial recibir algunos comentarios y críticas de mi respuesta anterior al argumento de la habitación china.
Incluso si el hombre dentro de la sala de chino memorizara todas las instancias de traducción (teóricamente, todas las combinaciones posibles que son imposibles dada nuestra memoria limitada, pero es un experimento mental, por lo que esta restricción no importa), ¿entendería chino, ya que no lo hace? No entiende el significado de ninguna de las cartas que le han presentado?
Searle no lo cree así:
en sentido literal, la computadora programada entiende lo que entienden el coche y la máquina de sumar, es decir, exactamente nada. La comprensión de la computadora no es solo (como mi comprensión del alemán) parcial o incompleta; es cero . . . En la jerga lingüística, sólo tienen sintaxis pero no semántica.
Por lo tanto, es difícil decir que el hombre en la sala de chino entiende chino, ya que solo está siguiendo un conjunto de reglas o algoritmos, muy parecido a lo que haría una IA o una computadora superinteligente que parece consciente .
Lo que es central en esto es la idea de la conciencia humana y si puede ser, en primer lugar, definida y, en segundo lugar, simulada en una computadora. Si no sabemos qué es la conciencia humana, no tenemos posibilidad de simularla en una computadora. Quizás la conciencia humana no sea más que interacciones físicas de las leyes de la naturaleza: química, fuerzas atómicas, biología molecular, campos cuánticos, conexiones celulares y neuronales, etc. O tal vez la conciencia humana es más que esto. La experiencia subjetiva, por lo tanto, no puede ser simulada por una máquina, ya que no se puede reducir a interacciones físicas y hay algo más en la conciencia que no podemos explicar suficientemente solo con explicaciones científicas. (Ver: qualia y el argumento filosófico del zombi).
Si surgió la conciencia y podemos crear condiciones similares a las que condujeron a este surgimiento, al construir una máquina o un programa de computadora que pueda emular este surgimiento, ¿podríamos entonces crear una conciencia artificial? Muy difícil de saber. Si los átomos de una cosa inteligente y consciente están basados en silicio en lugar de carbono, y están dispuestos en una disposición exactamente idéntica, ¿estamos hablando de los mismos fenómenos? ¿La conciencia en sus variadas formas?
Los comentarios de Searle sobre esto:
"¿Podría una máquina pensar?" La respuesta es obviamente sí. Somos precisamente esas máquinas. "Sí, pero ¿podría pensar una máquina artificial hecha por el hombre?" Asumiendo que es posible producir artificialmente una máquina con un sistema nervioso, neuronas, axones y dendritas, y todo lo demás, suficientemente como la nuestra, nuevamente la respuesta a la pregunta parece ser obviamente, sí. Si puede duplicar exactamente las causas, podría duplicar los efectos. Y, de hecho, podría ser posible producir conciencia, intencionalidad y todo lo demás utilizando otros tipos de principios químicos distintos de los que utilizan los seres humanos. Es, como dije, una cuestión empírica.
Si usted es de la opinión de que no importa si la computadora 'realmente' sabe que es consciente y puede pasar una prueba de Turing sofisticada, entonces la apariencia es todo lo que necesita para estar convencido de que una IA realmente puede ser consciente. La IA fuerte, para Searle, es solo conciencia humana y no puede ser replicada por un programa de computadora. Es muy difícil definir qué se entiende por conciencia, por lo que todo su argumento se basa en saber en el fondo intuitivamente qué entendemos por "experiencia subjetiva de la realidad". Solo tú sabes realmente cómo es ser tú mismo, y ninguna computadora será capaz de 'saber' realmente cómo existe de la misma manera. Sin ver los límites en el futuro de lo que nuestra tecnología puede lograr; sin embargo,
Referencia:
Cole, David, "El argumento de la habitación china", The Stanford Encyclopedia of Philosophy (edición de invierno de 2015), Edward N. Zalta (ed.), URL = https://plato.stanford.edu/archives/win2015/entries/chinese -habitación/ .
Kirk, Robert, "Zombies", The Stanford Encyclopedia of Philosophy (edición de verano de 2015), Edward N. Zalta (ed.), URL = https://plato.stanford.edu/archives/sum2015/entries/zombies/ .
John R. Searle, "Mentes, cerebros y programas" en The Behavioral and Brain Sciences, vol. 3. Copyright @ 1980 Cambridge University Press.
Parece que hay varias cosas que no se entienden al hacer esta pregunta.
Searle dio un argumento intuitivo. No entendió y todavía no entiende los detalles, por lo que había un límite para lo que podía explicar.
En realidad, no importa si usó libros o si usó un sistema de archivo o una base de datos o si usó una IA de última generación, los resultados serían los mismos. Entonces, cualquier cosa que Searle dijera sería correcta o incorrecta, independientemente de cómo lo hayas construido. ¿Qué pasaría si construyeras una habitación así?
La sala sería capaz de responder correctamente a cualquier pregunta de stock. Esto estaría limitado únicamente por el tamaño y el tiempo de acceso a su base de información. Por cierto, esto es más o menos lo que hizo Watson cuando jugó Jeopardy. No entendió ninguna de las preguntas o respuestas, sino que solo buscó asociaciones. Entonces, Watson es probablemente el mejor ejemplo de una habitación china moderna. Si hiciera una pregunta bursátil como "¿Qué presidente de EE. UU. se rumoreaba que había talado un cerezo?", Watson descubriría que EE. UU., el presidente y el cerezo estaban asociados con George Washington y responderían correctamente. Pero esto no es comprensión, ni siquiera cerca.
La mente humana es fuerte en términos de su capacidad para generalizar, lo que significa aplicar patrones y lógica conocidos a condiciones fuera de la experiencia previa. De hecho, podrías atrapar a Watson muy fácilmente. Echemos
Supongamos que estuviera en una habitación con una puerta cerrada. Hay un botón en la pared que abrirá la puerta. Sin embargo, el botón está demasiado alto para alcanzarlo incluso si saltas. Hay una mesa de madera resistente, una escoba y una pelota de goma en la habitación. ¿Cómo podría intentar escapar?
Esta pregunta es trivial para un ser humano, pero Watson no podría dar ningún tipo de respuesta a menos que esa pregunta y una respuesta asociada estuvieran en su sistema de información. Incluso he oído hablar de experimentos que los niños pequeños pueden resolver pero que Watson sería incapaz de hacer. Y, este seguirá siendo el caso sin importar cuán grande sea la base de información. Entonces, Searle estaba mayormente en lo correcto.
Considere lo siguiente sobre el argumento de la habitación china.
Primero, la IA fuerte es una visión de que los programas que se ejecutan en máquinas de Turing (computadoras) no solo producen resultados correctos sino que también generan conciencia cuando se ejecutan.
En segundo lugar, suponga que existe un programa que pasa la prueba de Turing para chino cuando se ejecuta en cualquier máquina de Turing, sin importar cuán avanzada o primitiva sea esa computadora.
Tercero, deje que un humano que no entiende chino simule una máquina de Turing siguiendo ese programa exitoso mientras está aislado de la influencia externa en una "habitación". Si la IA fuerte es correcta, esta debería ser una forma para que el ser humano no solo dé una respuesta correcta, sino también para entender el chino. Este programa sería una forma de que alguien aprenda chino.
En cuarto lugar, Searle afirma que el humano no entenderá ni aprenderá chino, pero podrá pasar la prueba de Turing usando el programa, ya que se supone que el programa puede hacerlo.
Quinto, mira el programa como la “mente”. Mire a la computadora como el "cuerpo". El cuerpo dirige la mente y esto supuestamente genera no solo resultados, sino también comprensión del chino. Es este dualismo mente-cuerpo el problema para un fisicalista.
Dado lo anterior, intentaré responder a esta pregunta.
“Los humanos primero tienen que aprender chino. ¿Por qué la sala no trata de aprender chino?
La habitación es solo una forma de aislar al humano de la influencia externa. No es la computadora. No hay nada para que la sala aprenda. El humano necesita aprender o entender chino ejecutando el programa. Ejecutar el programa es lo que cuenta, no qué computadora se usa para ejecutar el programa. El programa se puede mover a diferentes computadoras o diferentes humanos y los resultados deberían ser los mismos. La pregunta es si ejecutar el programa en cualquier lugar genera no solo un resultado correcto, sino también una comprensión del chino. Si es así, entonces esta sería una forma alternativa para que alguien aprenda un nuevo idioma.
Referencia: John Searle, "Mentes, cerebros y programas"
Creo que ha dado con lo que normalmente se conoce como la " respuesta del sistema ", que es, en resumen, que el sistema de la sala entiende chino. Esto parece plausiblemente cierto en términos de una definición funcional de la comprensión, pero llegar al punto en el que uno puede concebir que el sistema de sala tiene una experiencia subjetiva de la comprensión es un abismo conceptual mucho más grande que saltar. (aunque, por lo que puedo decir, no se puede descartar, especialmente porque no sé con un alto grado de certeza cuáles de ustedes, queridos lectores, tienen experiencias subjetivas y cuáles son zombis).
Esta pregunta se reduce a los qualia, ¿hay alguna diferencia entre un estado observado desde afuera y subjetivamente desde adentro? The Chinese Room nos ayuda a pensar en eso, pero plantea más preguntas de las que responde.
Sin embargo, nos estamos moviendo hacia una nueva era con esta pregunta, a medida que nos acercamos al punto de poder construir una habitación así.
Desde cero, tenemos procesamiento de lenguaje natural como https://en.m.wikipedia.org/wiki/Watson_(computer)
Y desde la simulación del cerebro humano hacia abajo, tenemos https://en.m.wikipedia.org/wiki/Human_Brain_Project
Un ser humano, o una habitación que ha "aprendido chino" en lugar de solo recibir respuestas limitadas a situaciones preprogramadas, no solo daría respuestas a preguntas bien formuladas, sino que podría interpretar preguntas incompletas o poco claras y reinterpretar definiciones sobre la marcha ( Watson tuvo problemas con preguntas cortas, por ejemplo, sin contexto). La configuración intenta decir que no lo harían, pero el lenguaje humano natural está lleno de ellos. Sí, la sala necesita estructuras, paralelas a las estructuras mentales humanas o de aprendizaje, y solo serán tan capaces como sofisticadas. Tenemos que mirar el umbral entre el aprendizaje de memoria y la comprensión de un idioma, como entre los movimientos de ajedrez de fuerza bruta y ser capaz de entender el juego. ¿Qué es la comprensión?
Hacemos cosas complejas y las damos por sentadas, lo que enturbia el agua de esto, de manera similar a cómo descubrimos que el procesamiento visual por computadora es mucho más difícil de lo esperado, porque suceden muchas cosas de las que no somos conscientes. El mejor marco que conozco para comprender lo que puede estar marcando la diferencia, desde cero, es la imagen https://en.m.wikipedia.org/wiki/Strange_loop .
Permítanme formular otra pregunta para quizás cambiar la opinión sobre esto:
¿Puede el hombre aprender chino de esta manera? No es lo mismo memorizar reglas y respuestas ya dadas y reproducirlas que si las hubiera entendido. Esto va un poco en la dirección de responder preguntas incompletas y si hay qualia para el hombre dentro de la habitación (es decir, ¿tiene el hombre alguna representación de lo que está haciendo en su mente que no sea el libro de / reglas memorizadas e históricas? respuestas, ya producidas). Sin embargo, hay algunos aspectos que me gustaría enfatizar con esta ligera modificación a la pregunta original:
En primer lugar, aunque el hombre/sistema aprenda las reglas de memoria y pueda recordar todas las combinaciones de símbolos (respuestas) que ya ha producido, yo diría que sigue sin comprender. PERO, ¿es posible que desarrolle un sentimiento (conjunto interno de reglas) para producir respuestas correctas, además de las reglas del libro?
En segundo lugar, ¿puede ser mejor? ¿Pueden estas nuevas reglas internalizadas/aprendidas/autodesarrolladas permitirle al hombre dar respuestas semánticamente correctas, que no están en la forma esperada? Por ejemplo: ¿puede dar una respuesta diferente a una pregunta que ya respondió antes, aún sin entender una sola palabra de chino? Diferente en el sentido de que la gente de afuera aceptaría la respuesta como correcta, pero no es la misma redacción que usó antes. Por ejemplo, la pregunta podría ser "¿Es blanca la nieve?". La respuesta correcta y esperada sería "Sí, lo es". Tenga en cuenta que esta respuesta no solo es semántica sino también gramaticalmente correcta. La nueva respuesta podría ser un simple "Sí", que supongo que se aceptaría como correcto, pero no es absolutamente correcto.
Tercero, ¿este conjunto de nuevas reglas dentro del hombre establece algo como un Súper-Lenguaje para el chino, o es algo completamente diferente y nuevo? ¿Puede formar nuevas ideas, oraciones o resolver cualquier problema inherente que se esconde dentro de la pregunta planteada, usando su conjunto de reglas, de modo que la respuesta técnicamente todavía sea el idioma chino y sea entendida por la gente de afuera, pero es tan extraño para ellos que ¿No lo habrían inventado ellos mismos? ¿O el hombre dentro de la habitación ha desarrollado un lenguaje completamente nuevo, que solo él entiende (ya que no hay nadie más con las mismas reglas interiorizadas)?
Cuarto, ¿quién decide cuál es la respuesta correcta? Un profesor de chino diría, "Shì (sí)" no es una respuesta (gramaticalmente) correcta, mientras que el Kim Lee promedio lo aceptaría como correcto. Esto trae esta discusión de regreso a todo el campo de la Filosofía de la Mente con todos sus propios pensamientos y discusiones. Así que me gustaría detenerme aquí.
Finalmente, me gustaría hacer una anotación general: la prueba de Turing y la configuración de este experimento mental respiran el espíritu del conductismo, donde solo cuenta el resultado visible (externo). En lo que respecta a las computadoras (sistemas de manipulación de símbolos), en realidad podría parecer la única forma de obtener una respuesta a la pregunta: ¿entienden lo que están haciendo? ¿Pero es? Tal vez la pregunta sea engañosa. ¿Quizás sí entienden pero de una manera diferente? ¿Y cómo podemos saberlo? ¿Entiendes lo que estás haciendo? ¿Completamente? ¿Todo el tiempo? ¿Entiende un hombre a la sociedad, que condena a una persona por robar comida como un acto contra la sociedad? ¿Qué pasaría si el mismo hombre se para junto a una persona sin hogar y no le da comida, aunque podría hacerlo, ya que su acción no es ilegal y ni siquiera se espera que no ayude?
Espero sus respuestas y espero que mi respuesta le ayude a obtener nuevos conocimientos.
Quentin Ruyant
usuario4894
franco hubeny
tim kinsella
CaZaNOx
Conifold
Roddus
Roddus
Roddus
Roddus
Roddus
Roddus
Conifold
CaZaNOx
Roddus
CaZaNOx