Con bastante frecuencia he visto a la IA responder al argumento de la habitación china de John Searle aceptando la respuesta del sistema: mientras que el hombre en la habitación no entiende chino, la habitación (el sistema) en su conjunto podría hacerlo, o al menos el argumento de la habitación china. no concluye que no podría.
Sin embargo, la respuesta de los sistemas no parece abordar el principal problema que plantea la CRA para la IA. Una de las premisas de Searle dice que los símbolos son semánticamente vacíos, intrínsecamente sin significado, que en sí mismos no indican lo que significan oa lo que se refieren. Y todo lo que obtiene la computadora es el símbolo (es decir, la forma tokenizada).
Dado que las computadoras procesan símbolos, los símbolos sensoriales recibidos de los sensores digitales no indicarán lo que se detectó. Entonces, ¿cómo es posible que una computadora llegue a conocer y comprender el mundo?
Veamos la "Habitación China". Las palabras atraviesan el nervio óptico como un patrón neuronal complicado sin significado semántico. Una vez que llegan al cerebro, el cerebro puede asignar significado a las letras, palabras y frases. Si golpean el cerebro de alguien que solo sabe leer y escribir en chino, parecerían símbolos sin sentido.
Por lo tanto, la habitación y el cerebro son similares al recibir información sin sentido y al asignar significado. Los procesos en la sala asignan significado a los símbolos en los que Searle no ve ningún significado.
Es importante recordar el contexto de la Sala China, el Test de Turing . En esto, un humano se comunica con dos interfaces de texto (teletipos en el original), uno otro humano y el otro una computadora, e intenta determinar cuál de los otros es el humano y cuál la computadora. Esto ha sido ampliamente considerado una prueba de inteligencia artificial. (Turing no afirmó eso; predijo, incorrectamente, que las computadoras tendrían un éxito razonable en el año 2000). Por lo tanto, la comparación es entre una sala china que recibe texto en chino y un hablante de chino que recibe texto en chino.
Supongo que mucho aquí depende de la definición de "conocimiento" y "comprensión": hoy en día, los autos autónomos ya aprenden sobre su entorno. (Consideré poner "aprender" entre comillas, pero es una práctica común no hacerlo en este contexto). Entonces, para un sentido débil de conocimiento y comprensión, donde solo requerimos (decir) que hay información en el sistema que se correlaciona con el mundo y se utiliza para tomar acciones deseables en el mundo, los sistemas actuales ya lo adquieren. Por supuesto, uno podría estar interesado en un sentido más fuerte de conocimiento y comprensión, tal vez involucrando algo de conciencia . De esto se trata el argumento de Searle, y no vamos a resolver esa discusión aquí...
Las respuestas calculables algorítmicamente deben formar parte de sistemas incompletos de Gödel, con enunciados verdaderos pero no demostrables. Pero un extraño sistema de bucles puede formar una jerarquía enredada, una red de refuerzo y duda, como el lenguaje en uso, donde los usos tentativos de los símbolos se utilizan y luego se refinan y se crea un significado relacional y a través de la interacción y el juego.
Cuando nuestros cerebros dejan de recibir información del nervio óptico, no cierran parte del cerebro. (Eventualmente) secuestra y arranca el área para continuar intentando crear un modelo del mundo lo más isomorfo posible, como se demuestra iterativamente, mediante patrones de interacción, referencias cruzadas, etc., es decir, mediante el uso.
Su premisa de que los símbolos están semánticamente vacíos es insostenible, en términos de visualización del lenguaje en la práctica: están imbuidos de él por el uso. Los sistemas matemáticos revelan las consecuencias de enunciados ya hechos, es decir, no generan significado sino que lo desempaquetan. El pensamiento matemático creativo, sin embargo, trabaja hacia delante hasta las consecuencias y hacia atrás hasta los axiomas, y luego de nuevo, en interacción con el mundo, de forma creativa.
Entonces, ¿cómo es posible que una computadora llegue a conocer y comprender el mundo?
A través de la interacción, prueba y error, exploración, heurística. Justo como nosotros. Independientemente de los medios que tuviera para interactuar, serían sentidos, incluidos modelos mentales y simulaciones, que usamos, por ejemplo, en la predicción de movimiento para jugar.
La habitación china es tan inteligente como una baraja de cartas, o un ábaco, digamos. La verdadera Inteligencia Artificial General tendría que estar en un bucle extraño, no en una jerarquía tan plana con reglas definidas explícitas.
Me refiero a que una forma posible de atacarlo sería señalar que, el hecho de que no esté al tanto de la información semántica no significa que no haya información semántica intrínseca al tema.
Así que puedes intentar encontrar patrones dentro del ruido y las relaciones entre los patrones. Para que puedas crear nubes de palabras sin saber lo que significan las palabras. Por ejemplo, si una oración funciona con todos los símbolos de la misma manera, excepto uno, puede inferir que existe una igualdad en algún sentido entre esas dos palabras. Es posible que pueda inferir ideas importantes por la cantidad de conexiones o palabras de relleno por la combinación de que se usan con frecuencia pero la capacidad de quedar fuera de una oración y seguir siendo válida de acuerdo con la sintaxis.
Ahora, un observador humano es capaz de inferir mucho del simple hecho de que esta persona es humana, al igual que las personas que inventaron el idioma, por lo que hay ciertas peculiaridades de la condición humana que podrías inferir que son tan universales que podrías comenzar a intentarlo. para mapearlos.
Pero incluso si ese idioma no fuera chino sino completamente ajeno a cualquier ser humano, aún podría intentar encontrar regularidades, hacer predicciones para la salida, verificar si las predicciones y las respuestas reales coinciden y refinar sus predicciones por eso, es decir, hacer ciencia.
Y hasta cierto punto eso ya está sucediendo con el aprendizaje automático. Le das una entrada a un programa, literalmente adivinan (generan un número aleatorio) y lo emiten. Luego, el usuario les dice la salida real y comparan la suposición y el valor real y cambian su suposición. Entonces, no sé si deben adivinar el resultado de una suma como 2+2, entonces podrían adivinar 3, recibir 4 como respuesta, calcular 4-1 = 1, lo cual es positivo, por lo que cambian sus parámetros para crear un número mayor, digamos 5 donde nuevamente calculan 4 -6 = -2 que es negativo entonces ajustan los parámetros para obtener un número menor pero mayor que 3 y así uno hasta llegar a 4.
Ahora técnicamente todavía no saben cómo sumar, solo saben que 2 en una entrada y 2 en la otra entrada es igual a 4 como salida. Pero por el hecho de que un intercambio de la entrada da como resultado la misma salida, ya necesitaría una simetría intrínseca. Ahora podría estar equivocado asumiendo que esos son números pero en realidad esas son palabras, pero aún así les habría dado algún tipo de significado semántico incluso si fuera incorrecto.
Entonces, si asume que esta no es una comunicación unidireccional, sino que la computadora usa sus salidas para hacer inferencias sobre el entorno, entonces también podría mejorar progresivamente sus conjeturas y asignar significado a cosas que son arbitrarias y sin sentido.
usuario20253
usuario6559
wizzwizz4