¿Cómo podría una computadora adquirir conocimiento de su entorno?

Con bastante frecuencia he visto a la IA responder al argumento de la habitación china de John Searle aceptando la respuesta del sistema: mientras que el hombre en la habitación no entiende chino, la habitación (el sistema) en su conjunto podría hacerlo, o al menos el argumento de la habitación china. no concluye que no podría.

Sin embargo, la respuesta de los sistemas no parece abordar el principal problema que plantea la CRA para la IA. Una de las premisas de Searle dice que los símbolos son semánticamente vacíos, intrínsecamente sin significado, que en sí mismos no indican lo que significan oa lo que se refieren. Y todo lo que obtiene la computadora es el símbolo (es decir, la forma tokenizada).

Dado que las computadoras procesan símbolos, los símbolos sensoriales recibidos de los sensores digitales no indicarán lo que se detectó. Entonces, ¿cómo es posible que una computadora llegue a conocer y comprender el mundo?

Cómo de hecho. Me pregunto por qué alguien piensa que podría.
No veo qué tiene que ver la IA con ninguno de los puntos planteados en esta publicación. Puede hacer la misma pregunta sobre cómo un ser humano llega a comprender los símbolos, si es que lo hace.
@user6559 Los humanos tienen instintos; si la IA va a tener instintos, tenemos que programarlos.

Respuestas (4)

Veamos la "Habitación China". Las palabras atraviesan el nervio óptico como un patrón neuronal complicado sin significado semántico. Una vez que llegan al cerebro, el cerebro puede asignar significado a las letras, palabras y frases. Si golpean el cerebro de alguien que solo sabe leer y escribir en chino, parecerían símbolos sin sentido.

Por lo tanto, la habitación y el cerebro son similares al recibir información sin sentido y al asignar significado. Los procesos en la sala asignan significado a los símbolos en los que Searle no ve ningún significado.

Es importante recordar el contexto de la Sala China, el Test de Turing . En esto, un humano se comunica con dos interfaces de texto (teletipos en el original), uno otro humano y el otro una computadora, e intenta determinar cuál de los otros es el humano y cuál la computadora. Esto ha sido ampliamente considerado una prueba de inteligencia artificial. (Turing no afirmó eso; predijo, incorrectamente, que las computadoras tendrían un éxito razonable en el año 2000). Por lo tanto, la comparación es entre una sala china que recibe texto en chino y un hablante de chino que recibe texto en chino.

"la habitación y el cerebro son similares en recibir información sin sentido y asignar significado". Este es el tema que me parece crucial. ¿Cómo obtiene el cerebro los significados que asigna? ¿Y de dónde los saca? No los flujos de entrada, no tienen sentido. Pero también son las únicas cosas que recibe la habitación (y el cerebro). Conclusión: los flujos de entrada no deben carecer de sentido. Sabemos de dónde vienen los significados: sensores. Sabemos de qué se tratan los significados: las cosas sentidas. Pero, ¿cómo se encarna el significado en la corriente? = LA pregunta.
Llevemos esto a un nivel superior. Esta página web no habría tenido ningún sentido para mí hace unos sesenta y tres años. (Recuerdo mirar un periódico y no poder interpretar nada de lo escrito). Si hay vida inteligente en otras partes del Universo, no tendría sentido para ellos. No hay suficiente texto aquí para analizarlo y determinar cualquier significado. Sin embargo, tú y yo encontramos significado en ello. La secuencia no es arbitraria ni aleatoria, pero en sí misma no transmite significado sin ser procesada por ciertos medios.
Estoy de acuerdo en que la transmisión debe procesarse por ciertos medios para revelar (si esa es la palabra correcta) el significado que contiene. La parte realmente interesante para mí es comprender cómo se incorpora el significado en la secuencia (que indicará cómo extraerlo y hacerlo permanente en el almacenamiento). Pero no estoy seguro de estar de acuerdo en que el significado pueda determinarse con suficiente texto. Para atacar datos cifrados, cuanto más texto cifrado tenga, mejor, pero no creo que esta idea funcione para el texto y el significado. Bickhard y Terveen escribieron un buen libro sobre esto (llamaron texto, codificación).

Supongo que mucho aquí depende de la definición de "conocimiento" y "comprensión": hoy en día, los autos autónomos ya aprenden sobre su entorno. (Consideré poner "aprender" entre comillas, pero es una práctica común no hacerlo en este contexto). Entonces, para un sentido débil de conocimiento y comprensión, donde solo requerimos (decir) que hay información en el sistema que se correlaciona con el mundo y se utiliza para tomar acciones deseables en el mundo, los sistemas actuales ya lo adquieren. Por supuesto, uno podría estar interesado en un sentido más fuerte de conocimiento y comprensión, tal vez involucrando algo de conciencia . De esto se trata el argumento de Searle, y no vamos a resolver esa discusión aquí...

Probablemente disputaría el reclamo de conducción autónoma. Los conjuntos de entrenamiento de imágenes utilizados para redes neuronales artificiales de aprendizaje profundo están hechos de miles de millones de imágenes, pero por lo general cada una es anotada por un ser humano que ingresa códigos contra tipos de objetos: árbol, señal de alto, peatón, furgoneta, niño, etc. Los buenos conjuntos de entrenamiento son disponible en linea. La anotación humana no es realmente el sistema que adquiere el conocimiento o los sistemas de IA "aprende sobre sus entornos". Parece más parte de un proceso en el que un ser humano define la causalidad del sistema utilizando el conocimiento del ser humano.
En cuanto a la conciencia, sé que Searle ha dedicado algún tiempo a este tema. Pero realmente veo la conciencia como un tema separado de la semántica. Es concebible que un sistema pueda tener una semántica de calidad que le permita sobrevivir en la naturaleza, pero no tiene conciencia. De hecho, ha habido un debate sobre cuál es el beneficio evolutivo de la conciencia. Mientras que el beneficio evolutivo de una semántica es bastante obvio. Veo el CRA como parte del programa para tratar de entender cómo una máquina puede obtener una semántica. ¿No es este un tema anterior, anterior al de la conciencia?

Las respuestas calculables algorítmicamente deben formar parte de sistemas incompletos de Gödel, con enunciados verdaderos pero no demostrables. Pero un extraño sistema de bucles puede formar una jerarquía enredada, una red de refuerzo y duda, como el lenguaje en uso, donde los usos tentativos de los símbolos se utilizan y luego se refinan y se crea un significado relacional y a través de la interacción y el juego.

Cuando nuestros cerebros dejan de recibir información del nervio óptico, no cierran parte del cerebro. (Eventualmente) secuestra y arranca el área para continuar intentando crear un modelo del mundo lo más isomorfo posible, como se demuestra iterativamente, mediante patrones de interacción, referencias cruzadas, etc., es decir, mediante el uso.

Su premisa de que los símbolos están semánticamente vacíos es insostenible, en términos de visualización del lenguaje en la práctica: están imbuidos de él por el uso. Los sistemas matemáticos revelan las consecuencias de enunciados ya hechos, es decir, no generan significado sino que lo desempaquetan. El pensamiento matemático creativo, sin embargo, trabaja hacia delante hasta las consecuencias y hacia atrás hasta los axiomas, y luego de nuevo, en interacción con el mundo, de forma creativa.

Entonces, ¿cómo es posible que una computadora llegue a conocer y comprender el mundo?

A través de la interacción, prueba y error, exploración, heurística. Justo como nosotros. Independientemente de los medios que tuviera para interactuar, serían sentidos, incluidos modelos mentales y simulaciones, que usamos, por ejemplo, en la predicción de movimiento para jugar.

La habitación china es tan inteligente como una baraja de cartas, o un ábaco, digamos. La verdadera Inteligencia Artificial General tendría que estar en un bucle extraño, no en una jerarquía tan plana con reglas definidas explícitas.

Haces algunas afirmaciones interesantes sobre bucles extraños, su formación y su uso. ¿Tienes algunos consejos para la explicación?
@CriglCragl Usted dice "Su premisa de que los símbolos están semánticamente vacíos es insostenible, en términos de visualización del lenguaje en la práctica: están imbuidos de él por el uso". De modo que los símbolos están imbuidos de contenido semántico en virtud del uso de (esos mismos) símbolos. Pero, ¿no es lo que realmente sucede esto: los cerebros se imbuyen de contenido semántico mediante el uso de símbolos externos (y otras cosas)? ¿El contenido no es inherente al símbolo, sino que es inherente al cerebro? Este tema del contenido semántico sensorial parece mucho más primitivo que cualquier comprensión matemática de los procesos y estructuras humanos.
@Roddus Ni el cerebro ni el símbolo. La cultura del uso está entre los dos.
@DavidThornley Lo discutimos aquí en filosofía.stackexchange.com /questions/22926/… Recomiendo especialmente el artículo de Wittgenstein-Nietzsche-Rorty que publiqué allí. Si considera seriamente el trilema de Munchausen, los bucles extraños son la única respuesta. No hay un "lugar correcto para comenzar", solo hay movimientos de refuerzo a través de estructuras de pensamiento que usan varios modos, entrando y saliendo (axiomatización), unificación (regresión) y bucle (razonamiento circular).

Me refiero a que una forma posible de atacarlo sería señalar que, el hecho de que no esté al tanto de la información semántica no significa que no haya información semántica intrínseca al tema.

Así que puedes intentar encontrar patrones dentro del ruido y las relaciones entre los patrones. Para que puedas crear nubes de palabras sin saber lo que significan las palabras. Por ejemplo, si una oración funciona con todos los símbolos de la misma manera, excepto uno, puede inferir que existe una igualdad en algún sentido entre esas dos palabras. Es posible que pueda inferir ideas importantes por la cantidad de conexiones o palabras de relleno por la combinación de que se usan con frecuencia pero la capacidad de quedar fuera de una oración y seguir siendo válida de acuerdo con la sintaxis.

Ahora, un observador humano es capaz de inferir mucho del simple hecho de que esta persona es humana, al igual que las personas que inventaron el idioma, por lo que hay ciertas peculiaridades de la condición humana que podrías inferir que son tan universales que podrías comenzar a intentarlo. para mapearlos.

Pero incluso si ese idioma no fuera chino sino completamente ajeno a cualquier ser humano, aún podría intentar encontrar regularidades, hacer predicciones para la salida, verificar si las predicciones y las respuestas reales coinciden y refinar sus predicciones por eso, es decir, hacer ciencia.

Y hasta cierto punto eso ya está sucediendo con el aprendizaje automático. Le das una entrada a un programa, literalmente adivinan (generan un número aleatorio) y lo emiten. Luego, el usuario les dice la salida real y comparan la suposición y el valor real y cambian su suposición. Entonces, no sé si deben adivinar el resultado de una suma como 2+2, entonces podrían adivinar 3, recibir 4 como respuesta, calcular 4-1 = 1, lo cual es positivo, por lo que cambian sus parámetros para crear un número mayor, digamos 5 donde nuevamente calculan 4 -6 = -2 que es negativo entonces ajustan los parámetros para obtener un número menor pero mayor que 3 y así uno hasta llegar a 4.

Ahora técnicamente todavía no saben cómo sumar, solo saben que 2 en una entrada y 2 en la otra entrada es igual a 4 como salida. Pero por el hecho de que un intercambio de la entrada da como resultado la misma salida, ya necesitaría una simetría intrínseca. Ahora podría estar equivocado asumiendo que esos son números pero en realidad esas son palabras, pero aún así les habría dado algún tipo de significado semántico incluso si fuera incorrecto.

Entonces, si asume que esta no es una comunicación unidireccional, sino que la computadora usa sus salidas para hacer inferencias sobre el entorno, entonces también podría mejorar progresivamente sus conjeturas y asignar significado a cosas que son arbitrarias y sin sentido.