Esta pregunta está motivada por un comentario a una respuesta que di a otra pregunta sobre John Searle y el argumento de la habitación china: ¿ Qué relevancia, si es que tiene alguna, tiene la memoria colectiva en las hormigas para el argumento de la habitación china de John Searle?
Basé mi respuesta a esta pregunta en Minds, Brains and Programs de Searle . Searle escribe:
"Pero, ¿podría algo pensar, comprender, etc. únicamente en virtud de ser una computadora con el tipo correcto de programa? ¿Podría crear una instancia de un programa, el programa correcto, por supuesto, en sí mismo ser una condición suficiente para comprender?" Creo que esta es la pregunta correcta, aunque generalmente se confunde con una o más de las preguntas anteriores, y la respuesta es no.
Creo que Searle se opone a la inteligencia artificial fuerte (IA) porque refutaría el fisicalismo, pero podría estar malinterpretándolo, por eso hago la pregunta.
Con el fisicalismo, nuestra conciencia (incluida la comprensión del lenguaje) emergería de nuestros cuerpos de una forma actualmente desconocida. La IA fuerte sería una forma de que la conciencia no emerja de nuestros cuerpos, sino que sea únicamente el resultado de un programa de computadora.
¿Searle se opone a la IA fuerte porque si la IA fuerte fuera cierta, eso refutaría el fisicalismo? ¿O está pasando algo más que me estoy perdiendo?
Searle, JR (1980). Mentes, cerebros y programas. Ciencias del comportamiento y del cerebro, 3(3), 417-424.
Tienes razón en que Searle es un fisicalista. Aquí, de "Por qué no soy un dualista de propiedades", Searle lo hace muy explícito:
También quiero decir que la conciencia no es más que un proceso neurobiológico, y con eso quiero decir que precisamente porque la conciencia es cualitativa, subjetiva, irreductiblemente fenomenológica (hada aérea, tacto sensible, etc.) tiene que ser un proceso neurobiológico; porque, hasta el momento, no hemos encontrado ningún sistema que pueda causar y realizar estados conscientes excepto los sistemas cerebrales. Tal vez algún día seremos capaces de crear artefactos conscientes, en cuyo caso los estados subjetivos de conciencia serán características “físicas” de esos artefactos.
La objeción de Searle a la IA fuerte no se debe a ningún desafío al fisicalismo que pueda tener, sino a que utiliza una definición incorrecta y funcional de la conciencia. Searle acepta nuestros datos empíricos, que "la conciencia es cualitativa, subjetiva, irreductiblemente fenomenológica (hada aireada, sensitiva sensible, etc.)". Por lo tanto, el funcionalismo no se trata de la conciencia, sino de la inteligencia.
Aquí hay un enlace al ensayo de Searle: http://faculty.wcas.northwestern.edu/~paller/dialogue/propertydualism.pdf
Conifold
rus9384
Beto