Desde un punto de vista funcionalista: ¿cuándo un algoritmo es una IA y cuándo es solo software?

Recientemente, The Atlantic publicó un artículo que afirma que "Google enseñó una IA que clasifica fotos de gatos para analizar el ADN" . Cuando miras el artículo original publicado por el equipo de Google, lo que realmente hicieron fue tomar un modelo de red neuronal que normalmente se usa para la clasificación de imágenes y aplicarlo para clasificar datos de ADN (ver también esta desacreditación del artículo de The Atlantic ). Desde un punto de vista, puede afirmar que usaron "una IA" para analizar los datos de ADN, desde otro, simplemente aplicaron un modelo matemático más avanzado que los utilizados anteriormente (aproximadores universales frente a modelos paramétricos).

Esto plantea la pregunta: suponiendo que la teoría computacional de la mente y el funcionalismo sean ciertos, ¿hay alguna forma de discriminar los algoritmos que son solo software y modelos matemáticos de los algoritmos que califican como IA?

Una respuesta directa a esto es obvia: es una IA si pasa la prueba de Turing (o alguna variación moderna más avanzada), de lo contrario, es solo software.

Pero más allá de la prueba de Turing, parece haber otro problema con el artículo de The Atlantic: decir que "una IA" hizo esto o aquello implica que la red neuronal que usaron tenía cierto nivel de agencia o autonomía, cuando en realidad era una red completamente inerte. programa que se inicia y se detiene en función de un conjunto de parámetros e instrucciones predefinidos.

Lo mismo se aplica a Alexa de Amazon: no responde a ninguna comunicación a menos que alguien comience su oración con la palabra "Alexa". Nunca comienza a comunicarse por sí solo o se inserta espontáneamente en una conversación.

Mis preguntas:

  1. ¿Este aspecto de autonomía/agencia de un programa realmente permite distinguir la IA inteligente del "solo software"?
  2. ¿Se ha estudiado la cuestión de la agencia en filosofía de la mente y filosofía de la inteligencia artificial?
  3. ¿Cómo se relaciona la agencia (como se describe arriba) con la intencionalidad y con la postura intencional de Daniel Dennett?

Dennett dice en "La postura intencional" que: " primero decides tratar el objeto cuyo comportamiento se va a predecir como un agente racional; luego determinas qué creencias debería tener ese agente, dado su lugar en el mundo y su propósito ". . " pero, ¿podemos tratar un objeto como un agente con un propósito si no tiene la autonomía que describí anteriormente?

  1. Del mismo modo, ¿cómo se relaciona esto con la noción de Chalmers de zombi filosófico? ¿Por qué podría imaginarse que tal autonomía puede servir para discriminar entre zombis filosóficos y humanos, ya que los zombis actúan como si fueran autónomos, pero no están siendo conducidos por un agente autónomo en el "interior" (Vea mi publicación anterior sobre "zombis de libre albedrío" ) ?

Respuestas (5)

La posición de los funcionalistas sobre la IA es similar a la posición de los compatibilistas sobre el libre albedrío en dos aspectos importantes. Primero, se distancian de la idea cartesiana de que hay alguna "sustancia" o "esencia" extra especial allí, y disocian lo que está tan agrupado en efectos que pueden modelarse por partes causal y/o computacionalmente. En segundo lugar, como consecuencia de lo primero, para ellos no existe una línea clara entre la inteligencia y la no inteligencia, así como no hay una línea clara entre la libertad y la no libertad, sólo hay un continuo con extremos y umbrales colocados pragmáticamente. Aproximadamente, cuanto más útil sea la conversación de agencia y otro vocabulario intencional para describir y anticipar el comportamiento de un sistema, más probable es que se clasifique como IA. La prueba de Turing, en su forma clásica apoyándose únicamente en conversaciones, es insuficiente, tiene que extenderse a la totalidad del comportamiento, incluidas las acciones y respuestas no verbales que muestran ciertos niveles de sensibilidad a los cambios en el entorno y complejidad para adaptarse a ellos, aprendiendo de ellos. experiencia por así decirlo.

Esto no es, en principio, diferente de inferir agencia e intencionalidad en otras personas. El funcionalismo es oficialmente agnóstico en cuanto a cómo se implementa la función, en este sentido Kant fue un funcionalista sobre lo mental. Aunque la teoría computacional de la mente sugiere fuertemente alguna forma de implementación material e incluso puede ir de la mano con el fisicalismo eliminativo, técnicamente no está casada con ninguno de los dos. Pero cualquiera que sea la creencia de uno sobre la base subyacente de la agencia, en la práctica nos guiamos por patrones observables de comportamiento y adoptamos un lenguaje intencional cuando funciona. Esto está detrás de la aquiescencia del difunto Quine al "lenguaje mentalista" en En busca de la verdad :

Sin embargo, los predicados mentalistas, a pesar de toda su vaguedad, han interactuado entre sí durante mucho tiempo, engendrando estrategias milenarias para predecir y explicar la acción humana. Complementan las ciencias naturales en su forma inconmensurable y son indispensables tanto para las ciencias sociales como para nuestras ciencias. tratos cotidianos. Lee a Dennett y Davidson " .

Davidson es, por supuesto, un materialista no eliminativo que cree en descripciones mentales irreductibles, y Dennett es un campeón de la intencionalidad como si . En cuanto al resto de las preguntas OP, el capítulo AI in Context del libro de Alison Adam, Artificial Knowing , las aborda directamente:

" La postura intencional de Dennett ofrece una cláusula de salida, una forma de actuar como si ciertos objetos tuvieran intencionalidad sin preocuparse de si realmente la tienen. Adoptar una postura intencional hacia algo es una forma de otorgarle cierto nivel de agencia. Creo que La posición de Dennett toca una fibra sensible tanto con las ideas de Collins como con la investigación reciente en la teoría de la red de actores.. Me sorprende encontrar que ningún cuerpo de trabajo se refiere a los escritos de Dennett a pesar de que parece prestar un apoyo tan obvio. Bajo este punto de vista, ya no tenemos que preocuparnos de si una máquina u otro objeto realmente puede pensar; en cambio, nos preocupamos por la idoneidad de designarlo como un sistema intencional, o en el lenguaje de la TAR, nos preocupamos por otorgarle agencia. El trabajo que se propone ANT es otorgar derechos al mundo de los objetos, aunque el proceso de delegación lo realizan los humanos: ver que el conocimiento y la sociabilidad no son propiedades solo de los humanos, sino de los humanos acompañados de esos objetos que son humanidad delegada.

[...] Hay algunos puntos interesantes de contraste aquí, ya que es como si las ciencias sociales y la IA hubieran descubierto por separado la idea de agencia casi al mismo tiempo. Tanto en el popular subdominio de la IA distribuida (DAI), donde el conocimiento se distribuye a través de varias bases de conocimiento, o donde agentes inteligentes actúan en conjunto para resolver un problema, como en robótica, es curioso ver que el lenguaje de agencia y la intencionalidad abunda, posiblemente mucho más que en otras áreas de la IA simbólica. ¿Por qué esto es así? Parece surgir, no tanto de una voluntad de otorgar derechos a los objetos a la manera de algunos sociólogos continentales, sino más bien de una voluntad de importar modelos sociológicos en el diseño de sus sistemas.

Dejando de lado la cuestión de si los modelos sociológicos empleados serían vistos como demasiado simplificados hasta el punto de la ingenuidad por parte de los sociológicamente sofisticados, sostengo que usar el lenguaje de la agencia permite un uso del lenguaje intencional, casi por prestidigitación. Si llama a algo un 'agente', entonces puede usar términos intencionales sin examinarlos, sin justificarlos y, de hecho, sin fundamentarlos. Dichos términos se pueden usar de una manera puramente operativa y luego se puede permitir que la metáfora de su funcionalismo se deslice hacia una realidad. Ahora bien, esto podría no ser un problema para los sociólogos de la ANT, pero otros, como Forsythe, en su crítica de la postura positivista hacia el conocimiento adoptada por los ingenieros del conocimiento en su estudio, encontrarían la misma falla en el trabajo aquí. Y por supuesto, Searle, el archi-intencionalista, no tendría ningún camión con tal prestidigitación intencional. No lo permitiría entrar en un robot que canta y baila, así que dudo que lo dejara entrar por la puerta trasera aquí".

"La posición de los funcionalistas sobre la IA es similar a la posición de los compatibilistas sobre el libre albedrío [...] para ellos no hay una línea clara entre la inteligencia y la no inteligencia así como no hay una línea clara entre la libertad y la no libertad, no hay es sólo un continuo con extremos y umbrales colocados pragmáticamente". ¡Exactamente! los filósofos pueden salirse con la suya con la falta de líneas brillantes, pero la sociedad no puede. Y así como existen líneas arbitrarias y brillantes para la responsabilidad moral, muy pronto será necesario que haya líneas brillantes para las cuales se puede considerar que los sistemas tienen agencia y cuáles no.
Creo que las líneas no son de responsabilidad moral sino legal , y la ley se basa explícitamente en las prioridades sociales, los costos de aplicación, etc., además de la moralidad, para trazarlas. Además, no se basan en un principio ético, los "elementos de un delito" describen principalmente acciones manifiestas. Sin duda, también se pueden idear algunas especificaciones externas de este tipo para la IA, por ejemplo, en función de la complejidad, la capacidad de respuesta, la adaptabilidad a nuevas situaciones, etc. Agregué un poco a la publicación para abordar eso.

Sobre Agencia, Autonomía e IA

Buena pregunta. Creo que no hay respuesta a eso ya que es una cuestión de definición. . Aquellos que tienen esperanzas en la IA tienden a usar la palabra para describir software complicado, y si son un poco quisquillosos, restringen el término al software que puede 'aprender', no es que una computadora sepa que ha aprendido algo.

  1. ¿Este aspecto de autonomía/agencia de un programa realmente permite distinguir la IA inteligente del "solo software"?

Creo que si alguna pieza de software exhibiera agencia y autonomía, estaría tentado a otorgarle IA. Pero este es un tema profundo. Muchos filósofos cuestionan si los seres humanos son agentes y esto incluiría a todos en la tradición perenne. La agencia es ilusoria para este punto de vista.

  1. ¿Se ha estudiado la cuestión de la agencia en filosofía de la mente y filosofía de la inteligencia artificial?

No con mucho efecto afaik. La mayoría de los filósofos occidentales simplemente asumen la agencia y rara vez profundizan tanto en la conciencia como para comenzar a cuestionar la idea en su totalidad. Pero habrá mucho trabajo del que no estoy al tanto.

  1. ¿Cómo se relaciona la agencia (como se describe arriba) con la intencionalidad y con la postura intencional de Daniel Dennett?

Me parece que la agencia sería imposible sin la intencionalidad.

  1. Dennett dice en "La postura intencional" que: "primero decides tratar el objeto cuyo comportamiento se va a predecir como un agente racional; luego determinas qué creencias debería tener ese agente, dado su lugar en el mundo y su propósito". ." pero ¿podemos tratar un objeto como un agente con propósito si no tiene la autonomía que describí anteriormente?

Esta puede ser tu elección. Dennett parece abogar por hacer suposiciones sobre la agencia de los objetos y desarrollar una fantasía sobre sus creencias, propósito y lugar en el mundo. Dudaría que un objeto pueda tener creencias y encontraría todo el enfoque muy poco científico. Estoy de acuerdo con usted en que, a menos que veamos cierta autonomía, incluso si en última instancia es ilusoria, parecerá un software común.

  1. Del mismo modo, ¿cómo se relaciona esto con la noción de Chalmers de zombi filosófico? ¿Por qué podría imaginar que tal autonomía puede servir para discriminar entre zombis filosóficos y humanos, ya que los zombis actúan como si fueran autónomos, pero no están siendo conducidos por un agente autónomo en el "interior"? (Vea mi publicación anterior sobre "zombis de libre albedrío") ?

No hay forma de hacer esta discriminación ya que los zombis se definen como indistinguibles de los humanos. Si creemos que los zombis son posibles y son un concepto coherente, también debemos creer que sería imposible saber si una computadora o un ser humano es consciente o tiene autonomía y agencia. Si los zombis son posibles, entonces es posible que los seres humanos sean zombis y no habría forma de descartar esta posibilidad.

Siento que los zombis de Chalmers están mejor relegados al reino de los unicornios y los monstruos de espagueti. En cuanto a cómo distinguir entre el software y la IA, es una cuestión de definición y las definiciones varían. Diría que no se debe hacer ninguna distinción entre el software y lo que la mayoría de la gente llama IA. La mayoría de las formas de IA podrían reproducirse en un ábaco si fuera lo suficientemente grande y tuviera un motor. Un 'embaucamiento de Bah' estacional sería mi respuesta.

Definiciones

Aprendizaje: la adquisición de conocimientos o habilidades a través de la experiencia, el estudio o la enseñanza.

Argumento principal

La inteligencia artificial es un campo que intenta imitar la inteligencia animal o humana en el software. Una cosa que diferencia a la IA de otros tipos de algoritmos es que la IA aprende. Otras formas de algoritmos no lo hacen. Debido a esta diferencia, la IA es útil cuando no necesariamente conocemos todos los detalles del problema que estamos tratando de abordar.

Hay dos tipos de IA, el aprendizaje automático básico y la inteligencia artificial general. Cuando comenzó el campo de la IA, AGI era esencialmente el tipo de IA. En estos días, la atención se centra en el aprendizaje automático básico, utilizando métodos como redes neuronales artificiales. Hay preguntas filosóficas sobre si podemos o no producir un verdadero AGI, y hay una prueba básica, la Prueba de Turing, que intenta ver si tenemos éxito o no.

Independientemente, la diferencia clave entre un algoritmo general y una IA es que una IA está diseñada para aprender .

Refutación

Las técnicas básicas de regresión lineal no son IA porque no aprenden. No establece una técnica de regresión lineal por sí sola y hace que aprenda a medida que avanza. Es un sistema pre-modelado. Las redes neuronales pueden hacer regresión lineal y hacerlo solo sobre la marcha y, por lo tanto, aprenden.

TimB argumenta que "las redes neuronales y otros no 'aprenden'; recopilan datos. Luego son capaces de usar esos datos en la próxima 'iteración' de su algoritmo". Sin embargo, eso es exactamente lo que es el aprendizaje: tomar datos y usarlos en la próxima iteración del proceso de toma de decisiones.

TimB y otros también parecen aceptar solo AGI, pero esta pregunta es, al menos parcialmente, una pregunta de informática, por lo que la definición se basa en gran medida en el campo de la IA en informática. El campo distingue entre IA débil y fuerte, o AGI vs AI como lo describí anteriormente ( Computer World ). Una IA no tiene que actuar como un ser humano. Solo necesita poder realizar algún tipo de tarea de aprendizaje que un humano podría.

Inteligencia Animal

Pasando del argumento de la informática, considere lo siguiente. Es cierto que generalmente medimos la inteligencia usando nuestra comprensión de la inteligencia humana como paradigma, pero admitimos que muchas otras criaturas son inteligentes, solo que de diferentes maneras. Es importante fijarse en este punto si queremos ver en qué consiste la inteligencia. Si usamos la prueba de Turing para determinar si algo es "IA", incluso nuestros parientes cercanos fallarían la prueba de Turing. ¿Significa eso que los primates, aparte de los humanos, no son inteligentes?

No estoy de acuerdo: un modelo de regresión lineal simple aprende de los datos de la misma manera que lo hace una red neuronal o un sistema de recomendación avanzado, pero nadie llamaría a la regresión lineal "IA".
Estoy de acuerdo con @AlexanderSKing, pero lo llevaría un paso más allá. Los modelos de regresión, las redes neuronales y otros no "aprenden"; recopilan datos. Luego, son capaces de usar esos datos en la siguiente 'iteración' de su algoritmo. Esto les permite refinar sus respuestas, pero no formular nuevas preguntas. El aprendizaje humano se define por hacer mejores preguntas, sin saber más cosas, razón por la cual se ha producido el efecto Flynn en los estudios de coeficiente intelectual; en última instancia (en mi opinión) muestra que nuestra definición de inteligencia está demasiado sesgada por el conocimiento en lugar de por lo que podemos hacer con él.
Los modelos de regresión lineal no aprenden. Están preconstruidos a mano. Las redes neuronales pueden hacer una regresión lineal sobre la marcha y, por lo tanto, aprenden.
Y dices que las redes neuronales, etc. toman datos y los usan para hacer mejores predicciones en el futuro: ¿qué diablos crees que es aprender, @TimB?
@DanielGoldman; aprender es desarrollar nuevas habilidades, no adquirir nuevos conocimientos. No es aprender a menos que puedas hacer algo nuevo con él; las redes neuronales simplemente incorporan nuevos datos en un algoritmo existente. Puedo agregar nuevos datos a un disco duro, no significa que haya aprendido algo.
Aprendizaje: la adquisición de CONOCIMIENTOS o habilidades a través de la experiencia, el estudio o la enseñanza".

Permítanme comenzar diciendo que todos los algoritmos son "solo software".

Hay dos tipos de software: 1) Software que realiza la misma función con el tiempo, y 2) uno cuya función cambia con el tiempo.

Para el primer tipo, el programador proporciona la "inteligencia" para la función. Para el segundo tipo, el programador proporciona algunas funciones básicas y los medios para que las funciones se cambien a sí mismas (código automodificable).

El código automodificable es el requisito "crítico" para poder implementar algún nivel/versión de IA. Por lo tanto, si después de un intervalo de tiempo de ejecución, examina el código/función de la computadora y ha cambiado, entonces tiene capacidad de IA, si es lo mismo, entonces no.

Considere las preguntas específicas.

Pregunta 2: ¿Se ha estudiado la cuestión de la agencia en filosofía de la mente y filosofía de la inteligencia artificial?

Independientemente de lo que se haya hecho, uno puede comenzar a cuestionarlo ahora definiendo la elección de un agente de libre albedrío y el estado de una máquina determinista. Las siguientes definiciones son provisionales, especialmente el uso de "algo".

Definir la elección de un agente de libre albedrío como algo para lo que no existe una explicación completa .

Definir el estado de una máquina determinista como algo para lo que existe una explicación completa .

Una respuesta a la primera pregunta se deriva de estas definiciones.

Pregunta 1: ¿Este aspecto de autonomía/agencia de un programa realmente permite distinguir la IA inteligente del "solo software"?

Dado que no existe una explicación completa para las elecciones realizadas por un agente de libre albedrío, pero sí existen explicaciones completas para los estados de una máquina determinista, las máquinas deterministas no son agentes de libre albedrío. Eso implica que no hay forma, basada en la agencia, de distinguir la IA inteligente del simple software. Tanto la "IA inteligente" como el "solo software" son máquinas deterministas y no agentes de libre albedrío.

Pregunta 3: ¿Cómo se relaciona la agencia (como se describe arriba) con la intencionalidad y la postura intencional de Daniel Dennett?

Dennett, según la cita proporcionada, aparentemente necesita un "agente racional" para obtener intencionalidad y quizás agencia.

¿Son los agentes en general “racionales”? ¿Los agentes en general tienen un cerebro? Estas preguntas no son meramente retóricas. Tenga en cuenta que el "Teorema del fuerte libre albedrío" de John Conway y Simon Kochen demostró que si los humanos tienen libre albedrío, también lo tienen las partículas cuánticas. Las partículas cuánticas no tienen cerebro. No son racionales. Un cerebro no es necesario para la agencia.

Cuando Dennett restringe los agentes a "agentes racionales", sospecho que está simplificando el problema para poder explicarlo de manera inteligible con su teoría. Tales simplificaciones pueden producir resultados que no reflejan adecuadamente la realidad. Es decir, las explicaciones de Dennett pueden no ser explicaciones correctas ni explicaciones completas, aunque pueden ser útiles para la IA. La corrección y la integridad de sus explicaciones de la realidad humana requieren justificación.

En las próximas referencias a Alan Turing y Jonathan Haidt, argumentaré por qué tal justificación puede no ser posible.

“Computing Machinery and Intelligence” de Turning expresa una preocupación por las percepciones extrasensoriales:

Una vez que uno los ha aceptado no parece un gran paso creer en fantasmas y fantasmas. La idea de que nuestros cuerpos se mueven simplemente de acuerdo con las leyes conocidas de la física, junto con algunas otras aún no descubiertas pero algo similares, sería una de las primeras en desaparecer.

No niega la percepción extrasensorial, pero ofrece lo siguiente como una solución.

Se puede decir en respuesta que muchas teorías científicas parecen seguir siendo viables en la práctica, a pesar de chocar con la ESP; que, de hecho, uno puede llevarse muy bien si se olvida de ello. Este es un consuelo bastante frío, y uno teme que el pensamiento sea precisamente el tipo de fenómeno en el que la percepción extrasensorial puede ser especialmente relevante.

Puede que no sea solo "pensar", sino también elegir. Nótese que Turing no niega la existencia de la percepción extrasensorial aunque no la encuentra inteligible o significativa en términos de su teoría. Se enfrenta a la posibilidad de que su enfoque no sea completo o incluso preciso.

“The Righteous Mind” de Haidt plantea preguntas sobre nuestra racionalidad humana. Su conferencia, "El engaño racionalista" , resume su posición.

Si Dennett está tratando de explicar a los seres humanos como "agentes racionales", es posible que no esté explicando la realidad humana como realmente es, aunque sus explicaciones pueden funcionar bien para la IA.

Pregunta 4: Del mismo modo, ¿cómo se relaciona esto con la noción de Chalmers de zombi filosófico? ¿Por qué podría imaginar que tal autonomía puede servir para discriminar entre zombis filosóficos y humanos, ya que los zombis actúan como si fueran autónomos, pero no están siendo conducidos por un agente autónomo en el "interior"? (Vea mi publicación anterior sobre "zombis de libre albedrío")

Dado el teorema de Conway-Kochen, vale la pena separar el libre albedrío de otras formas de subjetividad, ya que hay resultados que pertenecen solo al libre albedrío.

Considere una partícula cuántica que tiene libre albedrío. Tales partículas pueden ser aproximaciones cercanas a lo que podría ser un zombi de libre albedrío. Hay al menos dos objeciones a decir que son zombis de libre albedrío. (1) Un zombi de libre albedrío es un p-zombie. Se supone que un p-zombie es un ser humano. Una partícula cuántica no es un ser humano. (2) Uno necesita verificar que no hay nada más en la subjetividad de las partículas cuánticas que la agencia del libre albedrío.