Informática, Inteligencia Artificial y Epistemología

Algunos esquemas de clasificación no enumeran la lógica como una rama separada de la filosofía. Supongo que consideran la lógica como un componente de la epistemología.

Por supuesto, otros consideran la lógica como una rama separada. La siguiente discusión toca algunas de las diferencias entre epistemología y lógica:

¿La epistemología = lógica?

Se me ocurrió que las computadoras usan la lógica, pero no están asociadas con la "inteligencia". Por supuesto, la inteligencia artificial podría cambiar eso. Pero, por el momento, la mayoría de las computadoras funcionan con lógica, lo que requiere que los operadores humanos ingresen inteligencia.

Por otro lado, las computadoras también pueden funcionar como bibliotecas portátiles, con grandes almacenes de conocimiento.

¿Algún filósofo o doctrina ha examinado la relación entre las computadoras y la epistemología? O, para decirlo de otra manera, ¿cuáles son las diferencias entre las computadoras y los humanos en el ámbito de la epistemología?

Las computadoras intercambian bits y los humanos proporcionan el significado. ¿No es ese el punto de Searle en la Sala China? Cuando dices que los humanos proporcionan inteligencia, eso es engañoso... la inteligencia y el significado no son exactamente lo mismo. Tal vez esa es la pregunta.
El antiguo sentido de "lógica" (usado desde Platón hasta Kant, Hegel y Husserl) estaba más cerca de lo que ahora se llama "epistemología" que de lo que ahora se llama estrictamente "lógica", ver ¿Cuáles son las diferencias entre las filosofías que presuponen una Lógica versus muchas logicas? De manera similar, en el sentido tradicional de "conocimiento" (creencia verdadera justificada), las computadoras no tienen ninguno. La pregunta se aborda en parte por cómo debe cambiarse para eliminar la "creencia", consulte ¿Los algoritmos de aprendizaje automático tienen conocimiento?
No parece un tema difícil. Las computadoras no pueden saber nada mientras que los humanos sí. Si la epistemología es el estudio de cómo conocemos las cosas y qué sabemos, entonces no tiene nada que ver con las computadoras. No es la lógica la que nos permite conocer las cosas, sino la capacidad de conocer las cosas que viene con la conciencia, o simplemente es la conciencia. .
@PeterJ, mi computadora sabe dónde he estado durante los últimos 10 años.
@Hierarchist - Mis zapatos saben dónde he estado.
@PeterJ ¿Lo hacen? No me parece.
@gnasher729, pete está tratando de equiparar los zapatos con las computadoras para mostrar que las computadoras no saben dónde he estado. Por supuesto, pete cometiendo la falacia de la falsa equivalencia porque los zapatos no son computadoras.

Respuestas (1)

Usted habla de IA como si requiriera inteligencia a nivel humano para plantear preguntas epistemológicas cuando el nivel tecnológico actual de robots y aprendizaje automático ya las ha planteado. Algunos filósofos ya han aceptado ver que el estado actual de la tecnología tiene implicaciones epistemológicas. En su artículo Epistemología e inteligencia artificial , Wheeler y Pereira afirman que las implicaciones metafísicas de la estrecha IA existente plantean serias cuestiones filosóficas:

En este ensayo avanzamos la visión de que la epistemología analítica y la inteligencia artificial son disciplinas complementarias. Ambos campos estudian las relaciones epistémicas, pero mientras que la inteligencia artificial aborda este tema desde la perspectiva de comprender las propiedades formales y computacionales de los marcos que pretenden modelar alguna relación epistémica u otra, la epistemología tradicional aborda el tema desde la perspectiva de comprender las propiedades de las relaciones epistémicas en términos de sus propiedades conceptuales. Argumentamos que estas dos prácticas no deben llevarse a cabo de forma aislada.

La pregunta de por qué algunas personas podrían desdeñar las computadoras como meros jugueteadores puede demostrar presunciones sobre el estado de la capacidad de las computadoras para simular significado e inteligencia. Se presupone que, dado que las computadoras no entienden los símbolos (que es incluso una pregunta abierta dada la discutible noción de "comprensión"), simplemente no son inteligentes en su forma actual. Intuitivamente, dado que pueden pensar mejor que los maestros de ajedrez y superar a los diagnosticadores como los médicos, ciertamente surge la pregunta de por qué podemos estar seguros de que eventualmente no pueden manifestar ninguna inteligencia, sentido común, emocional o de otro tipo. Ciertamente, los materialistas eliminativoscomo Dennett han planteado objeciones de que las afirmaciones de la singularidad de la inteligencia humana basadas en nociones de creencia o deseo pueden ni siquiera ser significativas.

Además, los científicos cognitivos como Ray Jackendoff han propuesto hipótesis comprobables empíricamente sobre los orígenes de la referencia, la verdad y el significado que han confirmado que el fracaso del campo simbolista en la producción de IA a nivel humano se deriva del hecho de que la representación humana y el significado en sí mismo generalmente no simbólico. En la página 423 de sus Fundamentos del lenguaje , afirma:

.. ha sido importante... abandonar la idea de que las entidades lingüísticas en el cerebro son símbolos o representaciones . En cambio, hemos podido tratarlos simplemente como estructuras construidas a partir de unidades combinatorias discretas.

Esto, por supuesto, valida las antiguas convicciones del campo conexionista .

La cuestión de si nuestras computadoras saben y son inteligentes está abierta a la exploración filosófica en la línea de la cuestión filosófica de la intencionalidad. Este es un tema difícil debido a las definiciones variadas e imprecisas de conocimiento (¿está justificada la creencia verdadera?), inteligencia (¿qué significa decir que una persona es inteligente?) e intencionalidad (¿no tienen las computadoras la capacidad de usar -medios simbólicos como sensores para generar percepciones para representar el estado de cosas?). Del artículo de la SEP sobre intencionalidad :

En filosofía, la intencionalidad es el poder de las mentes y los estados mentales para tratar, representar o representar cosas, propiedades y estados de cosas. Decir de los estados mentales de un individuo que tienen intencionalidad es decir que son representaciones mentales o que tienen contenidos.

Esta pregunta sobre la intencionalidad se complica por el hecho de que todavía ni siquiera está claro científicamente cómo las personas poseen intencionalidad.

Otro conjunto de cuestiones filosóficas gira en torno al problema de la puesta a tierra del símbolo . Es difícil comparar la capacidad de un sistema informático para tener significado o conocimiento, cuando el mismo problema es controvertido para las personas. Descartar de plano que las computadoras no tienen la capacidad de tener conocimiento cuando uno no puede explicar cómo las personas tienen conocimiento puede ser egocentrismo. ¿Hay realmente algo especial en la conciencia o intencionalidad humana que no pueda ser recreado por un equivalente funcional ? Es en gran medida una controversia filosófica abierta en la filosofía de la mente qué constituye la conciencia y qué variedades podría haber . El reclamo de John Searle a la fama con sus diversos argumentos de la habitación chinapuede ser que haya sido el filósofo más refutado en el campo. Todas estas son extensiones recientes de la cuestión epistemológica de larga data con respecto a la certeza de que incluso otras personas tienen mente .

Comenzando en los primeros días de las computadoras electrónicas en Caltech a fines de la década de 1940, hasta mediados y fines de la década de 1950 en lugares como Dartmouth o el Laboratorio Nacional de Física en el Reino Unido, surgió el optimismo de que las computadoras comenzarían a acercarse rápidamente a la inteligencia humana. Diez años más tarde, Hubert Dreyfus, que trabajaba para RAND, escribió Alchemy and Artificial Intelligence y desinfló el optimismo que ha durado hasta hace poco, cuando un creciente cuerpo de investigadores de IA ha estado argumentando nuevamente que la inteligencia artificial general es posible:

Algunas autoridades enfatizan una distinción entre IA fuerte e IA aplicada (también llamada IA ​​estrecha o IA débil): el uso de software para estudiar o realizar tareas específicas de resolución de problemas o razonamiento. La IA débil, en contraste con la IA fuerte, no intenta realizar la gama completa de habilidades cognitivas humanas... A partir de 2017, más de cuarenta organizaciones estaban investigando sobre AGI.

Ciertamente, muchos expertos en IA han aceptado que las computadoras como las PC de escritorio, incluso si son capaces de representar el conocimiento , generalmente carecen de comprensión. Poole y Mackworth de su Inteligencia Artificial: Fundamentos de Agentes Computacionales dicen en la página 179:

Es muy importante entender que hasta que consideramos computadoras con percepción y la capacidad de actuar en el mundo, la computadora no conoce el significado de los símbolos. Es el ser humano el que da significado a los símbolos. Sin embargo... puede sacar conclusiones que son verdaderas en el mundo.

Tenga en cuenta la frase "hasta que consideremos la percepción y la capacidad de actuar en el mundo". ¿ Está realmente tan seguro de que el Atlas de Boston Dynamics no manifiesta intencionalidad ? Al principio de su texto en la página 10:

La ciencia de la IA podría describirse como "psicología sintética", "filosofía experimental" o "epistemología computacional"... Las computadoras modernas brindan una forma de construir los modelos sobre los cuales los filósofos solo han podido teorizar.

La idea de que las arquitecturas informáticas actuales son solo terminales tontas parece ser paralela a la proposición cartesiana fuertemente desacreditada de que los animales son solo autómatas porque no tienen alma . Descartes parece estar equivocado sobre los animales, así como sobre la dualidad mente-cuerpo. Si está interesado en el estado actual de la investigación filosófica sobre las computadoras, indague un poco más en https://philpapers.org/browse/philosophy-of-artificial-intelligence .

Los avances de la IA y los de la lingüística cognitiva que ataca los orígenes computacionales del significado combinados plantean serias dudas sobre la viabilidad de que las computadoras manifiesten intencionalidad y capacidad epistémica.

VER TAMBIÉN

¿Los algoritmos de aprendizaje automático tienen conocimiento (si no creencias verdaderas justificadas)?

He votado a favor porque creo que es un intento serio de abordar la pregunta. Parece absolutamente correcto que el campo haya considerado formulaciones alternativas de contenido intencional y cómo estas teorías podrían plantear una conexión entre la manipulación de símbolos y la adquisición de conocimiento. Tal vez esté tratando de hacer demasiado en un espacio de caracteres corto, pero supongo que esa es la naturaleza de la pregunta.
Agradezco los comentarios. La naturaleza de la pregunta parece plantear un dilema al suponer que el estado actual de la inteligencia artificial no es suficiente para contribuir a las deliberaciones epistemológicas cuando claramente hay un cuerpo pequeño pero activo de filósofos trabajando para avanzar en el campo y luego abordar una metafísica. de la intencionalidad y de la propia inteligencia. Veo un prejuicio filosófico en contra de indagar sobre la naturaleza general de la intencionalidad de las computadoras principalmente enraizado en la definición laica de las computadoras, que a menudo se equiparan como "meras herramientas". Gracias por tu voto a favor.