Algunos esquemas de clasificación no enumeran la lógica como una rama separada de la filosofía. Supongo que consideran la lógica como un componente de la epistemología.
Por supuesto, otros consideran la lógica como una rama separada. La siguiente discusión toca algunas de las diferencias entre epistemología y lógica:
Se me ocurrió que las computadoras usan la lógica, pero no están asociadas con la "inteligencia". Por supuesto, la inteligencia artificial podría cambiar eso. Pero, por el momento, la mayoría de las computadoras funcionan con lógica, lo que requiere que los operadores humanos ingresen inteligencia.
Por otro lado, las computadoras también pueden funcionar como bibliotecas portátiles, con grandes almacenes de conocimiento.
¿Algún filósofo o doctrina ha examinado la relación entre las computadoras y la epistemología? O, para decirlo de otra manera, ¿cuáles son las diferencias entre las computadoras y los humanos en el ámbito de la epistemología?
Usted habla de IA como si requiriera inteligencia a nivel humano para plantear preguntas epistemológicas cuando el nivel tecnológico actual de robots y aprendizaje automático ya las ha planteado. Algunos filósofos ya han aceptado ver que el estado actual de la tecnología tiene implicaciones epistemológicas. En su artículo Epistemología e inteligencia artificial , Wheeler y Pereira afirman que las implicaciones metafísicas de la estrecha IA existente plantean serias cuestiones filosóficas:
En este ensayo avanzamos la visión de que la epistemología analítica y la inteligencia artificial son disciplinas complementarias. Ambos campos estudian las relaciones epistémicas, pero mientras que la inteligencia artificial aborda este tema desde la perspectiva de comprender las propiedades formales y computacionales de los marcos que pretenden modelar alguna relación epistémica u otra, la epistemología tradicional aborda el tema desde la perspectiva de comprender las propiedades de las relaciones epistémicas en términos de sus propiedades conceptuales. Argumentamos que estas dos prácticas no deben llevarse a cabo de forma aislada.
La pregunta de por qué algunas personas podrían desdeñar las computadoras como meros jugueteadores puede demostrar presunciones sobre el estado de la capacidad de las computadoras para simular significado e inteligencia. Se presupone que, dado que las computadoras no entienden los símbolos (que es incluso una pregunta abierta dada la discutible noción de "comprensión"), simplemente no son inteligentes en su forma actual. Intuitivamente, dado que pueden pensar mejor que los maestros de ajedrez y superar a los diagnosticadores como los médicos, ciertamente surge la pregunta de por qué podemos estar seguros de que eventualmente no pueden manifestar ninguna inteligencia, sentido común, emocional o de otro tipo. Ciertamente, los materialistas eliminativoscomo Dennett han planteado objeciones de que las afirmaciones de la singularidad de la inteligencia humana basadas en nociones de creencia o deseo pueden ni siquiera ser significativas.
Además, los científicos cognitivos como Ray Jackendoff han propuesto hipótesis comprobables empíricamente sobre los orígenes de la referencia, la verdad y el significado que han confirmado que el fracaso del campo simbolista en la producción de IA a nivel humano se deriva del hecho de que la representación humana y el significado en sí mismo generalmente no simbólico. En la página 423 de sus Fundamentos del lenguaje , afirma:
.. ha sido importante... abandonar la idea de que las entidades lingüísticas en el cerebro son símbolos o representaciones . En cambio, hemos podido tratarlos simplemente como estructuras construidas a partir de unidades combinatorias discretas.
Esto, por supuesto, valida las antiguas convicciones del campo conexionista .
La cuestión de si nuestras computadoras saben y son inteligentes está abierta a la exploración filosófica en la línea de la cuestión filosófica de la intencionalidad. Este es un tema difícil debido a las definiciones variadas e imprecisas de conocimiento (¿está justificada la creencia verdadera?), inteligencia (¿qué significa decir que una persona es inteligente?) e intencionalidad (¿no tienen las computadoras la capacidad de usar -medios simbólicos como sensores para generar percepciones para representar el estado de cosas?). Del artículo de la SEP sobre intencionalidad :
En filosofía, la intencionalidad es el poder de las mentes y los estados mentales para tratar, representar o representar cosas, propiedades y estados de cosas. Decir de los estados mentales de un individuo que tienen intencionalidad es decir que son representaciones mentales o que tienen contenidos.
Esta pregunta sobre la intencionalidad se complica por el hecho de que todavía ni siquiera está claro científicamente cómo las personas poseen intencionalidad.
Otro conjunto de cuestiones filosóficas gira en torno al problema de la puesta a tierra del símbolo . Es difícil comparar la capacidad de un sistema informático para tener significado o conocimiento, cuando el mismo problema es controvertido para las personas. Descartar de plano que las computadoras no tienen la capacidad de tener conocimiento cuando uno no puede explicar cómo las personas tienen conocimiento puede ser egocentrismo. ¿Hay realmente algo especial en la conciencia o intencionalidad humana que no pueda ser recreado por un equivalente funcional ? Es en gran medida una controversia filosófica abierta en la filosofía de la mente qué constituye la conciencia y qué variedades podría haber . El reclamo de John Searle a la fama con sus diversos argumentos de la habitación chinapuede ser que haya sido el filósofo más refutado en el campo. Todas estas son extensiones recientes de la cuestión epistemológica de larga data con respecto a la certeza de que incluso otras personas tienen mente .
Comenzando en los primeros días de las computadoras electrónicas en Caltech a fines de la década de 1940, hasta mediados y fines de la década de 1950 en lugares como Dartmouth o el Laboratorio Nacional de Física en el Reino Unido, surgió el optimismo de que las computadoras comenzarían a acercarse rápidamente a la inteligencia humana. Diez años más tarde, Hubert Dreyfus, que trabajaba para RAND, escribió Alchemy and Artificial Intelligence y desinfló el optimismo que ha durado hasta hace poco, cuando un creciente cuerpo de investigadores de IA ha estado argumentando nuevamente que la inteligencia artificial general es posible:
Algunas autoridades enfatizan una distinción entre IA fuerte e IA aplicada (también llamada IA estrecha o IA débil): el uso de software para estudiar o realizar tareas específicas de resolución de problemas o razonamiento. La IA débil, en contraste con la IA fuerte, no intenta realizar la gama completa de habilidades cognitivas humanas... A partir de 2017, más de cuarenta organizaciones estaban investigando sobre AGI.
Ciertamente, muchos expertos en IA han aceptado que las computadoras como las PC de escritorio, incluso si son capaces de representar el conocimiento , generalmente carecen de comprensión. Poole y Mackworth de su Inteligencia Artificial: Fundamentos de Agentes Computacionales dicen en la página 179:
Es muy importante entender que hasta que consideramos computadoras con percepción y la capacidad de actuar en el mundo, la computadora no conoce el significado de los símbolos. Es el ser humano el que da significado a los símbolos. Sin embargo... puede sacar conclusiones que son verdaderas en el mundo.
Tenga en cuenta la frase "hasta que consideremos la percepción y la capacidad de actuar en el mundo". ¿ Está realmente tan seguro de que el Atlas de Boston Dynamics no manifiesta intencionalidad ? Al principio de su texto en la página 10:
La ciencia de la IA podría describirse como "psicología sintética", "filosofía experimental" o "epistemología computacional"... Las computadoras modernas brindan una forma de construir los modelos sobre los cuales los filósofos solo han podido teorizar.
La idea de que las arquitecturas informáticas actuales son solo terminales tontas parece ser paralela a la proposición cartesiana fuertemente desacreditada de que los animales son solo autómatas porque no tienen alma . Descartes parece estar equivocado sobre los animales, así como sobre la dualidad mente-cuerpo. Si está interesado en el estado actual de la investigación filosófica sobre las computadoras, indague un poco más en https://philpapers.org/browse/philosophy-of-artificial-intelligence .
Los avances de la IA y los de la lingüística cognitiva que ataca los orígenes computacionales del significado combinados plantean serias dudas sobre la viabilidad de que las computadoras manifiesten intencionalidad y capacidad epistémica.
VER TAMBIÉN
usuario4894
Conifold
usuario20253
jerárquico
usuario20253
gnasher729
jerárquico