La IA dura es uno de los problemas perennes de la filosofía, pero inmediatamente se enreda en nociones como conciencia, qualia, etc. y si una máquina puede tenerlos. Esto generalmente pasa por alto si los animales tienen esas cualidades y si los animales tienen alguna variedad de inteligencia.
Hablamos mucho sobre el contenido mental y sus dimensiones humanas, pero si nos vamos a molestar en preguntar sobre las máquinas, no tiene sentido a menos que podamos encontrar algún límite funcional sobre qué procesos biológicos constituyen el pensamiento.
Desde un punto de vista nietzscheano bastante directo, el poder es el punto de corte entre lo que importa y lo que no. A partir de ese punto de vista, una definición lógica del pensamiento es muy freudiana: 'El uso de datos para avanzar en el poder'. (Debemos tener en cuenta el poder reservado, por lo que el "poder de avance" debe implicar el desarrollo de la capacidad de hacerlo si el poder nunca se expresa, o hacer cosas que intentan hacer avances, pero fallan. Y simplemente sobrevivir también debe ser visto como una especie de poder.)
El problema es que esto empuja el pensamiento hacia abajo en la escala hasta las bacterias, que persiguen rastros químicos e incluso genes. Pero parece descartar la mera química u otros procesos activos que no están dirigidos por un objetivo por naturaleza. La codificación química en un gen claramente codifica datos, y el fondo filogenético de variación genética parece recopilar datos de una manera que busca dominar un nicho ambiental y aumenta el poder de varios genes para dar forma al medio ambiente. Las variaciones en un cristal o la forma específica de un lecho oceánico pueden ser datos, pero nunca se recopilan en nada que parezca información o toma de decisiones.
Estoy a favor de simplemente aceptar esa amplitud y encontrar alguna forma significativa de abordar un continuo de inteligencia que se extiende tan abajo.
¿Hay posiciones razonadas (que impliquen definiciones de pensamiento no circulares ni arbitrarias) que se hayan ofrecido contra una noción tan amplia de inteligencia? (Antes de hablar con una docena de filósofos mayores: vivimos en un mundo con chimpancés mentirosos y tramposos, delfines y perros que son capaces de razonar mediante el proceso de eliminación, por lo que el lenguaje y la lógica ya no son suficientes).
¿Cuánta tracción perdemos en otras consideraciones filosóficas importantes si adoptamos una definición tan amplia?
¿Alguien se ha molestado en pensar en la IA u otras preguntas al mirar tan abajo? (Encuentro rastros de eso en Dennett, pero él está principalmente en el negocio de desacreditar cuando va allí).
Se dice que un estado cerebral en la corteza visual contiene información en virtud de que se encuentra corriente abajo en la cadena causal desde los fotorreceptores del ojo. De la misma manera, podría decirse que cualquier estado de la materia (como un cristal) está aguas abajo de una cadena causal y, por lo tanto, podría decirse que contiene información. Sin embargo, la idea de información presupone algún medio de interpretar su significado.
En un artículo publicado por Francis Crick y Christof Koch, este punto queda claro:
"Un problema importante que los neurocientíficos descuidan es el problema del significado. Los neurocientíficos tienden a suponer que si pueden ver que el disparo de una neurona está aproximadamente correlacionado con algún aspecto de la escena visual, como una línea orientada, entonces ese disparo debe ser parte. del correlato neuronal de la línea vista. Asumen que debido a que ellos, como observadores externos, son conscientes de la correlación, el despido debe ser parte del NCC. Esto de ninguna manera se sigue, como hemos argumentado para las neuronas en V1. Pero este no es el problema principal, que es: ¿Cómo saben otras partes del cerebro que la activación de una neurona (o de un conjunto de neuronas similares) produce la percepción consciente de, digamos, una cara? ¿Cómo sabe el cerebro lo que representa el disparo de esas neuronas? En otras palabras, ¿cómo genera significado el cerebro?" (Crick y Koch, "Consciousness and Neuroscience". cursiva agregada )
En respuesta a tus preguntas:
Me sorprende por qué mezcla lo que veo como tres conceptos distintos en uno; a saber, la conciencia, el pensamiento y la inteligencia.
Yo creo que solo crea confusión. cual es tu justificacion
Recuerdo a un científico que dijo que mientras observaba un día una semilla de Senecio vernalis flotando en la brisa del aire tuvo la epifanía de que es una forma de inteligencia. No estaba diciendo que fuera una forma de pensar ni una forma de conciencia.
Nadie protestaría si usted insiste en que se puede decir que las bacterias demuestran inteligencia, sin embargo, pocas personas afirmarían que las bacterias están pensando o que el ADN está pensando.
Y más concretamente a la aplicación del pensamiento a las máquinas. Turing dijo en su famoso artículo Computing Machinery and Intelligence :
La pregunta original, "¿Pueden pensar las máquinas?" Creo que es demasiado sin sentido para merecer discusión.
Y quiso decir que no tenía sentido, no en el sentido de ser trivial o una perogrullada, sino en el sentido que le dio Chomsky cuando comparó esa pregunta con preguntar si los submarinos pueden nadar:
Pensar es una característica humana. ¿Algún día la IA realmente pensará? Eso es como preguntar si los submarinos nadan. Si lo llamas nadar, los robots pensarán que sí.
Dicho esto, Turing continúa la cita anterior con lo siguiente:
Sin embargo, creo que a finales de siglo el uso de las palabras y la opinión general educada habrán cambiado tanto que se podrá hablar de máquinas pensantes sin esperar que lo contradigan.
La forma en que usamos el lenguaje puede cambiar, pero no por nuevas definiciones estrictas, sino por nuevas convenciones.
Finalmente, la conciencia y el pensamiento son conceptos distintos. La conciencia es algo que puedes tener o ser, mientras que el pensamiento es algo que puedes hacer. Un filósofo puede estar pensando en ser consciente. Un meditador puede ser consciente de pensar.
Mucha gente cree que se puede decir que las computadoras de hoy exhiben una forma de inteligencia. Un subconjunto de estas personas cree que la inteligencia informática continuará desarrollándose hasta el punto de que algún día podamos hablar convencionalmente de las computadoras como pensantes y, sin embargo, un subconjunto de estas personas cree que, sin embargo, es posible que las computadoras nunca sean conscientes en el sentido en que las personas son, o como dijo Dennett* "consciente en el sentido más completo".
* Sin embargo, Dennett no es una de estas personas.
Para (1) considere un tipo de análisis de semejanza de familia de Wittgenstein. Está bastante claro que la toma de decisiones intencional y deliberada es una actividad que se encuentra bastante cerca del núcleo de la "inteligencia", la transmisión cultural del conocimiento adquirido es otro ejemplo. Los reflejos automáticos, por ejemplo, alejarse de un dolor, aunque todavía el procesamiento de la información en el sentido general no son, por la mayoría de las personas, la mayor parte del tiempo, realmente considerados como el núcleo de la inteligencia. Tenga en cuenta que es cuando los animales exhiben comportamientos indicativos de estas facetas centrales que les atribuimos inteligencia más fácilmente, cuando procesan información que se encuentra menos obviamente en el centro, la navegación de abejas melíferas / abejorros viene a la mente como un ejemplo potencial, las personas son menos voluntad de atribuir estos comportamientos en relación con la inteligencia real.
Por supuesto, con este tipo de análisis, no hay un límite absoluto riguroso (¿el juego del amor? ¿la política como juego? etc.) sino una evaluación honesta de qué aspectos del procesamiento de la información en los humanos (las únicas cosas físicas a las que se ha dirigido la inteligencia). universalmente atribuidos) son/no son los ejemplares prototípicos de la clase pondrán el límite en los organismos multicelulares, es decir, que la "inteligencia" es solo un subconjunto (adecuado) del uso de datos para avanzar en el poder.
Llegando a la pregunta (2), más allá de una función descriptiva y taxonómica, las distinciones entre inteligencia y otras formas de procesamiento de información, cómo juzgamos y abordamos los problemas que surgen de ellas. Alguien que derriba tu bebida con un reflejo automático es una situación diferente (que justifica diferentes comportamientos) que alguien deliberadamente derriba tu bebida.
Tal vez haya contextos en los que la forma más efectiva de comunicar sus conceptos a una audiencia sea agrupar todo el procesamiento de información como "inteligencia" para enfatizar que todo es un continuo, pero también parece haber contextos en los que pintar con trazos tan amplios parece oscurecer más que revelar.
Más un comentario extenso que una respuesta adecuada:
La definición original del pensamiento como procesamiento de información y manipulación de símbolos a la Turing estaba bien hasta que llegó el funcionalismo y la gente empezó a ver las implicaciones metafísicas y éticas que implicaba. Luego empezaron a mover los postes de la portería simplemente porque les incomodaba que los humanos perdieran su estatus privilegiado como únicos seres pensantes. "así que el lenguaje y la lógica ya no son suficientes". es más una expresión de los miedos e inseguridades de las personas que de una mejor comprensión de los procesos mentales humanos.
Tomaría su definición y agregaría una restricción de que el procesamiento de datos debe involucrar, al menos parcialmente, representaciones simbólicas que reflejen el mundo de una manera similar a la teoría del significado de la imagen de Wittgenstein. De esta manera, una bacteria que sigue rastros químicos de nutrientes no está pensando, pero un guepardo que corre detrás de una gacela sí lo está, dado que hay algún homomorfismo que mapea a la gacela en sus patrones neuronales o estados de memoria. Esto también nos permite decir que las computadoras avanzadas piensan, pero los relojes y los interruptores de luz no.
(Tenga en cuenta que mis propios pensamientos sobre su pregunta están evolucionando)
Usted menciona en el comentario: "Los relojes y los interruptores de luz no usan datos para empoderarse, así que no estoy seguro de entender el punto".
El punto es que gran parte del proceso de transformación y consumo de energía se puede reformular como el uso de datos para proyectar energía: el interruptor de luz procesa la entrada binaria de encendido/apagado y luego proyecta energía en forma de radiación electromagnética visible en un área oscura desprevenida. De manera similar, el reloj procesa los datos de entrada (la cantidad de ciclos de cualquier proceso periódico que los impulse) y los proyecta como una señal con un contenido de información más elaborado.
Lo que diferencia el proceso anterior del pensamiento es la intencionalidad. Para calificar como pensamiento, el procesamiento de datos tiene que estar dirigido a aquello sobre lo que se busca el empoderamiento, y para que eso ocurra tiene que estar involucrada alguna representación del objeto o concepto objetivo, de ahí mi referencia a la teoría de la imagen de Wittgenstein.
¿Recuerdas la jungla de Meinong? Asumió que los objetivos de nuestra intención deben tener algún nivel de realidad, incluso si fueran ficticios. Bueno, tenía razón, excepto que en lugar de la colección de animales metafísicos que evocaba, su existencia era real porque existían como modelos/representaciones en las mentes de quienes los concibieron.
No puedo responder útilmente 1) porque estoy de acuerdo con su definición de inteligencia y tampoco he encontrado nada en la literatura que realmente proporcione algo más que argumentos circulares. En apoyo, sin embargo, puede encontrar interesante el trabajo de Anthony Trewavas (si aún no lo ha conocido). Trabaja en la Universidad de Edimburgo y ha presentado un argumento bastante directo de que las plantas deberían ser vistas como organismos inteligentes exactamente por las mismas razones por las que usted sugiere que deberíamos ampliar nuestras definiciones actuales.
Ha habido una historia de "mover los postes de la portería" con la definición de inteligencia, es una noción con la que las personas tienen una relación peculiar. Queremos que sea exclusivo de los humanos y permitir que otros ingresen al club solo sobre la base de evidencia abrumadora, pero por otro lado, no queremos permitir que sea responsable de nada negativo. La gente suele atribuir sus acciones menos valiosas a los "instintos básicos" y las más nobles a la "inteligencia", sin ninguna base neurológica para distinguirlos. De hecho, se ha demostrado que las respuestas emocionales de los bebés de 6 meses (rabietas) se procesan primero a través de la corteza cerebral mediante el uso de modernas redes de IRMf.
En cuanto a 2) no veo ninguna pérdida de tracción que compense la ventaja de eliminar los grilletes de una mala definición, pero no soy optimista de que esto suceda. En cierto sentido, creo que una gran cantidad de preguntas epistemológicas pueden incluso evaporarse cuando adoptamos una visión más amplia de lo que significa pensar; sin duda, las formas más antropocéntricas de dualismo tendrían menos tracción.
Con respecto a 3) ¿Ha considerado que el trabajo de James Lovelock cae en la categoría de personas que han considerado la idea de atribuir un tipo de motivo de pensamiento a organismos sin cerebro? Estaba mirando hacia arriba en la escala, en lugar de hacia abajo, pero definitivamente consideró que no había una buena razón para no pensar en el ecosistema global (y cada subsistema dentro de él) como si estuviera vivo y capaz de intento por emergencia. Tomando la visión fisicalista popular de la conciencia como una propiedad emergente, esto requeriría que aceptemos que los ecosistemas "piensan".
Estas son ideas originales, espero, porque escribo sobre ellas.
la comprensión es la capacidad de modelar un sistema en una estructura abstracta.
pensar es la capacidad de aplicar mecanismos causales (causa-consecuencia) a los modelos de comprensión.
Pero su problema no es pensar, pensar es solo hacer cálculos de causa y efecto. Está más relacionado con la comprensión, y aun así, no será suficiente. Su problema es el concepto de inteligencia. Siguiendo mi último libro malo (ydor.org), la inteligencia se puede generalizar, no solo a un mecanismo de pensamiento o un mecanismo de obtención de ganancias. Una persona que roba no es inteligente, porque robar da ganancias, pero solo a corto plazo. La inteligencia está relacionada con la permanencia en el tiempo. Por lo tanto,
Entonces, ¿puede ser artificial? Si es así, eso sería fantástico y realmente podría entenderse como inteligente. Pero hay más: la existencia individual puede entrar en conflicto con la sociedad, ahí es donde entra en juego la moral:
La moral y la ética (reglas individuales) siempre se consideran un conjunto social de convenciones inventadas por los abuelos. Pero tal vez no: la moral es el conjunto de reglas que seguimos para sobrevivir en grupos. La moral es tan importante que tratamos de formalizarla como ley (reglas formales que permiten la convivencia), pero como pretende ser objetiva, sólo puede aplicarse para castigar en casos probados. La moral es la regulación social más importante -basada en el pensamiento-.
La IA también debería incluir reglas morales para que las máquinas persistan socialmente.
Para llegar al límite "más útil" en la definición de "pensar", un comité (lo más grande posible) debe reunirse y 1) presentar sus definiciones individuales de qué tan "amplia" es la definición de "pensar" debería ser, y 2) obtener la mejor definición que incluya la mayor cantidad de definiciones que están en " cercano " acuerdo entre sí. En otras palabras, la definición de límite más útil es la que se usa más, ¡o por el grupo más grande de personas!
Felipe Klocking
Conifold
usuario9166
usuario9166
usuario19423
usuario9166
usuario19423
usuario9166
usuario19423
usuario9166
usuario19423