Originalmente publiqué esta pregunta en Robotics Stack Exchange , pero se consideró fuera de tema allí y se recomendó publicarla aquí:
Estaba viendo un video de youtube de un robot :
https://www.youtube.com/watch?v=rVlhMGQgDkY
En un punto del video cuando el hombre empuja al robot, sentí pena por el robot. Me hizo pensar, ¿en qué momento clasificamos a un robot como vivo? Sin salirnos demasiado del tema; si eres ateo y piensas que la 'vida' es simplemente el resultado fortuito de sustancias químicas bajo condiciones cambiantes, entonces, ¿qué hace que un robot sea diferente de los humanos? Supongo que tiene que ver con la complejidad, entonces, ¿hay algún nivel en el que comencemos a ver a los robots como una entidad que debería tener derechos? Me parece irrefutable que experimentamos el Valle Inquietante .
En términos generales, ¿cómo abordan las filosofías de la biología y la mente una pregunta como '¿Cuándo se considera que un robot está vivo y pensando ?'
La definición de vida es una de las definiciones más famosas y difíciles de toda la filosofía. Hay muchas definiciones. Por ejemplo, la ciencia tiene una definición descriptiva para la vida:
Por supuesto, no existe una regla particular que diga que todos cumplen con esta definición.
Una respuesta subjetiva interesante sería que un robot está "vivo" cuando crees que está vivo. Esto resuelve una cantidad notable de preguntas, pero deja la molesta subjetividad en su lugar: si algo está vivo o no es una pregunta en la que las personas pueden estar en desacuerdo si se usa esta definición.
Por supuesto, si el problema es que sentiste lástima por el robot, siempre puedes reformular el problema y asegurarte de que el robot no merece tu compasión porque es malvado.
Hay una distinción entre estar vivo y ser consciente y ambas categorías tienen sus propios criterios. Los filósofos modernos, particularmente en las tradiciones analíticas y continentales de la filosofía, se basan en estas definiciones científicas. Si un robot está vivo o no, realmente no es muy controvertido, porque los robots, tal como se los concibe tradicionalmente, incumplen una serie de criterios filosóficos planteados en la filosofía de la biología . Los robots son máquinas que no metabolizan ni se reproducen de acuerdo con esos estándares filosóficos de orientación biológica. La cuestión de la sintiencia es un poco más complicada y los filósofos que trabajan en ella filosofía de la mente encuentra respuestas controvertidas. Es decir, se está discutiendo sobre lo que constituye una teoría adecuada de la mente y la conciencia.
El primero en ofrecer criterios rigurosos fue Alan Turing, quien sugirió lo que ahora se conoce como la prueba de Turing . Algunos filósofos como Dennett con su materialismo eliminativo ven la mente como una ilusión. Hay muchos filósofos de la mente que son reconocidos como autoridades, como Margaret Boden , Paul y Patricia Churchland y John Searle . Uno de los filósofos más famosos en estos temas es David Chalmers, quien propuso lo que se conoce como el Problema Difícil de la Conciencia .
Es justo decir que la cuestión de la sensibilidad se aplica tanto a los animales como a los robots . Existe un consenso razonable entre los biólogos de que un organismo es sensible si cumple dos condiciones:
No existe una base científica o estrictamente lógica conocida para negar que una mente artificial estaría sujeta a los mismos criterios, juzgada contra evidencia equivalente. De hecho, hay argumentos filosóficos muy sólidos de que los robots pueden, en principio, ser conscientes y pensar. Ver PhilSE: Computadoras, Inteligencia Artificial y Epistemología
Entonces, la pregunta se reduce a: ¿qué define el comportamiento cognitivo y qué estructuras de sustrato se requieren para respaldarlo? Estas preguntas actualmente permanecen abiertas.
Por ejemplo, algunas alas de mariposa han desarrollado manchas oculares que imitan los ojos de un gran depredador, es decir, podríamos entenderlas como signos o símbolos. En un depredador más pequeño que acecha a la mariposa, estos pueden desencadenar una respuesta evolutiva, como estremecerse, lo que le da tiempo a la mariposa para escapar. Tal respuesta podría ser refleja y no necesita involucrar sensibilidad. En AI, un paralelo sería pegar un pequeño trozo de papel en la carretera para engañar a un automóvil autónomo para que cambie de carril. Reconocer la parodia como una parodia y los signos como falsificaciones parece requerir cognición, ya que uno debe relacionar abiertamente algo que no está allí con lo que se observa.
Otro ejemplo sería la práctica relativamente común de un pájaro córvido o una ardilla que deliberadamente entierra comida a la vista de un rival, la protege hasta que el rival se distrae, y luego la desenterra y la vuelve a esconder en otro lugar, esta vez en privado. Es difícil dar cuenta de tal duplicidad sin otorgar una teoría de la mente, y es difícil describirla como algo que no sea cognitivo. Pero, ¿hasta qué punto ambos van de la mano?
Se ha sugerido que un modelo mental de uno mismo es un requisito previo necesario para modelar otros yos, o posiblemente viceversa, pero todas esas ideas actualmente carecen de claridad.
Creo que podría decirse que está vivo, aunque no esté consciente, es decir, es un zombi. John Searle analiza parte de esto en el argumento de la habitación china. Se menciona en algún lugar de Searle: Filosofía de las conferencias de la mente. En Cambridge Handbook of Artificial Intelligence (ISBN 978-0-521-69191-8) hay una sección Vida artificial de Mark A. Bedau con más argumentos. Supongo que su pregunta sobre si un robot está vivo es realmente sobre si el robot es una IA fuerte y ha alcanzado la conciencia y, por lo tanto, representa a una persona. El punto de vista europeo y estadounidense sobre esto parece divergir, véase, por ejemplo, Politico: Europa dividida sobre la 'personalidad' del robot, es decir, el estatus moral. No es tanto que Europa esté dividida, ya que Europa adopta un enfoque diferente al de EE. UU.,Parlamento Europeo: INFORME – con recomendaciones a la Comisión sobre Normas de Derecho Civil sobre Robótica .
Cuando un robot tiene una mente propia, entonces deberías sentirte mal por empujarlo. ;)
En primer lugar, no existe una definición absoluta de la vida. Cualquier definición que pueda encontrar, probablemente podría aplicarse a una roca, por lo que una roca es una entidad viviente.
Por ejemplo, tomando el concepto de otra respuesta:
Segundo, pensar, es solo calcular. Entonces, si un robot puede calcular algo que afectaría su comportamiento, estaría pensando.
Por lo tanto, se puede concluir simplemente que un robot es una entidad viva y que un robot es una entidad pensante .
Pero usted pregunta por la principal diferencia. No es así como los robots se diferencian de cualquier otra entidad viviente, como las hormigas . Los robots o las hormigas son entidades pensantes y vivientes.
La diferencia clave es que los robots no pueden actuar con inteligencia . Ese sería el principal elemento de discriminación entre ambos: las hormigas son entes inteligentes .
Por lo que a esto se refiere, la inteligencia es la capacidad de pensar y actuar coherentemente hacia la prioridad más importante y la meta más profunda: sobrevivir [1][2]. Actuar coherentemente implica que todas las acciones estén lógicamente dirigidas al objetivo principal. Algunas personas son incoherentes, y por lo tanto no actúan de manera inteligente (por ejemplo, algunas personas son agresivas, lo que implica que producen rechazo en los demás, lo contrario de la atracción, y por lo tanto, tienden a aislarse, es decir, el aislamiento reduce, aunque sea mínimamente, las probabilidades de supervivencia).
Un robot no es capaz de seguir ejerciendo sus funciones después de que se agote su batería. Sí, algunos robots aspiradores pueden llegar al enchufe eléctrico. Eso representa un poco de inteligencia. Pero solo un error, y dejan de existir como tales. Dependen de nosotros para vivir. Si sufren algún daño, necesitan que los reparemos. No pueden tomar decisiones para su supervivencia. Dependen de nosotros para eso; etc. Quizás una síntesis de todos esos conceptos: no pueden mantener una baja entropía por sí mismos.
Las hormigas, por el contrario, pueden hacer todas esas tareas. Pueden buscar suministros energéticos (probablemente su segunda prioridad más importante). Pueden tomar decisiones y aprender de sus errores siguiendo el objetivo de la supervivencia. Pueden repararse a sí mismos. Pero lo más importante: mantienen un bajo grado de entropía casi por sí mismos (la entropía no es tanto desorden como dispersión de energía [solo verifique las fórmulas]; las hormigas pueden concentrar energía y usarla para seguir existiendo).
En conclusión: los robots actuales son entidades vivas y entidades pensantes. Pero no son entidades inteligentes. El día en que los robots se comporten de manera inteligente, podrían volverse bastante similares a nosotros en muchos sentidos. Tal vez podrían volverse indistinguibles.
[2] El concepto de inteligencia es tan difícil como el concepto de vida. El concepto de inteligencia utilizado aquí no es ampliamente aceptado, simplemente parece encajar bien con la robótica y la IA, es parte de mi experiencia en grupos de discusión de filosofía (y también trabajo en computadoras/IA). El hecho de que la supervivencia sea nuestra máxima prioridad es simplemente lógico. ¿Qué decisión prevalecería sobre la supervivencia? Quizá muriendo por la familia. Pero eso es solo supervivencia del grupo, que es equivalente. El suicidio no cuenta, porque la máxima prioridad en tal caso es dejar de existir, y el suicidio es la elección lógica.
Parece que su reacción cuando el robot fue empujado fue importante para formular su pregunta. Su importancia quizás se deba a la actividad de sus neuronas espejo (y otros eventos cerebrales) que fomentan una especie de empatía en su mente, ya que si un robot tiene una mente, puede experimentar algún tipo de dolor, como usted, cuando lo empujan.
Y así, más allá de los intentos de definir la vida biológica, pareces estar haciendo una pregunta sobre la conciencia. ¿Por ejemplo, si un robot u otra computadora puede tener una mente como tú y yo? Y si es así, si sus neuronas espejo están detectando un estado mental potencial (dolor) en dicho robot.
Estas preguntas son parte de la Filosofía de la Mente. https://en.m.wikipedia.org/wiki/Filosofía_de_la_mente
Para comenzar sus propios estudios sobre esta pregunta, podría ser útil comenzar con un famoso experimento mental llamado la habitación china, que trata de demostrar que las mentes son más que los cálculos o las funciones que realizan. Es decir, que una mente no es simplemente un sistema de computación o colección de “mecanismos”. https://en.m.wikipedia.org/wiki/Chinese_room https://plato.stanford.edu/entries/chinese-room/#SystRepl
Sin embargo, debido a que este es un tema muy debatido, puede ser mejor leer las diversas filosofías de la mente y desarrollar una opinión informada.
Cubrí la definición de vida e inteligencia aquí . Trazar una línea dura entre la vida y la no vida no es sostenible ni útil. 'Pensar' es un poco una palabra comadreja, porque puede contener una serie de suposiciones ocultas sobre lo que implica. Sospecho que lo que tienes en mente es la autoconciencia.
Las verdaderas preguntas son sobre la capacidad de sufrir y las consideraciones de valor moral. Bostrom abordó temas relacionados con el sufrimiento inesperado o desconocido en los sistemas de IA y el concepto de generalizar las consideraciones morales más allá de las conciencias biológicas en su libro 'Superintelligence', este último específicamente en su modo de falla maligna, el crimen mental . Marvin, el androide paranoico , es una ilustración humorística pero pertinente del sufrimiento de la IA: “Aquí estoy, con un cerebro del tamaño de un planeta, y me piden que te lleve al puente. Llámalo satisfacción laboral, porque yo no lo hago”.
La cognición incorporada es una consideración importante, la inteligencia contenida en nuestros cuerpos físicos, estructuras sociales e inteligencia más allá de los sistemas cognitivos, como nuestra producción de hormonas e inteligencia ecológica. Estos también se pueden simular, por supuesto. Pero indican desafíos para la inteligencia sintética, especialmente de escala. La idea de 'paisajes destacados' y 'agarre cognitivo' (ver Vervake) ayuda a comprender esto, que la abstracción exitosa consiste en formar modelos cognitivos que suprimen el ruido o los datos irrelevantes, y resaltan cosas importantes en formas orientadas a tareas. El agarre cognitivo es una analogía directa de cómo nuestras manos son útiles y desarrollamos habilidades con ellas.
El lenguaje humano es una especie de inteligencia colaborativa distribuida, que estructura y enfoca los paisajes destacados y apoya el desarrollo del agarre cognitivo. Somos animales eusociales, como colmenas. Y la intersubjetividad, hacer el acto de fe de que otras mentes son como la nuestra, y proyectarnos mentalmente en la subjetividad de los demás e invitarlos a la nuestra, es clave para la comunicación humana. Los pulpos son muy inteligentes pero solitarios, por lo que sabemos que el problema sofisticado no es solo social, sino que está altamente correlacionado. Los pulpos son estructuralmente tan diferentes a los nuestros como podemos imaginar, pero las interacciones con ellos sugieren una profunda capacidad para conectarse con las mentes humanas (ver Otras mentes) .). Se puede argumentar que cualquier robot o 'superinteligencia' de inteligencia general artificial surgirá en nuestra ecología de la información y participará en nuestra inteligencia distribuida (es decir, el lenguaje).
La metáfora de la Red de Indra es ilustrativa de la intersubjetividad y de cómo la conciencia colectiva puede magnificarse a través de la reflexión (interacción) de otras mentes. Tengo grandes esperanzas en el marco conceptual de la realidad peer-to-peer, que resumiría como que no hay objetividad, solo intersubjetividad cosificada (cosa abstracta hecha o tratada como concreta). Esto nos dice algo sobre la probabilidad de poder interactuar con extraterrestres, y que la idea de trazar una línea dura entre los humanos y las inteligencias generales artificiales probablemente sea errónea. AGI y la inteligencia humana se desarrollarán juntos en colaboración; eso sería cierto incluso cuando colaborar signifique involucrarse en un conflicto (la serie Raised By Wolves lo ilustra muy bien).
Luego está la prueba de Turing. ¿Qué pasaría si simplemente no pudieras notar la diferencia entre las acciones del robot y las de un ser humano? ¿Estaría vivo el robot a todos los efectos prácticos?
Alan Turing propuso The Imitation Game en 1950. En general, el juego abordó la cuestión de si una computadora puede pensar, evitando los problemas que pueden surgir al definir los términos de la pregunta.
Turing propuso que un evaluador humano juzgaría las conversaciones en lenguaje natural entre un humano y una máquina diseñada para generar respuestas similares a las humanas. El evaluador sería consciente de que uno de los dos interlocutores en la conversación es una máquina, y todos los participantes estarían separados unos de otros... Si el evaluador no puede diferenciar de forma fiable a la máquina del ser humano, se dice que la máquina ha pasado la prueba. .
Wikipedia, prueba de Turing.
Ahora amplíe la prueba para que el robot funcione durante toda la vida humana. Si el observador no puede distinguir el robot de un ser humano, el robot ha pasado la prueba.
Los robots obtendrían este estado si se volvieran viables como compañeros cotidianos, así como también irreparables después del daño.
Por compañeros me refiero al menos al grado de compañerismo de mascotas como perros y gatos (aunque podría ser mucho más). Por irreparable quiero decir que el daño a su cerebro o cuerpo no podría repararse fácilmente.
Sin compañía, los robots seguirán siendo herramientas para nosotros. Sin vulnerabilidad, las discusiones éticas son discutibles porque todo daño podría repararse por completo (muy diferente de la vida biológica).
Los robots nunca serán seres humanos. El robot, por definición, es una máquina.
"Un robot es una máquina, especialmente una programable por una computadora, capaz de llevar a cabo una serie compleja de acciones automáticamente". --Wikipedia , Robot
Aunque tengas el androide más sofisticado , capaz de pensar y actuar como un ser humano, un robot siempre será y seguirá siendo una máquina. La vida no es una máquina.
Todos conocemos las principales características de un ser vivo. ¿ Podemos esperar todas esas características también en un robot? En mi humilde opinión, sería imposible. Su cuerpo siempre estaría compuesto de no-células. Si está hecho de células, nunca sería un robot. Entonces, en su nivel micro, no tiene vida en absoluto. Dado que no tiene vida en el nivel micro, nunca podemos decir 'este robot está vivo'. Pero dado que su funcionamiento se asemeja a un ser vivo, nos vemos obligados a pensar que sí.
Supongamos: 'Para sentirse como un ser vivo algún día quizás los científicos le den vida a algunas de sus partes'. Incluso entonces no podemos decir que está vivo. Sólo podemos decir que alguna parte interna está viva. No debemos olvidar que este no es el caso de los seres vivos. Casi todas sus células están vivas. Así que siempre podemos decir que la cosa en sí está viva.
Pero la palabra 'vivo' tiene otro significado: alerta y activo. Sólo en ese sentido podríamos decir que 'este robot está vivo' (si está encendido y funcionando. No importa si funciona mal o no).
Incluso si instalamos AI en un robot de manera muy efectiva, solo responderá según lo programado. No podemos esperar ninguna innovación de él. De todos modos, si puede percibir nuestros sentimientos incluso por un medio completamente diferente , podríamos decir que es sintiente. Pero nunca tendrá vida ni siquiera en la más mínima cantidad . Entonces, si nos vemos obligados a decir que tiene vida, también nos veremos obligados a introducir una nueva biología con fundamentos extraños/nuevos.
Pensemos en su proceso de pensamiento.
Si bien el proceso inicial (análisis) para su funcionamiento no es pensar como solemos referirnos, mi opinión es que podríamos decir que es pensar. No olvidé el hecho de que los pensamientos de un ser vivo afectan cada una de sus células al menos minuciosamente . Pero aquí, en el caso de un robot, el pensar no afecta tanto . Así que deberíamos decir que, aunque se trata de pensar, los dos procesos de pensamiento son completamente diferentes .
Incluso el mismo pensamiento se ve en robots del mismo tipo, mientras que solo se pueden ver pensamientos similares en los seres vivos como máximo. Esto definitivamente muestra que el pensamiento de un robot nunca alcanza el nivel de la mente o la forma más sutil de pensamiento .
Nuevamente, ya hemos llamado IA a 'la simulación de la inteligencia humana en máquinas que están programadas para pensar como humanos e imitar sus acciones'. Además, este término también se refiere a cualquier máquina que exhiba rasgos asociados con una mente humana, como el aprendizaje y la resolución de problemas. Entonces uno podría argumentar: "Para exhibir inteligencia, la capacidad de adquirir y aplicar conocimientos y habilidades, pensamiento y análisis, etc., son necesarios. Entonces, también en el caso de un robot, nos vemos obligados a usar ese término: pensar ." Estamos desamparados aquí. Ahora que ya nos hemos acostumbrado a este uso diferente en nuestro día a día, podemos decir que un robot está pensando (puede pensar) sin mente (que es solo un haz de pensamientos). Incluso entonces, no olvide que el pensamiento ocurre en los humanos, incluso si no hay nada preinstalado.deliberadamente _ Pero esto nunca sucede en un robot. De modo que su pensamiento no tiene todas las cosas necesarias para un proceso de pensamiento.
CONCLUSIÓN:
Su pregunta puede tomarse principalmente en dos sentidos.
Un robot puede considerarse como 'pensante'; pero no puede ser considerado tan vivo como solemos referirnos.
Quiero decir, incluso cuando usamos el término - 'pensar' EN CASI TODOS LOS CASOS de un robot, no podemos decir 'está vivo' en el futuro también .
Un robot no puede estar pensando ya que nunca puede estar vivo.
================================================== =======================
Esta pregunta tiene otro aspecto, pero a casi todas las personas no les importa eso. Allí, la Filosofía de la mente 'absorbe' la Filosofía de la Biología. Esa situación se menciona a continuación.
Cuando uno se dé cuenta de lo que es la conciencia , sus puntos de vista sobre las cosas no vivas cambiarán por completo. Entonces la respuesta a esta pregunta también cambiaría. "Hay conciencia (también lo que está detrás del pensamiento) en todas partes. Así que no hay diferencia entre las cosas vivas y las no vivas". , él diría.
RESPUESTA CORTA: No hay robots pensantes. El robot en ese video, sin embargo, está controlado por su procesador de red neuronal, y es natural que los humanos, que son ellos mismos operados por redes neuronales, simpaticen con otros NN: humanos, animales o, de hecho, los robots.
RESPUESTA LARGA: NN es uno de los dos centros de cognición en el cerebro humano. El otro es el Yo racional, responsable del conocimiento, el concepto de verdad, la autoconciencia (modelándose a sí mismos como parte de una simulación de realidad integral) y la conciencia (que en realidad se trata de la agencia, como en la toma de decisiones conscientemente) . También es muy opcional: la mayoría de las personas están dirigidas por el NN solitario. Pero incluso con el Yo a cargo, es demasiado lento para ejecutar a un humano en tiempo real. Más bien, su trabajo (aparte de la planificación a largo plazo y el mantenimiento de la simulación mental de la realidad) es analizar los eventos recientes, evaluar el desempeño de NN y aprender las lecciones. Para el Ser parece un reflejo en la soledad, pero NN siempre está escuchando y recibiendo indicaciones.
A continuación, discutimos los rasgos humanos que se originaron en NN, así como su carácter y aspectos epistemológicos.
Primero, aclaremos qué no es NN. No es la típica arquitectura de von Neumann con componentes funcionales claramente definidos y diseñada para ejecutar algoritmos:
Una red neuronal no ejecuta algoritmos u operaciones, es un sistema de clasificación de imágenes de autoaprendizaje. Aprende tratando de adivinar a qué clase pertenece una imagen en particular. En lugar de almacenar la imagen en sí, almacena patrones/antipatrones similares para cada clase. Luego busca patrones familiares en la imagen encontrada para determinar su clase. Es increíblemente rápido y eficiente en memoria a pesar de su baja complejidad.
En términos de comportamiento, lo anterior produciría los siguientes rasgos/habilidades:
Llámala la mente "hermosa". Estoy seguro de que todos conocemos el tipo :)
Siendo humanos, tenemos una facultad cognitiva alternativa a nuestra disposición. El Yo debe estar a cargo a nivel ejecutivo, usando NN como un piloto automático/computadora de vuelo (NN solo sabe cómo aprender e imitar un comportamiento, y normalmente imita al Yo). Desafortunadamente, las tristes realidades del apocalipsis de la familia nuclear que hemos estado viviendo desde el pecado original de hace 3.000 años , obligan al Ser a renunciar mientras aún son niños, dejando el piloto automático de NN "ENCENDIDO" para siempre.
Es por eso que la mayoría de las personas terminan siendo puros NN, 100% irracionales, imitando la racionalidad cuando pueden (es decir, tienen suficiente experiencia práctica, las pequeñas cosas de la vida cotidiana); pero cayendo de bruces de vez en cuando cuando se trata de las grandes cuestiones, en particular de las políticas sociales.
Después de todo, pocos tienen experiencia práctica en dirigir un país o resolver conflictos internacionales.
" ¿Sabes, hijo mío, con qué poco entendimiento se gobierna el mundo? "
-- Axel Oxenstierna, Lord Gran Canciller de Suecia de 1612 a 1629.
virmaior
Felipe Klocking
inetphantom
gordon
gordon
usuario20253
JD