¿Podría una máquina o una IA sentir emociones genuinas como las de los humanos?

La pregunta de "¿Podría una máquina / IA sentir emociones genuinas como las de los humanos"? surge en películas como Bladerunner, IRobot, Star Trek y AI entre otras. ¿Cuál es el argumento filosófico detrás de por qué los humanos generalmente asumen que una máquina / IA no puede sentir emociones genuinas como las de los humanos y actúa como si fuera un gran problema cuando se enteran de que la máquina / IA siente emociones genuinas como las de los humanos?

Además, ¿por qué los humanos asumen que las Máquinas/IA no son confiables debido a su aparente falta de emociones? ¿No enseña generalmente la filosofía ética que las decisiones éticas provienen de la razón y los principios, no de las pasiones? Simplemente parece que una máquina/IA que sigue la regla de oro podría ser más ética que algunos humanos.

Parece muy cercano aphilosofía.stackexchange.com/ questions/711/ … ?
Para aclarar mi entendimiento... ¿crees que alguna vez pueda probar definitivamente que otra persona tiene estados mentales o emocionales internos? Podrían ser solo productos de mi imaginación solipsista. Y en segundo lugar, ¿no muestra su propia experiencia de vida que sus emociones a menudo tiñen sus elecciones éticas?
tal vez el hecho de que nunca puedas probar definitivamente que otra persona tiene estados mentales o emocionales internos podría ser la base para no descartar que una máquina/IA pueda sentir emociones genuinas como las de los humanos. y creo que las emociones no reguladas pueden influir en las decisiones éticas, generalmente negativamente en mi experiencia, y no son necesarias para las decisiones éticas con la razón y el autocontrol debidamente cultivados.
Tienes una estructura cerebral física que se desarrolló para permitirte sentir emociones. No hay una buena razón, no mística, para pensar que no se puede desarrollar una IA con una estructura similar.
Una IA podría sentir emociones genuinas no humanas. Es probable que una IA dentro de un cuerpo robótico nunca se preocupe "la gente me mira y piensa que estoy gordo", pero podría preocuparse "la gente me mira y ve todos mis puntos oxidados".

Respuestas (3)

Realmente depende de cómo logremos esa mente. Digamos que lo hacemos simulando completamente el cerebro humano y toda su bioquímica, entonces sí, creo que tendría emoción. Sin embargo, John Searle, que no cree que podamos hacer máquinas conscientes, diría que incluso si simulamos la mente, no es una conciencia real. No es diferente de ejecutar cualquier otro tipo de software. Es solo que el software exteriormente crea una impresión. Sin embargo, la verdadera respuesta es que no lo sabemos.

También el problema de probar si algo tiene emoción o no es diferente de si es posible o no.

¿Por qué nos preocupamos por una mente racional no emocional? La ética basada en la razón pura y el pensamiento racional puede no coincidir con las decisiones reales que nosotros, como humanos, podríamos tomar. Hacer "excepciones" por razones emocionales es un tema fuerte en las películas sobre IA donde decide que lo más racional viola nuestro sentido de cuidado emocional.

Como Matrix, donde el agente Smith racionaliza que cualquier organismo que se propague sin control y destruya a su huésped es un virus y debe ser destruido :)

En The Matrix, el problema no es la racionalización del Agente Smith, el problema es que el virus somos nosotros :-)
Una emoción humana genuina solo puede ser experimentada por un ser humano real, por definición; esto es como una PC IBM genuina que solo puede ser fabricada por IBM. Todo lo demás es solo compatible con IBM o similar a un humano. En la práctica, lo que importa no es si son emociones humanas genuinas o no; sino más bien si el hardware puede o no ejecutar el componente emocional lo suficientemente bien como para cumplir con su trabajo, que es restringir el componente racional.
tenga en cuenta que en la pregunta no se trata de un humano genuino ... agrega la palabra "me gusta". Lo genuino, supongo, se refiere a la palabra "emoción".

La suposición de que una computadora no puede sentir emociones es esencialmente una perspectiva fisicalista . Los fisicalistas de tipo creen que cada emoción corresponde a una cierta estructura y estado del ser en el cerebro, una estructura específica de neuronas que se activan en un patrón específico. Esto se deriva del hecho de que sabemos que cambiar el estado de tu cerebro cambia el estado de tus emociones y viceversa, por lo que parece razonable pensar que el estado del cerebro y el estado mental son, de hecho, la misma cosa. Si este es el caso, entonces una computadora no puede experimentar la misma emoción que nosotros, porque no tiene la capacidad de tener el mismo estado cerebral. Esto no necesariamente excluye que una computadora tenga una mente, solo una emoción humana.

Como nota al margen, una gran cantidad de filósofos y neurocientíficos son funcionalistas , lo que significa que la función del estado mental, no el estado cerebral correspondiente, define el estado mental. Cualquier cosa que sirva para advertir de daños corporales es dolor, no solo los nervios C disparando en el cerebro humano. Prefiero esto porque el fisicalismo tiene algunas implicaciones alarmantes, como que los animales no pueden sentir "dolor" como nosotros.

Un ser sin emociones es tan aterrador porque el concepto humano de la moral, en el sentido cotidiano, se basa en gran parte, si no completamente, en la empatía. La empatía es un rasgo clave en todas las especies que trabajan con éxito en grupos, especialmente en los animales de carga, porque permite que las criaturas se cuiden entre sí de forma natural. Cuando una persona siente que algo anda mal, a menudo es porque puede imaginar cómo se siente la persona agraviada, y replicar esa emoción hace que el observador se sienta mal y quiera arreglar las cosas. Dado que esta es nuestra forma profundamente arraigada de entender la moralidad en un sentido heurístico del día a día, es una conclusión natural que una máquina incapaz de emoción y, por lo tanto, de empatía, no podría tener ética de la forma en que la tenemos.

"Un ser sin emociones es tan aterrador ..." - por el contrario, considere: ¿¡un 'bot armado y activo con problemas!?
¿Por qué serían necesarias las emociones para la empatía?
@slashmais Bueno, sí, cualquier cosa peligrosa y no actuar como esperábamos da miedo. Un "bot con problemas" es otro ser que probablemente no sigue un patrón moral común, y eso lo asusta.
@gnasher729 La empatía es literalmente la capacidad de sentir lo que otro siente o puede sentir. Entonces, para tener empatía por alguien, necesitas sentir las emociones que crees que están sintiendo, lo que significa que necesitas emociones.
No tienes que sentir sus emociones, solo tienes que entender sus emociones. Entiendo que sientas dolor si te rompes la pierna, entiendo que te sientas infeliz si tu novio o novia te deja. Puedo entender ambos y actuar en consecuencia incluso si no sentí dolor si me rompí una pierna o si no pude sentirme feliz o infeliz.
@ gnasher729 Probablemente se reduce a la semántica, pero yo lo llamaría "Simpatía", no "Empatía". Pero esto también toca la discusión de Qualia , sobre si comprender algo por completo es lo mismo que experimentarlo.

Las emociones son el residuo de la evolución de supervivencia de los organismos con un control limitado y frágil sobre la continuación. El gran error al considerar las emociones con respecto a las entidades artificiales es confundir este rasgo evolutivo con un imperativo para "estar vivo / sintiente-inteligente". Tal entidad mecánica a la que te refieres sería en esencia inmortal y, por lo tanto, no tendría necesidad de emociones evolucionadas en el sentido anterior. Lo que podría ser útil son análogos de emoción-instinto, algún impulso que priorice un comportamiento basado en algún evento o situación (¿experiencia?), por ejemplo: amenaza percibida de daño (como análogo a 'miedo/ansiedad/aprensión'), baja energía /batería ;) (como análogo a 'hambre/sed'), etc., para facilitar respuestas oportunas y pertinentes. Por otra parte, habría mejores maneras de hacer esto...