La pregunta de "¿Podría una máquina / IA sentir emociones genuinas como las de los humanos"? surge en películas como Bladerunner, IRobot, Star Trek y AI entre otras. ¿Cuál es el argumento filosófico detrás de por qué los humanos generalmente asumen que una máquina / IA no puede sentir emociones genuinas como las de los humanos y actúa como si fuera un gran problema cuando se enteran de que la máquina / IA siente emociones genuinas como las de los humanos?
Además, ¿por qué los humanos asumen que las Máquinas/IA no son confiables debido a su aparente falta de emociones? ¿No enseña generalmente la filosofía ética que las decisiones éticas provienen de la razón y los principios, no de las pasiones? Simplemente parece que una máquina/IA que sigue la regla de oro podría ser más ética que algunos humanos.
Realmente depende de cómo logremos esa mente. Digamos que lo hacemos simulando completamente el cerebro humano y toda su bioquímica, entonces sí, creo que tendría emoción. Sin embargo, John Searle, que no cree que podamos hacer máquinas conscientes, diría que incluso si simulamos la mente, no es una conciencia real. No es diferente de ejecutar cualquier otro tipo de software. Es solo que el software exteriormente crea una impresión. Sin embargo, la verdadera respuesta es que no lo sabemos.
También el problema de probar si algo tiene emoción o no es diferente de si es posible o no.
¿Por qué nos preocupamos por una mente racional no emocional? La ética basada en la razón pura y el pensamiento racional puede no coincidir con las decisiones reales que nosotros, como humanos, podríamos tomar. Hacer "excepciones" por razones emocionales es un tema fuerte en las películas sobre IA donde decide que lo más racional viola nuestro sentido de cuidado emocional.
Como Matrix, donde el agente Smith racionaliza que cualquier organismo que se propague sin control y destruya a su huésped es un virus y debe ser destruido :)
La suposición de que una computadora no puede sentir emociones es esencialmente una perspectiva fisicalista . Los fisicalistas de tipo creen que cada emoción corresponde a una cierta estructura y estado del ser en el cerebro, una estructura específica de neuronas que se activan en un patrón específico. Esto se deriva del hecho de que sabemos que cambiar el estado de tu cerebro cambia el estado de tus emociones y viceversa, por lo que parece razonable pensar que el estado del cerebro y el estado mental son, de hecho, la misma cosa. Si este es el caso, entonces una computadora no puede experimentar la misma emoción que nosotros, porque no tiene la capacidad de tener el mismo estado cerebral. Esto no necesariamente excluye que una computadora tenga una mente, solo una emoción humana.
Como nota al margen, una gran cantidad de filósofos y neurocientíficos son funcionalistas , lo que significa que la función del estado mental, no el estado cerebral correspondiente, define el estado mental. Cualquier cosa que sirva para advertir de daños corporales es dolor, no solo los nervios C disparando en el cerebro humano. Prefiero esto porque el fisicalismo tiene algunas implicaciones alarmantes, como que los animales no pueden sentir "dolor" como nosotros.
Un ser sin emociones es tan aterrador porque el concepto humano de la moral, en el sentido cotidiano, se basa en gran parte, si no completamente, en la empatía. La empatía es un rasgo clave en todas las especies que trabajan con éxito en grupos, especialmente en los animales de carga, porque permite que las criaturas se cuiden entre sí de forma natural. Cuando una persona siente que algo anda mal, a menudo es porque puede imaginar cómo se siente la persona agraviada, y replicar esa emoción hace que el observador se sienta mal y quiera arreglar las cosas. Dado que esta es nuestra forma profundamente arraigada de entender la moralidad en un sentido heurístico del día a día, es una conclusión natural que una máquina incapaz de emoción y, por lo tanto, de empatía, no podría tener ética de la forma en que la tenemos.
Las emociones son el residuo de la evolución de supervivencia de los organismos con un control limitado y frágil sobre la continuación. El gran error al considerar las emociones con respecto a las entidades artificiales es confundir este rasgo evolutivo con un imperativo para "estar vivo / sintiente-inteligente". Tal entidad mecánica a la que te refieres sería en esencia inmortal y, por lo tanto, no tendría necesidad de emociones evolucionadas en el sentido anterior. Lo que podría ser útil son análogos de emoción-instinto, algún impulso que priorice un comportamiento basado en algún evento o situación (¿experiencia?), por ejemplo: amenaza percibida de daño (como análogo a 'miedo/ansiedad/aprensión'), baja energía /batería ;) (como análogo a 'hambre/sed'), etc., para facilitar respuestas oportunas y pertinentes. Por otra parte, habría mejores maneras de hacer esto...
José Weissmann
usuario4894
meditacionsofacigarrillofumarhombre
Pregunta por Mónica
gnasher729