¿Es lo mismo desconectar un robot de la corriente que matar a una persona? Como dijeron los comentaristas, esto no funciona del todo porque los robots se pueden volver a conectar. Así que reemplacemos los robots con zombis filosóficos , se comportan como los humanos, excepto que no tienen conciencia. En particular, una vez asesinados, no regresan. ¿Matarlos es lo mismo? En ambos casos los desactivas de forma permanente. Si todavía no es lo mismo, ¿por qué dañar algo con conciencia es éticamente diferente de dañar algo sin conciencia?
Eso depende de cuál sea el problema de matar gente:
Y si la moralidad debe juzgarse dentro del Experimento mental:
La paradoja del teletransportador puede ayudarnos a entender. Si podemos tener continuidad con la nueva copia, no podemos oponernos a vaporizar la antigua. Irreversibilidad, es un gran problema. Tenemos el mismo problema con la pérdida de biodiversidad y la extinción de especies.
Si consideramos reemplazar la función de una neurona del cerebro humano por una neurona con componentes de computadora, tenemos que aceptar que un robot puede, en principio, ser una persona. Si simulamos la función de esos componentes digitalmente, tenemos que admitir que un programa puede ser una persona. Turing propuso su famosa prueba, para alejarse de la preocupación por las "esencias" invisibles, para centrarse en lo que hace la inteligencia . 'Pasar la prueba de Turing' es, en el mejor de los casos, evidencia ambigua, y hay muchas versiones, pero el punto es centrarse en la funcionalidad de la inteligencia y la personalidad.
Peter Singer aboga por los derechos de los animales sobre la base de las capacidades, argumentando que el 'círculo imaginario' que dibujamos alrededor de los humanos no es coherente ni consistente, si priorizamos el bienestar de un ser humano con muerte cerebral sobre un delfín que sabemos que pasa la prueba del espejo. y tienen un lenguaje complejo, y podemos pensar sufrir de maneras que el ser humano con muerte cerebral no puede.
Bostrom propone ' mindcrime ', que extendemos las consideraciones morales a programas y máquinas complejos, de manera paralela a nuestras preocupaciones por los animales, la capacidad de sufrir y la capacidad de asumir deberes morales, y, de manera crucial, considerar cuán profundamente alienantes son sus experiencias, causando potencialmente su sufrimiento sea difícil de entender o ver para nosotros.
¿Ha "crecido" un zombi filosófico, de una manera compleja y única a través de la interacción? ¿O es como un cerebro de Boltzmann, o "transmitido" por un teletransportador, y por lo tanto potencialmente reemplazable con una fidelidad perfecta? Deberíamos tener más cuidado con lo que podemos deshacer que con lo que no podemos. Más ampliamente que eso, depende de su encuadre de ¿Cuál es el incentivo de uno para ser moral?
Mauro ALLEGRANZA
Jishin Noben
curiosodannii
Mauro ALLEGRANZA
4HonorNDFama
4HonorNDFama
Conifold
Pregunta por Mónica
4HonorNDFama
armando
Guy Inchbald
Tvde1