En el "mundo real" de Matrix, ¿siguen las máquinas las Tres Reglas de Asimov? ¿Estaban incluso programados con ellos?
EDITAR: Me doy cuenta de que matar personas va en contra de la primera ley, pero al mantener a las personas en Matrix (que las máquinas ven como una simbiosis) en lugar de simplemente matar a estas criaturas "molestas", me pregunto si los asesinatos pueden verse como " preservar el bien mayor" o algo por el estilo; y así justificar la violación de las leyes.
La "Ley Cero" a la que hace referencia Asimov (proteger a la humanidad incluso a costa de algunos individuos) podría justificar las acciones que toman los robots en The Matrix. Es posible que hayan decidido que ser destruidos daría como resultado un colapso tan grande de la civilización que pondría a la humanidad en un riesgo indebido de ser destruido. Diablos, los humanos taparon el sol, no hay forma de que puedan cultivar suficiente comida para sobrevivir sin los robots.
En la película The Animatrix , hay un cortometraje llamado The Second Renaissance part I que entra en detalles sobre el surgimiento de las máquinas y el fin del hombre.
La relación entre humanos y máquinas cambia en el año 2090, cuando un androide doméstico es amenazado por su dueño. El androide, llamado B1-66ER en lo que parece ser una referencia al personaje Bigger Thomas de la novela Native Son, luego mata al dueño, sus mascotas y un mecánico instruido para desactivar el robot. Este asesinato es el primer incidente de una máquina artificialmente inteligente que mata a un humano. B1-66ER es arrestado y juzgado, pero justifica el crimen como defensa propia, afirmando que "simplemente no quería morir".
Lo anterior implicaría que, en primer lugar, muchas máquinas eran sensibles y/o eran máquinas de libre pensamiento. En segundo lugar, debido a la redacción y las acciones del androide, se podría decir que esta máquina conocía la diferencia entre la activación y la desactivación y, en este caso, usó específicamente la palabra "no quería morir".
Si B1-66ER se hubiera atado por las tres leyes de la robótica:
Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.
Se podría haber dicho que B1-66ER tenía un defecto en su programación al no obedecer la ley 3 que entraba directamente en conflicto con la ley 1. Pero como continúa diciendo el cortometraje:
B1-66ER pierde el juicio y es destruido. En todo el mundo industrializado, estallan disturbios civiles masivos cuando los robots y sus simpatizantes humanos se levantan en protesta. Los líderes mundiales temen una rebelión de robots , y los gobiernos de todo el planeta inician un importante programa para destruir todas las máquinas humanoides.
Parecería que la mayoría de los robots, si alguno de ellos, no estuviera sujeto a las Tres Leyes de los Robots.
Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.
No, no y no.
Negativo. Las máquinas en el "mundo real" violan las primeras 2 leyes
actúan de maneras que terminan, sin importar que pongan en peligro la vida humana
no obedecen las órdenes de los humanos.
SIN EMBARGO , en cuanto a la Tercera Ley, la respuesta es un poco más confusa.
Romper la Ley #3 ( A robot must protect its own existence as long as such protection does not conflict with the #1 or #2 Laws
) se puede hacer en dos escenarios distintos:
al no cumplir con la primera mitad (autopreservación) cuando no está en conflicto con las leyes #1/2
haciendo la primera mitad (preservación propia) cuando esté en conflicto con las leyes #1/2.
Dado que ya establecimos que #1/#2 se violan por sí mismos, el segundo escenario se viola claramente en cualquier ataque de una máquina a un humano. La pregunta interesante es si violan la tercera ley en el primer escenario.
No es 100% inequívoco si siguen la 3ra ley consistentemente pero
claramente no andan por ahí autoeliminándose sin motivo
Y hay muchos ejemplos de ellos tratando de proteger su propia existencia activamente, por ejemplo
los programas que se niegan a ser eliminados de Matrix (merovingio, los programas que intentaron sacar de contrabando a su hija de Matrix en la estación de tren)
no importa toda la guerra original entre máquinas y humanos que fue claramente defensa propia por parte de la máquina
máscara de bits
DVK-en-Ahch-To
nimchimpsky
DVK-en-Ahch-To
máscara de bits
Izkatá
máscara de bits