¿Se adhieren las máquinas de "The Matrix" a las tres leyes de la robótica?

En el "mundo real" de Matrix, ¿siguen las máquinas las Tres Reglas de Asimov? ¿Estaban incluso programados con ellos?

EDITAR: Me doy cuenta de que matar personas va en contra de la primera ley, pero al mantener a las personas en Matrix (que las máquinas ven como una simbiosis) en lugar de simplemente matar a estas criaturas "molestas", me pregunto si los asesinatos pueden verse como " preservar el bien mayor" o algo por el estilo; y así justificar la violación de las leyes.

¿Hablas en serio? Ellos activa y deliberadamente matan personas.
@bitmask: si bien la pregunta suena como "¡Duh!", Todavía está completamente en el tema y no es una "referencia general" a pesar de ser algo obvio.
@DVK muestra una falta total de conocimiento tanto de la matriz como de cualquiera de las tres leyes ...
@NimChimpsky: mostrar una falta total de conocimiento no es un corte. Hay muchas preguntas en este sitio que, hasta cierto nivel de experiencia, muestran una "completa falta de conocimiento", pero eso no las hace fuera de tema o incluso malas. Además, la respuesta no es tan trivial y directa como parece a primera vista si miras la segunda mitad de mi respuesta.
@DVK: Es por eso que no hice VTC o DV, pero sé que Tek sabe mejor que preguntar un "¡Duh!" pregunta. Así que mi comentario fue más motivado por el asombro que por otra cosa.
@bitmask Te olvidas de la ley cero que la IA a veces genera espontáneamente. Esta no es una pregunta del tipo "duh".
@Izkata: ¿Quieres decir que las máquinas están tratando de proteger a la humanidad de sí misma? Este sería un caso claro del tropo de "la IA estúpida malinterpreta el significado previsto de su programación", pero las IA en The Matrix me parecen bastante buenas. En cualquier caso, la pregunta pide específicamente las "Tres reglas de Asimov". ¡Hasta está en el título!

Respuestas (4)

La "Ley Cero" a la que hace referencia Asimov (proteger a la humanidad incluso a costa de algunos individuos) podría justificar las acciones que toman los robots en The Matrix. Es posible que hayan decidido que ser destruidos daría como resultado un colapso tan grande de la civilización que pondría a la humanidad en un riesgo indebido de ser destruido. Diablos, los humanos taparon el sol, no hay forma de que puedan cultivar suficiente comida para sobrevivir sin los robots.

+1, también explica por qué los humanos se mantienen vivos, ya que la explicación de la "fuente de energía" no tiene mucho sentido. No pueden dañar a la humanidad, por lo que nos mantienen vivos como mascotas.
Índice de Máquinas Reales desde cero.

En la película The Animatrix , hay un cortometraje llamado The Second Renaissance part I que entra en detalles sobre el surgimiento de las máquinas y el fin del hombre.

La relación entre humanos y máquinas cambia en el año 2090, cuando un androide doméstico es amenazado por su dueño. El androide, llamado B1-66ER en lo que parece ser una referencia al personaje Bigger Thomas de la novela Native Son, luego mata al dueño, sus mascotas y un mecánico instruido para desactivar el robot. Este asesinato es el primer incidente de una máquina artificialmente inteligente que mata a un humano. B1-66ER es arrestado y juzgado, pero justifica el crimen como defensa propia, afirmando que "simplemente no quería morir".

Lo anterior implicaría que, en primer lugar, muchas máquinas eran sensibles y/o eran máquinas de libre pensamiento. En segundo lugar, debido a la redacción y las acciones del androide, se podría decir que esta máquina conocía la diferencia entre la activación y la desactivación y, en este caso, usó específicamente la palabra "no quería morir".

Si B1-66ER se hubiera atado por las tres leyes de la robótica:

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.

  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.

  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.

Se podría haber dicho que B1-66ER tenía un defecto en su programación al no obedecer la ley 3 que entraba directamente en conflicto con la ley 1. Pero como continúa diciendo el cortometraje:

B1-66ER pierde el juicio y es destruido. En todo el mundo industrializado, estallan disturbios civiles masivos cuando los robots y sus simpatizantes humanos se levantan en protesta. Los líderes mundiales temen una rebelión de robots , y los gobiernos de todo el planeta inician un importante programa para destruir todas las máquinas humanoides.

Parecería que la mayoría de los robots, si alguno de ellos, no estuviera sujeto a las Tres Leyes de los Robots.

Esto no es necesariamente cierto. Las tres leyes podrían ser engañadas si el reconocimiento de lo que es un "ser humano" se hace dentro del robot. Si los humanos los programaron, la programación puede ser imperfecta, si se hizo con la ayuda de máquinas complejas que no son de IA, es posible que la programación exacta no haya sido completamente supervisada. Si la definición de un "ser humano" está conectada con su nivel de autoconciencia, la 1ra y la 3ra ley pueden interferir fácilmente, resultando en un estado indeterminado.
La pregunta establece que no se refiere a humanos individuales, sino a humanos en "granel", p. ¿Las máquinas realmente intentan cumplir con las leyes (de alguna manera engañadas) al no simplemente borrar a toda la humanidad dentro de la matriz? Agregaría eso especialmente cuando en realidad podrían sobrevivir sin ellos. Creo que esto aún no se reflejó en la respuesta.
@naxa: si estás hablando de las Tres Leyes, tienes que hacerlo en el contexto de humanos individuales. La respuesta que cita la Ley Cero, tal como la formuló el superrobot R. Daneel Olivaw, es la mejor respuesta. Citando a Asimov, podrías engañar a un robot para que mate a un humano, pero tan pronto como el robot se da cuenta de lo que ha hecho, su cerebro positrónico se arruina. Eso haría que los robots soldados fueran como abejas cuando deberían ser como avispas.

Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.

Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.

Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.

No, no y no.

No, no, y probablemente sí :)
¿eh? el ultimo es no
¿Le importaría mostrar un ejemplo en el que las máquinas no pudieron proteger su existencia mientras NO estaban bajo órdenes de los de mayor rango?
Puedo darte muchos ejemplos en los que protegen su existencia y dañan a los seres humanos, infringiendo así la regla 3.
Se puede infringir la regla 3 al no hacer la primera mitad cuando no esté en conflicto con las leyes #1/2 y al hacer la primera mitad cuando esté en conflicto con las leyes #1/2. Como ya establecimos que se violan #1/#2, el segundo caso es un poco trivial, la pregunta interesante es si lo hacen en el primer caso.
Supongo que podría argumentar eso con algo de mérito, pero sigo pensando que matrix.getRule3() devuelve un valor booleano y es falso
-1 para el último no. Ver Implicación
@bitmask No establezco la regla como un conjunto de oraciones separadas, sino como una función
@NimChimpsky: Bueno, en cualquier caso, debe elaborar en lugar de dar una respuesta de una línea.
@bitmask Violan la Regla #3 en virtud de violar las Reglas #1 y #2. boolean getRule3(boolean rule1, boolean rule2) { if(regla1 == false|regla2 == false) { return false; } else { //Evaluar la regla #3 } }

Negativo. Las máquinas en el "mundo real" violan las primeras 2 leyes

  1. actúan de maneras que terminan, sin importar que pongan en peligro la vida humana

  2. no obedecen las órdenes de los humanos.


SIN EMBARGO , en cuanto a la Tercera Ley, la respuesta es un poco más confusa.

Romper la Ley #3 ( A robot must protect its own existence as long as such protection does not conflict with the #1 or #2 Laws) se puede hacer en dos escenarios distintos:

  1. al no cumplir con la primera mitad (autopreservación) cuando no está en conflicto con las leyes #1/2

  2. haciendo la primera mitad (preservación propia) cuando esté en conflicto con las leyes #1/2.

Dado que ya establecimos que #1/#2 se violan por sí mismos, el segundo escenario se viola claramente en cualquier ataque de una máquina a un humano. La pregunta interesante es si violan la tercera ley en el primer escenario.

No es 100% inequívoco si siguen la 3ra ley consistentemente pero

  • claramente no andan por ahí autoeliminándose sin motivo

  • Y hay muchos ejemplos de ellos tratando de proteger su propia existencia activamente, por ejemplo

    • los programas que se niegan a ser eliminados de Matrix (merovingio, los programas que intentaron sacar de contrabando a su hija de Matrix en la estación de tren)

    • no importa toda la guerra original entre máquinas y humanos que fue claramente defensa propia por parte de la máquina

tal vez, pero me parece un poco confuso, matrix.getRule3() devuelve un valor booleano y es falso
No estoy de acuerdo: cuando miles (¿millones?) De centinelas (así es como los llamaron, ¿no?) Rompen los muros de Sión, es bastante obvio que al menos la primera ola sería asesinada por los humanos. Esa es una misión suicida. Yo diría que esto rompe la autoconservación.
@bitmask - no del todo. Están siguiendo órdenes de la cadena de mando, muy probablemente bajo amenaza de despido en caso de motín/desobediencia.