¿Puede un robot programado con sistema operativo de 3 leyes dañar a un humano que está dañando a otro humano?

Vemos que un robot puede atacar a otro robot en defensa de un humano, pero ¿puede un robot programado con 3 Leyes defender a un humano de otro humano?

No sin violar la ley. Yo diría que esa es una respuesta, pero no soy abogado.
Una mejor pregunta sería: un humano que va a matar a otro humano y el robot solo puede evitarlo matando al atacante humano. En mi opinión, eso depende de la complejidad del robot, según la respuesta de Algernon_Asimov.
Todos deberían leer The Naked Sun de Asimov, ¡explicará mucho!
La pregunta en el título y la pregunta en el cuerpo son preguntas diferentes.
Los diversos cuentos de Isaac Asimov exploran lo que sucede cuando se juega con las tres leyes. Esto incluye retroalimentación positiva y negativa sobre las diversas leyes, incluida la cero.
Sospecho que causaría una excepción de desbordamiento de pila ...

Respuestas (6)

Sí puede.

Hay varias formas de defender a un humano de otro humano que lo ataca.

Para empezar, un robot podría sacar a la víctima del lugar del ataque: recoger a la víctima y huir del atacante.

Un robot podría simplemente interponerse entre el atacante y la víctima y bloquear el ataque: dejar que el atacante lo golpee, en lugar de la víctima.

Un robot podría inmovilizar al atacante sin dañarlo, por ejemplo, envolviéndolo con sus brazos para evitar que golpee a la víctima.

Si hubiera un arma involucrada, como un cuchillo o una pistola, el robot podría desarmar al atacante agarrando el arma. Si el atacante no soltó su arma y el robot terminó lastimándolo, esto le causaría problemas al robot, y el nivel del problema dependería de la cantidad de daño causado.

Hay muchas formas en que un robot puede defender a un humano de ser atacado sin dañar al humano atacante.

Sin embargo, si el robot no pudo detener el ataque de ninguna de las formas anteriores, es posible que el robot deba tomar una acción más directa. Y, el robot iría tan lejos como sea necesario para defender a la víctima, hasta que dañe al atacante. En ese punto, el hecho de dañar activamente a un humano supera el daño potencial a la víctima, y ​​el robot tiene que lidiar con la "culpa". Muchos robots simplemente se apagarán en este punto. Algunos se desorientarían y requerirían servicio. Solo unos pocos robots altamente avanzados (como Daneel Olivaw o Andrew Martin o Giskard Reventlov) serían capaces de lidiar con el daño que causaron, equilibrándolo con el daño que previnieron.

Hasta donde yo sé, el escenario de un robot que defiende a un humano contra el ataque de otro humano ha ocurrido solo una vez en cualquiera de las historias de Asimov. Describirlo requerirá spoilear el final de 'Robots and Empire'. Si no ha leído ese libro y no quiere que se eche a perder el final, tendrá que omitir el resto de esta respuesta. ¡Lo siento!

En ese libro, un par de humanos (Spacers) estaban conspirando para irradiar la Tierra. Tenían diferentes motivos: Levular Mandamus quería irradiar el planeta lentamente, durante siglos, simplemente para obligar a la gente de la Tierra a abandonar el planeta; Kelden Amadiro quería irradiar el planeta rápidamente, durante solo una década o dos, lo que mataría a miles de millones de habitantes de la Tierra que no podrían abandonar el planeta a tiempo.

Dos robots, R. Daneel Olivaw y R. Giskard Reventlov, intentan evitarlo. Llegan a la escena y encuentran a Amadiro apuntando con un bláster a Mandamus (tratando de convencer a Mandamus de que haga las cosas a la manera de Amadiro).

Más rápido de lo que el ojo podía seguir, un brazo se estiró para agarrar la muñeca de Amadiro, paralizándola con presión, y el desintegrador desapareció.

Daneel dijo: —Me disculpo por haber tenido que infligirle dolor, doctor Amadiro, pero no puedo permitir que sostenga un bláster apuntando a otro ser humano.

Tan simple como eso: un robot causó dolor a un ser humano para evitar que lastimara o matara a otro ser humano. Es cierto que Daneel era un robot muy avanzado. Los robots más simplistas podrían haber sufrido un congelamiento cerebral después de haber causado dolor para evitar daños.

Más tarde, Giskard pone a Amadiro en coma (Giskard tiene poderes telepáticos, ¡una larga historia!) Cuando Amadiro explica que quiere matar a la gente de la Tierra. Y Giskard no sufre efectos negativos por esa acción, pero es otro robot avanzado. De hecho, es el robot que inventa la Ley Cero de la Robótica: "Un robot no dañará a la humanidad ni, por inacción, permitirá que la humanidad sufra daños". (Él "muere" por otra cosa que elige hacer más tarde, porque no está seguro de si tomó la decisión correcta para la humanidad).

Estos son dos robots que infligieron dolor y daño a un humano para evitarlo: matar a un humano visible y presente; matando a muchos humanos, ni presentes ni visibles en ese momento.

Gran respuesta. No puedo ver a nadie presentando uno mejor o más correcto. Ahora voy a tener que leer esa historia para el contexto completo.
En segundo lugar , solo señalaría que dejar que el atacante lo golpee, en lugar de que la víctima pueda y probablemente cause daño al atacante de robots más voluminosos. Al elegir esta opción, dicho robot técnicamente infringiría la primera ley, con las consecuencias habituales.
En general, gran respuesta. Pero debe enfatizarse que los robots tienen problemas reales para dañar a los humanos. En la primera aparición de R. Daneel Olivaw, lleva un blaster... sin su celda de energía, por lo que no hay posibilidad de lastimar a un humano. En The Naked Sun, un robot se vuelve tan loco que su mente se destruye cuando un humano es asesinado frente a él. (En realidad, no tiene culpa, pero estaba involucrado tangencialmente y la "culpa" era demasiado).
Gran respuesta, algunas adiciones: As far as I know, the scenario of a robot defending a human against another human's attack has occurred only once in any of Asimov's stories.anteriormente en el mismo libro, Giskard también puso a Vasilia Aliena en coma. (He does "die" from something else he chooses to do later, because he's not sure if he made the right choice for humanity.) [...] ; killing many humans, neither present nor visible at the time.Podrías haber dado los detalles de la decisión de Giskard, es muy relevante para la pregunta.

Para agregar a la respuesta anterior, vale la pena recordar que la primera Ley establece que "Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño ".

La solución ideal para un robot que cumple con las Tres Leyes es intervenir de una manera que evite el daño a la víctima pero no al atacante, interponiéndose en el camino del ataque, moviendo a la víctima, etc.

Si eso no es posible, entonces el robot se ha puesto en una posición en la que todas las respuestas posibles, incluso no hacer nada, violarán las Leyes. Que un robot pueda sobrevivir a esto parece depender de dos factores: cuán sofisticado es su 'cerebro' y si una infracción es significativamente más o menos grave que la(s) alternativa(s). Un robot suficientemente avanzado elegirá el curso de acción que provoque la menor infracción de las Leyes; si su cerebro es demasiado simple o las brechas son demasiado grandes, se congelará.

La implicación, al menos para mí, es que la redacción tradicional de las Leyes es en realidad solo una aproximación destinada a ser fácil de entender para los no especialistas. La implementación real parece ser una función de optimización de algún tipo, con un mayor peso en las leyes superiores que en las inferiores. Si el robot puede resolver la ecuación para una situación dada, está bien; si no puede, comienza a descomponerse.

CL-123X en realidad mató a su maestro en el cuento Cal que se puede encontrar recopilado en GOLD .
Además, creo que ha habido casos ocasionales de robots que no son lo suficientemente inteligentes como para pensar en el curso de sus acciones para reaccionar rápidamente y luego arrepentirse.
"La implementación real parece ser una función de optimización de algún tipo, con un mayor peso en las leyes superiores que en las inferiores". Sí. Recuerdo a Daneel explicando esto en alguna historia. Si se le ordenara destruirse a sí mismo, casi con seguridad encontraría una forma de eludir la orden, lo que va en contra de una lectura simplista de la segunda y tercera leyes.
Asimov aborda explícitamente la priorización de las leyes en varias historias, en particular, "Runaround".

El problema aquí es que la primera ley citada está escrita con un conflicto incorporado debido al "o" que une dos casos distintos. Eso permite el experimento mental presentado aquí.

A menos que sepamos el factor de ponderación entre ellos (no necesariamente 1; 1), y a menos que sepamos cómo calificaría esa situación particular esa implementación cerebral particular, nunca podremos responder la pregunta.

Para ver un ejemplo de un conflicto que no se puede resolver en este nivel, vea la historia Runaround

Esta es una pregunta que ha tenido una respuesta en evolución a lo largo de la vida de Asimov mientras trabajaba en cuáles eran todas las implicaciones de las tres leyes. Dicho esto, las preguntas originales solo pueden responderse con un 'sí, pero...' porque los cerebros positrónicos y la programación se volvieron más complejos y sofisticados con el tiempo en reacción a los eventos en ese universo. Recomiendo especialmente la historia de 1941 "Liar": http://en.wikipedia.org/wiki/Liar!_(short_story)

El problema es que las leyes tienen que ser interpretadas, por lo que la pregunta es más sobre la implementación (interpretación de cuál es el curso de acción correcto) de la inteligencia robótica, especialmente con respecto a esa primera ley.

Por ejemplo: ¿Qué constituye 'daño'? ¿Hasta el más mínimo rasguño de un robot? Esto no tendría sentido para una persona razonable y esa es la base del derecho consuetudinario inglés (que también es la base de la ley estadounidense y de las leyes de muchas otras partes del mundo).

Lo que tendría más sentido para esta persona razonable (yo) sería interpretar la ley en un caso como el que usted describe de tal manera que cualquier "daño" infligido al atacante humano por un robot no sea mayor que el que, con toda probabilidad, y por la inacción del robot, han sido infligidos a la víctima humana que el robot estaba protegiendo... pero entonces tienes el dilema... del daño real infligido a un atacante potencial versus un daño posible/probable pero no realizado a una víctima potencial . En otras palabras, las leyes que se aplican a las acciones robóticas serán una lata de gusanos tan grande como las leyes que se aplican a los humanos y las personas que se beneficiarán serán los abogados. ;-)

Considere la siguiente situación: la persona A va a dañar (digamos matar) a la persona B. El robot puede prevenir esto solo al dañar a la persona A. Por ejemplo, el robot está detrás de las rejas, pero puede arrojar un ladrillo.

La primera ley establece que "un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño". Si el robot arroja un ladrillo, dañará al humano A, pero si no lo hace, permitirá que el humano B sufra daño. Hasta ahora, el robot está en la cerca. La inacción probablemente sería una opción más segura, porque no puede haber un 100% de certeza de que A no cambiará de opinión en el último momento.

Sin embargo, si B grita "¡ayúdame, robot!", la acción cumpliría el 50% de la primera Ley y la segunda Ley, mientras que la inacción estaría respaldada por el 50% de la primera Ley sola. Esto podría marcar la diferencia y obligar al robot a actuar. Cualquier orden proveniente de la persona A, incluso aparentemente inocua como "mantenerse alejado", puede ser ignorada por el robot ya que su intención va claramente en contra de la primera Ley.