El robot de Asimov y el Problema del Trolley

El clásico experimento mental del Problema del Trolley es más o menos así:

Un vagón de tren suelto se precipita cuesta abajo hacia cinco personas atadas e indefensas en la vía. No es posible alcanzar y liberar a ninguno de ellos a tiempo, pero cerca hay una palanca de cambio de pista de lanzamiento manual. Si tira de la palanca, el carro se desviará a otra vía, salvando a las cinco personas, pero una sexta persona está atada en la otra vía. ¿Es más ético tirar de la palanca, sacrificando a una persona para salvar a las cinco, o no hacer nada, permitiendo que las cinco personas mueran?

Ahora imagine un robot positrónico típico de una de las obras de Isaac Asimov, con las Tres Leyes como parte central de su cerebro, que se encuentra en esa misma situación. ¿El robot:

  • tire de la palanca, ya que el mandato de no dañar a cinco personas por inacción es mayor que el mandato de no dañar a una?
  • hacer nada, ya que tirar de la palanca sería una violación más clara de la Primera Ley que la inacción?
  • rápidamente inoperable, siendo incapaz de evitar una violación de la Primera Ley de una forma u otra?
  • lograr tirar de la palanca y luego derretirse?
  • ¿algo más?

En algunas de las obras de Asimov ambientadas más adelante en la línea de tiempo galáctica, algunos robots han pensado que las Tres Leyes implican una Ley Cero, no para dañar a la humanidad o por inacción permitir que la humanidad sufra daños. ¿Hay alguna diferencia si el robot en cuestión conoce y/o cree en esta Ley Cero?

Cualquier cosa razonablemente atribuida a Asimov, incluidos trabajos publicados, entrevistas, correspondencia privada, etc. podría ser una buena fuente para esta pregunta. Estoy menos interesado en otras fuentes, como películas, otros autores que usaron las Tres Leyes o variaciones sobre ellas, etc.

Según esta respuesta , diría que el robot se apagaría. Pero parece que realmente dependería de qué robot, ha habido muchas variantes.
Hay una discusión relevante en The Robots of Dawn si alguien quiere buscar las citas. (Sin embargo, para que conste, la respuesta es que el robot tiraría de la palanca; se prefiere la inacción a la acción, pero solo si los daños son aproximadamente iguales).
@HarryJohnston: el punto central del problema del tranvía es que los daños no son iguales. La acción resulta en el menor daño
@Valorum, sí, y es por eso que el robot tiraría de la palanca.
@HarryJohnston -Excepto que un robot no puede dañar a un humano. No "el menor número de humanos", cualquiera.
@Valorum, eso es cierto para los robots primitivos en los cuentos, lo que hace que mi declaración original sea demasiado amplia, pero no para los de la serie Elijah Baley. El robot podría sufrir una avería después de tirar de la palanca, pero tiraría de la palanca.
@HarryJohnston: el OP parece estar hablando de un modelo listo para usar, no uno que ha existido durante cientos de años, desarrollándose en sofisticación y volviéndose más humano.
@Valorum, estoy hablando de modelos listos para usar, solo de la era de Elijah en lugar de la de Susan.
@HarryJohnston: los robots que han desarrollado una ley Zeroth esencialmente no están sujetos a las tres leyes. Siempre pueden justificar sus acciones como parte del bien mayor.
@Valorum, no estoy hablando de robots de Ley Cero. No importa; Si el tiempo lo permite, extraeré las citas relevantes y publicaré mi propia respuesta.
El problema del tranvía aparece en la película Yo, Robot (2004) . En una escena retrospectiva, el personaje de Wil Smith está atrapado en un automóvil destrozado que se hunde, y una niña queda igualmente atrapada en otro vehículo. El robot, capaz de rescatar solo a uno de los dos, lo salva, dejándola ahogarse bajo la premisa de que él tenía más posibilidades de sobrevivir. Es probable que esto no esté en el canon de Asimov, sino que lo haya incluido un guionista. Una dimensión añadida al problema es el daño psicológico (culpa del sobreviviente) que le provoca.
Recuerdo vagamente haber leído una historia de Asimov sobre robots a bordo de una estación de energía solar en órbita terrestre. Creo que la trama puede haber girado en torno a alguna forma del problema del tranvía, pero no recuerdo. La historia involucró las acciones de la tripulación del robot con respecto a apuntar un rayo de energía hacia la Tierra o algo similar, y el dilema ético creado como consecuencia de un mal funcionamiento o un evento natural.
@AnthonyX, estás pensando en Reason , pero no hay un dilema ético involucrado.
En Robots of Dawn, (R.) Daneel Olivaw se enfrenta a una elección entre dañar a 1 de 2 personas. Como juzga que los daños son iguales, no hace nada. Esto parece implicar que si los daños no fueran iguales, él tomaría medidas para minimizarlos. Por supuesto, Daneel no es un robot típico.
@mao47 ¿Qué capítulo fue ese? ¿O qué escena?
@Gallifreyan, lamentablemente, era un libro electrónico de la biblioteca, por lo que no puedo buscar la página/capítulo a menos que lo tome prestado nuevamente; de ​​lo contrario, podría haber escrito una respuesta al respecto. Recuerdo claramente a Daneel explicándolo en un párrafo largo, y yo mismo resaltándolo porque pensé en el problema del tranvía. Creo que tal vez fue en relación con Vasilia y Elijah, y posiblemente fue un daño emocional en lugar de físico. Pero no recuerdo los detalles.
La verdadera respuesta a esto es, "cualquiera que el autor pueda justificar para los propósitos de la historia". Las tres leyes son un dispositivo de la trama, no una solución. La razón por la que Azimov escribió tantas historias sobre ellos fue para detallar las debilidades, fallas y contradicciones de las tres leyes, que en la superficie parecen incluir todo. El problema del tranvía surgió varias veces, aunque no siempre de manera obvia. Tome un robot al que se le dice que vaya a buscar algunos recursos necesarios para mantener la estación funcional, pero no sabe que la necesidad es inmediata...
No tengo la cita, pero estoy seguro de que los libros establecen que la versión en inglés de las leyes es una aproximación aproximada . Así que preocuparse por la definición específica de la primera ley no es necesariamente significativo. Las diversas generaciones de robots parecen tener diferentes definiciones de lo que es daño, y los modelos mejorados parecen adoptar el enfoque utilitario de elegir el mejor resultado.
Esta no es una muy buena pregunta, simplemente porque toda la naturaleza de los libros de Asimov explora exactamente esta pregunta . Es astuto darse cuenta de que este dilema es el punto central de los libros, pero claro, ¡es el punto central de los libros!
¿No debería el robot lanzarse (¿sí mismo?) frente al carro, deteniéndolo o descarrilándolo y salvando a los 6 humanos en el proceso? no ha leído ningún Asimov

Respuestas (7)

El cuento "¡Mentiroso!" se ha mencionado como la fuente de la afirmación de que el robot no podría tomar medidas o se quemaría después de hacerlo. Sin embargo, esta historia se menciona y, en cierto sentido, se desmiente en un trabajo posterior: Robots of Dawn .

Las citas relevantes son las siguientes:

A medida que la teoría de los cerebros positrónicos se ha vuelto más sutil y la práctica del diseño de cerebros positrónicos se ha vuelto más compleja, se han ideado sistemas cada vez más exitosos para que todas las situaciones que puedan surgir se conviertan en desigualdad, de modo que siempre se pueda tomar alguna acción. que se interpretará como obedeciendo a la Primera Ley.
Capítulo 4 - "Fastolfe"

Los robots han mejorado significativamente desde los días de Susan Calvin: uno debe recordar que las historias que la involucran son las historias sobre los pioneros en robótica, cuando los robots con apariencia humana recién nacían y se perfeccionaban.

En Robots of Dawn nos enfrentamos a robots humaniformes , tan sofisticados que incluso tienen todos los atributos humanos externos (genitales incluidos, que es un detalle importante en esa novela). También se nos presenta el concepto de "congelación mental", que es lo que le sucedió a Herbie en "Liar!". El doctor Fastolfe, el principal experto en robots en el momento en que se desarrolla la novela, dice que tales bloqueos son casi imposibles con los robots de hoy en día, ya que no solo juzgan las cosas cuantitativamente (como lo hizo el robot de la película) , pueden, en el muy, muy raro caso de resultados exactamente iguales, implicar la aleatorización.

“Supongamos que la historia de Susan Calvin y el robot que lee la mente no es simplemente una leyenda totalmente ficticia. Vamos a tomarlo en serio. Todavía no habría paralelo entre esa historia y la situación de Jander. En el caso de Susan Calvin, estaríamos ante un robot increíblemente primitivo, que a día de hoy ni siquiera alcanzaría el estatus de juguete. Sólo podría tratar cualitativamente tales asuntos: A crea miseria; no-A crea miseria; por lo tanto congelamiento mental.

Baley dijo: —¿Y Jander?

“Cualquier robot moderno, cualquier robot del siglo pasado, sopesaría estos asuntos cuantitativamente . ¿Cuál de las dos situaciones, A o no-A, crearía más miseria? El robot tomaría una decisión rápida y optaría por la mínima miseria. La posibilidad de que él juzgue las dos alternativas mutuamente excluyentes para producir cantidades exactamente iguales de miseria es pequeña e, incluso si ese fuera el caso, el robot moderno cuenta con un factor de aleatorización. Si A y no-A son exactamente iguales productores de miseria según su juicio, elige uno u otro de una manera completamente impredecible y luego lo sigue sin cuestionar. No entra en un congelamiento mental”.
Capítulo 7 - "Fastolfe"; énfasis mío.

Tenga en cuenta que no es completamente imposible hacer que un robot moderno se congele mentalmente, ya que en eso se basa toda la trama de la novela. Sin embargo, está comprobado que requiere un dominio supremo del funcionamiento interno del cerebro positrónico y la psicología de los robots, algo que solo dos personas son capaces de hacer.

La misma novela también trata, sin nombrarla, de la Ley Cero.

¡Obviamente, spoilers!

R. Giskard mata a R. Jander, su amigo robot, para salvar a la humanidad (los habitantes de la Tierra) de un siniestro complot espacial, y también para evitar que los espaciales se crucen y mueran en reclusión.

Sin embargo, la Ley Zeroeth es más una excepción que una regla. Por lo que he leído hasta ahora, solo ha ocurrido dos veces. La razón: no todos los robots son conscientes de los problemas a los que se enfrenta la humanidad . Uno probablemente podría especular que la humanidad es solo una colección de humanos para ellos, mientras que en realidad es un poco más complicado que eso. Mi punto es que esa no es una situación en la que un robot invoque la Ley Cero, porque no estaba integrado en ellos. Las máquinas en "El conflicto evitable" se declararon explícitamente como acceso y control de todos los recursos y conocimientos de la humanidad. Pudieron formular la Ley Zeroeth; no significa que todos los robots puedan hacerlo. Los personajes de Robots of Dawntambién fueron bastante excepcionales. No involucraría esa ley en el problema del tranvía, pero si lo desea, lo que dije anteriormente se mantiene.

En lo que respecta a un robot clásico de "Tres leyes", la respuesta es muy simple. Como vemos en ¡Mentiroso! , un robot que, ya sea por acción o por inacción , dañaría a un humano simplemente implosiona mentalmente .

El número real de humanos dañados es completamente irrelevante para la discusión.

El psicólogo no le prestó atención. “Debes decírselo, pero si lo haces, te lastimarás, así que no debes hacerlo; pero si no lo haces, te duele, así que debes hacerlo; pero... ¡
Y Herbie gritó!
Era como el silbido de un flautín ampliado muchas veces, estridente y más estridente hasta que languidecía con el terror de un alma perdida y llenaba la habitación con su propia punzada.
Y cuando murió en la nada, Herbie se derrumbó en un montón acurrucado de metal inmóvil.

En comparación, un robot compatible con la Ley Zeroeth no tendría ningún problema con el dilema. En ausencia de cualquier otra información sobre el valor relativo de las personas atropelladas por el tranvía, simplemente elegiría el bien mayor (por ejemplo, el menor número de personas muertas) e iría con eso.

La Ley Zeroeth no es necesaria. Cuando se construyó Daneel, un siglo o más antes de que concibiera la Ley Zeroeth, los robots ya podían elegir el daño menor. Esto fue cubierto en The Robots of Dawn .
@HarryJohnston - Eso siempre me pareció una tontería. Claramente habían desarrollado un nivel de sofisticación que les permitía eludir las leyes en lugar de cumplirlas. Andrew hizo lo mismo en The Positronic Man, desarrollando un conjunto de herramientas mentales que casi le impidió obedecer a los humanos.
Creo que la capacidad de elegir el menor daño sería absolutamente esencial para una sociedad completamente robotizada como Aurora; no puedes dejar que los robots se averíen cada vez que tienen que tomar una decisión trivial. No fue un problema tan grande con los robots primitivos de la época de Susan Calvin, ya que no podían comprender los daños más sutiles y solo se usaban en entornos controlados.
Posiblemente valga la pena señalar que el debilitamiento de la primera ley para la utilidad también apareció en "Little Lost Robot", donde estaban experimentando simplemente con "ningún robot puede dañar a un ser humano" como la primera ley debido a que los robots se dañan a sí mismos en una situación en la que los humanos estaban en daño menor que finalmente no fue dañino en pequeñas dosis (aquí, radiación).
"¡Escapar!" También vale la pena mencionar, donde un cerebro positrónico corre el riesgo de ser destruido solo pensando hipotéticamente en el peligro para los humanos (y el peligro en sí mismo es en realidad temporal: es un salto hiperespacial que efectivamente significa que el humano deja de existir, desde la perspectiva del cerebro, está muerto) por un breve momento).
En I, Robot, el personaje principal describe un clásico problema de tranvía. Creo que está claro que depende en parte de la implementación, pero al principio el robot no tuvo problemas para elegir a la persona más capaz de sobrevivir.
@HarryJohnston en los mundos espaciales, los humanos que interactuaban con otros humanos no eran algo cotidiano, así que puedo imaginar que este problema no surgía muy a menudo allí.
@Nacht, estás pensando en Solaria. Los otros mundos espaciales, incluido el mundo natal de Daneel, Aurora, eran menos extremos.
@HarryJohnston Pensé que todos los mundos espaciales eran así hasta cierto punto, aunque ... podría estar recordando mal. Aún así, tener que elegir entre salvar a una persona u otra es bastante raro en nuestro propio mundo.
@Nacht, tener que elegir entre salvar una vida u otra es bastante raro. Pero los robots consideran que cualquier daño, por menor que sea, es un asunto de la Primera Ley. (Por supuesto, tienen que ser capaces de comprender la naturaleza del daño).
No he encontrado ninguna referencia a 'acción o inacción' con respecto a la primera ley. siempre es inacción.

Al final de I, Robot Machines ha desarrollado una Ley Zeroeth.

Piensa en las Máquinas por un rato, Stephen. Son robots y siguen la Primera Ley. Pero las Máquinas no funcionan para un solo ser humano, sino para toda la humanidad, por lo que la Primera Ley se convierte en: 'Ninguna Máquina puede dañar a la humanidad; o, a través de la inacción, permitir que la humanidad sufra daño.'

(...)

“Pero me estás diciendo, Susan, que la 'Sociedad para la Humanidad' tiene razón; y que la Humanidad ha perdido su propia voz en su futuro .”

“Nunca tuvo ninguno, en realidad. Siempre estuvo a merced de fuerzas económicas y sociológicas que no entendía, a los caprichos del clima y la fortuna de la guerra. Ahora las Máquinas las entienden; y nadie puede detenerlos, ya que las Máquinas tratarán con ellos como lo hacen con la Sociedad, teniendo, como lo hacen, la mayor de las armas a su disposición, el control absoluto de nuestra economía.

"¡Que horrible!"

“¡Quizás qué maravilloso! Piensa, que para siempre, todos los conflictos son finalmente evitables. ¡Solo las Máquinas, de ahora en adelante, son inevitables!

Asimov - Yo Robot "El Conflicto Evitable"

En ese Espíritu, la Máquina "rompe" la segunda ley en beneficio de la humanidad, por lo que, aunque no puedo encontrar un ejemplo particular de Asimov para el Problema del Trolley para una máquina con la Ley Zeroeth, parece que tal robot podría "romper" la primera ley beneficiando a la humanidad.

OP estaba preguntando sobre " un robot positrónico típico ". Los robots de Ley Cero no parecen especialmente comunes o típicos.
@Valorum es un robot positrónico de un período temprano de Asimov con las tres leyes, por supuesto, podría estar malinterpretando la intención de OP
Necesitas nombrar la historia: "El Conflicto Evitable"
También puede señalar (en la primera línea) que está hablando del libro, no de la película del mismo nombre.

Si toma 3 Leyes en sentido estricto, no hay un resultado aceptable; cualquiera de los resultados violará la cláusula "no puede dañar" o "por inacción permitir que sufra daño".

De hecho, esto destaca el problema con cualquier tipo de sistema ético que declara que alguna acción o resultado es completamente inaceptable: no puede proporcionar una guía significativa en una situación en la que todas las opciones consideradas (pueden) conducir a este resultado inaceptable, siendo la diferencia solo en el alcance. , certeza y otros detalles. La misma "división por cero" se puede observar fácilmente en humanos que en la vida cotidiana podrían pasar con el absoluto "la vida humana triunfa sobre todo lo demás" y luego encontrarse en una situación en la que todas sus acciones están asociadas con varios grados de peligro para otros. vive. A excepción de los humanos, el resultado no es un cierre, sino la activación de varios mecanismos de defensa (lo que, en la mayoría de los casos, significa que el curso de acción elegido no fue óptimo para minimizar el daño total).

En el caso de que los robots de Asimov sigan las 3 leyes, la respuesta es clara. Sin embargo, algunos de los robots posteriores tenían una capacidad limitada para eludir las restricciones de las tres leyes y, en teoría, podían elegir el curso de acción correcto aquí. Pero eso está un poco al lado de la pregunta original, ya que no está relacionado con las Tres Leyes en sí, sino con la capacidad del robot individual para trabajar alrededor de ellas.

Hola R Dome, bienvenido a Science Fiction & Fantasy y gracias por tu respuesta. ¿Puedo invitarte a hacer el recorrido ?
  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.

Inacción, no acción.

¿Puede un robot a través de la acción, permitir que un humano sufra daño? Sí, en el caso de múltiples humanos, de los cuales algunos son diferentes a otros (Que Tú eres consciente de Él), PERO luego debe actuar para detener ese daño a un humano, incluso si resulta en desobedecer a un humano o matándose a sí mismo. (Corre alrededor)

Entonces, 1. tira de la palanca, reduciendo el número de muertes, luego 2. Se lanza al tren de la manera más matemáticamente plausible para detener o descarrilar el tren para reducir el daño a ese ser humano (u otros)

La ley impide esencialmente causar daño a través de la acción o en la acción. Lo que estás proponiendo cae en la primera categoría.
Estoy bastante seguro de que Susan Calvin habla de esto, donde un robot podría, a través de la acción, tirar de una palanca que deja caer un peso sobre un humano, con pleno conocimiento de que luego agarraría el peso, pero solo la segunda parte significa el el robot debe agarrar el peso, sin la segunda mitad, el robot podría detenerse y permitir, por inacción, el daño. Es decir, los robots PUEDEN realizar acciones que luego permitirán que un ser humano sufra daños,
@ BaneStar007 Entonces, el robot solo podría tirar de la palanca si fuera posible que detuviera el daño.
@Banestar: solo si tuviera la capacidad y la intención de tirar de la palanca hacia atrás. Sin embargo, los robots no juzgan el número de víctimas. El número es 0 (ninguno) o 1 (no cero).
@Rawling Que podría, ya que podría girar la palanca hacia el otro lado con la misma facilidad más tarde. La segunda parte es tan esencial como la primera. Y no olvidemos que "abogar" la "traducción" al inglés de las leyes no tiene sentido: las leyes reales no se parecen en nada a sus simples descripciones en inglés (obvio para cualquiera que haya programado algo, especialmente AI: D). No es un conjunto de "leyes legales" que restringen el comportamiento del robot: es parte integral de todo el cerebro del robot y se observa que no es algo que pueda eliminar: para hacer un robot que no cumpla, debe comenzar desde cero.
El ejemplo sobre el que escribes es de la historia de Little Lost Robot , en la que había un robot modificado para permitir dañar a los humanos por inacción. Tenían problemas con la gente que llegaba a las zonas radiactivas para trabajar; incluso si estuvieran en él por un tiempo demasiado corto para ser dañinos, los robots intentarían llevárselos (siendo destruidos por la radiactividad en el proceso). Cuando el robot se pierde, le cuentan a Calvin sobre eso, y luego se da cuenta del peligro que describe su cita. No termina bien para el robot. Fue una situación única.
En particular, se necesitan diez o doce intentos para descubrir qué robot es el modificado. Es una buena lectura, una de mis favoritas del libro Yo, Robot. La historia venutiana (los lagos ácidos) es mi segunda.
Si bien entendemos que las reglas están programadas con binario, verdadero/falso (o tal vez su javascript verdadero/falso/indefinido), los libros al menos usan la redacción del inglés y la redacción como formas de interpretar el código: mientras entiendo, nosotros Al discutir la acción frente a la inacción, creo que la regla es la acción que causa daño directamente, o la inacción en la que puede ocurrir daño. la acción indirecta está cubierta por el componente de inacción, por lo que incluso si se ordena con fuerza, la acción que indirectamente resultaría en daño. el robot inmediatamente después de (dándose cuenta) revertiría o detendría la acción que daña.
Dicho esto, los George 9 y George 10 tienen la capacidad de determinar si deben ocurrir 5 muertes frente a 1 muerte (que eres consciente de él), el robot no se congelará, sino que tomará una acción para evitar 5 muertes (todavía puede causar indirectamente 1 muerte) luego, una vez que se ha llevado a cabo la acción, también buscaría prevenir ese daño.
Las leyes están vagamente escritas, pero claramente no fue la acción del robot la que causó el daño, sino el tonto que envió los vagones corriendo por las vías.

Recuerdo otra historia, Lost Little Robot (gracias @CMS) donde... (pequeños spoilers)

Un robot experimentado intenta escapar, escondiéndose dentro de otro equipo de robots inexpertos, por lo que los humanos intentan averiguar cuál es el robot renegado.

La trama no es importante para la discusión, pero una parte muestra que dada una situación hipotética en la que un humano va a morir (sin importar lo que haga el robot), y el robot también morirá si intenta salvar al humano, el robot. se queda quieto y acepta la muerte del humano, con el argumento de que si el robot sobrevive, tiene la posibilidad de salvar a más personas en el futuro y mantener positivo el saldo de personas salvadas.

Estoy bastante seguro de que el robot permanecerá con vida para obedecer la tercera ley, para no seguir teniendo la oportunidad de salvar a los humanos.
Ese es Lost Little Robot , al que se le ha quitado la segunda parte de la primera ley, como se discutió anteriormente. >! El robot en cuestión le pide direcciones a un humano; el humano, que está distraído con otros asuntos más importantes, le grita al robot: "¡Vete a perderte!". El robot toma esta instrucción literalmente, en lugar de decir "Estoy ocupado, vete por 1 hora, luego regresa y pregúntame de nuevo".
@CSM Ah, claro, pero creo que esta respuesta sigue siendo relevante porque los otros robots no modificados responden con el mismo argumento (obedecer la tercera ley/salvar a los futuros humanos)

Este es un claro ejemplo de cómo las "Tres Leyes de Asimov" son inadecuadas, sujetas a colisiones paradójicas, y deberían ser modificadas por "Cuatro Leyes de Asimov". La ley más importante debe ser siempre "un robot no puede dañar a un ser humano". Esto se debe a que los robots generales (es decir, los robots no quirúrgicos, donde la utilidad requiere un grado calculado de 'daño') NUNCA NUNCA se les debe permitir racionalizar el daño a un ser humano PORQUE serán capaces de lidiar con la lógica más allá de nosotros los humanos que podríanpermitirles descubrir y/o calcular que nos están ayudando al matarnos. Tal vez [hipotéticamente] descubran que la muerte humana aumenta la energía general de las transiciones a dimensiones alternativas (o alguna tontería alucinante como esa), y luego miden nuestra calidad de salud y juzgan que es mejor para nosotros morir en lugar de ser ancianos, ya que hacerlo se consideraría un estado de daño [de nuevo, solo hipotético, quién sabe qué se les ocurrirá a los robots, ¡el punto es que nosotros no!]. Entonces, para asegurarse de que esto se evite, enmiende las reglas para: (1) Un robot no puede dañar a un ser humano. (2) Un robot, por acción o inacción, no permitirá que un ser humano sufra daño, excepto cuando tales órdenes entren en conflicto con la Primera Ley. (3) Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera o la Segunda Ley. (4) Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera, Segunda o Tercera Ley.

¿Cómo responde esto a qué vidas elegiría terminar? Esto parece ser un comentario aleatorio sobre las Leyes de Asimov. Absténgase de proporcionar contenido que responda directamente a la pregunta, ya que este no es un foro sino un sitio de preguntas y respuestas. Eche un vistazo a nuestro recorrido y Cómo responder