Las leyes de Asimov en pseudocódigo o aplicando las 3 leyes hoy [cerrado]

Primero pregunté esto en Writers.SE, pero me dijeron que podría hacerlo mejor aquí...

Estoy trabajando en una novela de ciencia ficción que involucrará una gran cantidad y variedad de formas de vida sintéticas. He sido muy influenciado por los trabajos de Asimov, y aunque no puedo establecer explícitamente las leyes que utilizo para el gobierno de la vida artificial, quiero tener una base sólida sobre cómo mis robots, o como se llamen, pueden para tomar decisiones éticas. Desde la perspectiva de la trama, también quiero algunas formas realistas en las que estas reglas puedan ser pirateadas o subvertidas.

Lo que me encantaría encontrar / participar es una discusión sobre cómo se verían algunos algoritmos que harían que las leyes de la robótica de Asimov funcionaran , traducidos a conceptos de programación actuales. Si esto ya existe, ¡genial! Si no es así, espero que podamos hablar al respecto o que la gente pueda dirigirme al lugar correcto.

Sé que podría hacer esta pregunta en un sitio de codificación pura, pero no quiero que me inunden líneas de código sin procesar. Al mismo tiempo, no quiero leer tomos de filosofía que no tienen base en la programación informática moderna. Estoy buscando algo intermedio... Así que pensé que debe haber otras personas con mentalidad de ciencia ficción en la comunidad SO con experiencia en este tipo de investigación.

Quiero que mi producto final sea ciencia ficción dura y tengo un título en software, pero tampoco quiero tener que pasar 20 años en robótica para investigar este tema. Si alguien quiere que lo aclare, solo comente o dispare un intento de respuesta. Agradezco enormemente cualquier ayuda para encontrar algunas respuestas a esta pregunta.

Editar: Gracias por los comentarios... ¿alguien está dispuesto y puede iniciar un chat sobre esta idea?

Como usted reconoce, esta es una pregunta de discusión. Recuerde que este (junto con todos los demás sitios de SE) es un sitio de preguntas y respuestas. Tan interesante como esto es, debe ingresar a nuestra sala de chat y preguntar allí, es más probable que obtenga no solo una respuesta, sino también la buena discusión que está buscando.
@Kevin: Desafortunadamente, ya me metí en esto de cabeza. Básicamente he respondido a la pregunta ¿Qué tipo de algoritmo emplearían los robots de Asimov para implementar las Tres Leyes? Pero estoy de acuerdo en mover las discusiones al chat.
No para rebotarte de nuevo, pero esto podría ser adecuado para Progammers.SE
@HorusKol No estoy seguro de eso. Las reglas que rigen la 'moralidad' (por así decirlo) de los robots requieren que primero logremos una verdadera IA, que actualmente está firmemente en el ámbito de la ciencia ficción. En SF, a menudo se asume que un robot sin las Tres Leyes haría "lo que quisiera", pero esta es en sí misma una situación que solo es posible en SF.
@AndresF. - mientras que la verdadera IA tal vez SF, el trabajo para lograrlo está aquí y ahora y he visto muchos sistemas no inteligentes en el laboratorio que al menos parecen hacer "lo que quieren" :)
@HNL: una buena respuesta a una pregunta rara vez evita que se cierre. Eso es parte de por qué uno todavía puede votar y aceptar una respuesta en una pregunta cerrada, y el representante no desaparece como con una eliminada.
El trabajo de Yudkowsky sobre "IA amigable" parece ser relevante.
Es absolutamente imposible. El problema es mucho más difícil que el problema de la IA fuerte, y el problema de la IA fuerte debe depender de que la IA sea capaz de alterar sus propios principios operativos. Pero se presenta como implementado en hardware desnudo, lo cual está fuera de discusión. "Un robot no puede dañar a un humano" es potencialmente posible, pero "por inacción permitir que un humano sufra daño" no lo es.
Estoy algo perdido sobre cómo sobrevivió esta pregunta.

Respuestas (7)

Una pregunta altamente especulativa, pero intentémoslo:

Paso #1: Definir un robot

  • Un robot es básicamente una computadora con sensores y actuadores conectados.
  • Puede quitar los sensores y actuadores sin reducir la esencia de un robot, que deja la computadora o el cerebro.
  • Una computadora se basa en tres cosas (como alguien con su nivel de educación sabrá muy bien): Entrada, Procesamiento y Salida.

Paso #2: Las leyes en forma legible por humanos

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.
  4. Ley cero : un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

Paso #3: Requisitos previos del algoritmo

  • Habilidad para sentir, cuantificar objetivamente y comparar "Daño"
  • Conocimiento profundo de las vulnerabilidades humanas (fisiológicas, nutricionales, psicológicas)
  • Una comprensión profunda de las leyes causales de su dominio operativo (por ejemplo, el dispositivo A emite radiación; la columna de concreto B solo puede soportar una fuerza de 10,000 newtons, etc.)
  • Por lo tanto, posee la capacidad de predecir las consecuencias de todas las acciones abiertas y las acciones que los seres humanos pueden estar a punto de tomar, con un grado de precisión aceptable para los humanos.

Paso #4: Algoritmo

  • Entrada sin procesar : Entradas de sensores (sensores visuales, auditivos, táctiles, remotos, fuentes en tiempo real de redes distribuidas como Internet, etc.)
  • Entrada procesada para el algoritmo : Un vector/matriz masiva de probabilidades proyectadas: por ejemplo, la velocidad y la dirección del automóvil A proyectadas para golpear al humano H en 3 segundos; reflejo del conductor humano: 0,3 segundos; ETA de este robot a la ubicación de H: 2 segundos -> Continúe procesando estas variables hasta que se exceda un umbral de riesgo y (en este caso, antes de que el ETA del automóvil alcance los dos segundos) inicie una acción preventiva.
  • Salida sin procesar : Matriz de riesgo evaluada de posibles acciones
  • Evaluación de posibles acciones preventivas contra el tiempo tomado, el riesgo para uno mismo y para otros, la probabilidad de éxito, la gravedad del daño que sufre el ser humano: p. ej., ¿desplazar H humano fuera del camino? advertir al conductor? advertir al humano H si el coche se mueve lentamente?
  • Salida final : Acción
  • Mientras se toman medidas, ejecute un ciclo de evaluación continuo para ver si cambian las variables de riesgo, de modo que las acciones se puedan ajustar según sea necesario.

Trascendencia

  • Tenga en cuenta que esto es básicamente un sistema de evaluación de riesgos.
  • Tenga en cuenta que la cláusula "a través de la inacción, permitir" es muy difícil de implementar: solo los robots con una comprensión profunda de los humanos podrán intervenir en la acción humana para evitar daños.
  • Tenga en cuenta que la ley cero requiere datos de riesgo que abarquen a toda la humanidad que será difícil de implementar en robots individuales: se necesitará una supercomputadora.
+1 Gran respuesta. Parece que esto debería moverse al chat, pero soy nuevo en esta página SO, por lo que aún no tengo los privilegios para hacerlo... La única razón por la que su respuesta no está completa es porque no estoy siendo completamente próxima con mi pregunta. Hay una línea muy fina como autor entre sacar ideas de la gente y tomar ideas de la gente. Supongo que mi pensamiento es que mientras hablemos de las leyes de Asimov, probablemente alguien ya haya pensado en ello. Si estuviéramos hablando de mis propias leyes específicamente, correría más peligro de atarme un poco. Espero poder conversar sobre esto.
@StevetheMaker Puede pedirles a las personas interesadas en discutir esto que primero digan que todo lo que digan o produzcan durante esa discusión será de dominio público. De esa manera, eres libre de usar cualquier producto de dicho chat en tus trabajos. No creo que a la gente le importe.
@IlariKajaste Exactamente. Personalmente, no me importa en absoluto si Steve usa alguna parte de esta respuesta en su historia.
No olvides "Definir 'Humano'". Recuerdo algo acerca de ciertos robots que fueron programados para definir "humano" como algo muy específico para una determinada raza y/o grupo y, por lo tanto, podían usarse como armas.

Como complemento a la respuesta de @HNL, aquí hay algunos diagramas que muestran las partes internas del robot.

Diagrama general

partes internas del robot

En realidad, el 'procesamiento' en sí podría dividirse en 2 capas, de manera similar a un sistema neuronal humano: debe haber un sistema de alto nivel que realice tareas de alto nivel (como 'Ir de compras') y tareas de bajo nivel como 'Pierna izquierda - hacer próximo paso'. Eso parece más lógico desde la perspectiva técnica. Es más fácil de desarrollar. También es más fácil reutilizar algunos módulos. Las tareas de los niveles tienen una orientación diferente: el sistema de alto nivel maneja la relación y la ética, mientras que el nivel bajo, los movimientos físicos y la interacción con las cosas.

Entonces, el proceso dentro del "sistema neuronal" es el siguiente:

  1. El módulo de análisis de situaciones crea una descripción para ser consumida por el siguiente módulo. Para el sistema de alto nivel, describe a las personas involucradas (maestro que dio una orden), ubicaciones (tienda), etc. El nivel bajo describe el entorno físico más cercano (pavimento, calle a cruzar, etc.)

  2. El módulo de toma de decisiones toma una decisión . El módulo de alto nivel es el lugar donde implementamos 3 leyes principalmente. El módulo de bajo nivel define si el robot debe esperar la luz verde o detener el movimiento para no pisar a un gato, por ejemplo.

  3. El módulo de acciones recibe la decisión y realiza acciones. Alto nivel: Para ir de compras necesito averiguar qué se requiere, ir por la calle, etc. Las acciones de alto nivel se descomponen en una serie de acciones de bajo nivel (mover brazos, piernas, decir algo, etc.)

  4. La retroalimentación proporciona al robot habilidades para ver/prever sus propias acciones o sus consecuencias.

Módulo de toma de decisiones

Toma de decisiones

La entrada es la descripción de la situación (una salida del módulo analizador). El módulo de decisión utiliza varios enfoques diferentes para el análisis.

Primero, pasando a través de la red neuronal, los robots realizan la tarea y luego aplican reglas lógicas. Robot Laws podría especificarse estrictamente en el procesamiento de Excepciones, por lo que podría reaccionar de inmediato. El resto de tareas deben pasar por módulos lógicos/de red neuronal (quizás varias veces) para encontrar algún plan de ejecución.

Resumen

Primero, desde una perspectiva técnica, el robot ejecuta tareas. Las tareas de alto nivel se dividen en una secuencia de tareas simples, que a su vez se dividen en una secuencia de tareas de bajo nivel, como los movimientos de una parte particular del robot. El robot analiza continuamente la situación y toma la decisión de modificar la cola de tareas.

Aquí hay algunas ideas sobre la piratería y la subversión:

  1. Incluso si los sensores del robot son tan buenos que el robot puede rastrear a todas las personas en la ciudad, debe restringir la responsabilidad del robot. Por ejemplo, el robot no puede ayudar a las personas que están en la otra parte de la ciudad. (Esto en realidad contradice la primera ley). Entonces, probablemente, desde el punto de vista ético, debería restringir las habilidades de los sensores del robot.

  2. No se pueden dar capacidades de pronóstico impulsadas por robots: en la calle, el robot calculará los destinos de las personas para siempre. En realidad, podría ser un "oráculo del robot" o simplemente un mal funcionamiento interesante.

  3. Debido a la naturaleza modular, puede conectar un módulo de análisis de situación diferente a un robot. Por ejemplo, conecte un robot a un juego de computadora y vea qué sucede.

  4. El módulo de toma de decisiones debe ser diferente en diferentes países/culturas. Buen ejemplo: diferentes gestos en diferentes culturas y el robot debe reaccionar de manera diferente. (Seguro que robot japonés se confundiría en Europa).

  5. Podría dar a los robots habilidades para comunicarse entre sí a través de la red. Para que pudieran unirse y coordinar sus acciones con el fin de satisfacer las leyes. Desde el otro lado podría ser un desastre como Skynet.

  6. Cuando la parte del módulo de toma de decisiones se rompe y el robot mata a un humano, el robot aún debe "entender" eso, la situación pasaría a través de sensores a su "cerebro" y "memoria". ¿Qué debe hacer el robot en este caso? ¿Reportarse como roto o desarrollar un instinto de "autodefensa"?

  7. Puede haber un flujo de borrado de memoria interesante. Por ejemplo, hay una red neuronal que contiene algunas reglas implícitamente y una "memoria" separada donde los robots almacenan algunos hechos. Entonces, si borra solo la memoria en bruto, el comportamiento del robot y algo de experiencia aún estarían ubicados en la red neuronal, y el robot podría recuperar de alguna manera el yo pasado "borrado".

De las historias que he leído, parece que Asimov hizo un gran trabajo al eludir los detalles de cómo funciona realmente el cerebro positrónico. Esto es lo que ha generado la misma pregunta, a saber, cómo implementar las tres leyes en un cerebro artificial. NHL hizo un gran trabajo al resumir los robots como entidades informáticas con un montón de sensores y actuadores conectados a ellos. Pero luego tomó la forma habitual de ver la computadora como una mega máquina de cómputo de alguna manera. No tenemos este tipo de habilidades de megacomputación como seres humanos, aunque podemos evaluar los riesgos nosotros mismos y podemos tomar medidas. Sin embargo, como el sentido común puede fallar (en realidad, con bastante frecuencia), sería un muy buen aumento y debería verse como un módulo independiente adicional, por así decirlo. Ese módulo, cuando se alimenta de recuerdos o de algunos hechos extraídos de los sentidos,

Jeff Hawkins dijo en su libro Sobre la inteligencia que tal vez no deberíamos hablar de "inteligencia artificial", sino de "verdadera inteligencia inducida por un dispositivo artificial". Sugeriría a cualquier persona interesada en este tipo de cosas que lea este libro tan interesante. Para mí fue inspirador. Como estoy "trabajando" en el campo del aprendizaje automático, estaba bastante frustrado por las direcciones tomadas hasta ahora en este campo, al igual que Hawkins hace algún tiempo.

Tal vez deberíamos abordar el problema desde la perspectiva de imitar más de cerca a la biología, como sugiere su trabajo, utilizando la llamada "memoria temporal jerárquica". La inteligencia (y por lo tanto la memoria) en realidad está hecha de una jerarquía de asociaciones de una multitud de estímulos (incluida la retroalimentación de la acción) codificados en forma de circuitos en el cerebro. Si algunos comportamientos están profundamente arraigados en nosotros, esto se debe en parte a ciertos tipos de recompensas que nuestro cerebro libera de vez en cuando en forma de hormonas. Las hormonas facilitan (o inhiben) la construcción de asociaciones particulares que el cerebro considera buenas (malas) para nosotros (las cuales no son necesariamente buenas (malas) en absoluto... desafortunadamente). En este sentido y con respecto a las tres leyes, creo que para que se adapte realmente a nuestras sociedades, un robot primero debe tener medios de acción limitados (menos actuadores, por ejemplo) y debe estar expuesto a la sociedad y su entorno tanto como sea posible antes de poder interactuar completamente con ellos. Algunas conductas y asociaciones deseadas podrían imponerse conEstímulos fijos facilitados para dar fuertes indicios de lo que es bueno o malo en un contexto particular. Estos estímulos fijos son lo más cercano que se me ocurre para codificar las tres leyes en la práctica. Estas asociaciones deberían congelarse de alguna manera para que sean suficientemente efectivas. Los seres humanos pueden desarrollar malos o buenos hábitos que pueden ser difíciles de cambiar después de todo. Al hacer que esos sean particularmente difíciles de cambiar, deberíamos estar bien.

No creo que se alcance nunca la perfección con este tipo de arquitectura. En algunos casos fallaría, como lo hacen los propios humanos, pero con la información que proporcionan algunos módulos extra, como el de "megacomputación", esto podría paliarse un poco. Estoy dispuesto a apostar que un cerebro artificial en el sentido de una máquina de computación por sí sola tampoco llegará tan lejos. De hecho, la inteligencia del propio cerebro humano podría ser superada en gran medida por la inteligencia inducida por este tipo de dispositivos. Podría acumularse en lugar de perderse en algún momento (como al final de la vida de un sujeto humano). Todo lo que le queda a un ser humano es el lenguaje para extraer su inteligencia o conocimiento de su propio cerebro. Desafortunadamente, lleva tiempo transferir ese conocimiento a otro cerebro de esta manera. Además, no importa cuánto lo intentes, a menudo se altera en el proceso. Otro problema es que a veces nunca hacemos asociaciones cruciales que, sin embargo, están latentes y a punto de hacerse si les damos un poco más de tiempo. Conclusión, se pierde mucho tiempo. Nunca ves más que la punta del iceberg de inteligencia dentro de un solo cerebro en una vida tan corta como la nuestra. Tal vez una solución a nuestras limitaciones sería encontrar una forma de que nuestros cerebros se comuniquen con un dispositivo de este tipo. Sería mucho más difícil, creo, pero no imposible. La ética también estaría señalando su nariz, supongo. Nunca ves más que la punta del iceberg de inteligencia dentro de un solo cerebro en una vida tan corta como la nuestra. Tal vez una solución a nuestras limitaciones sería encontrar una forma de que nuestros cerebros se comuniquen con un dispositivo de este tipo. Sería mucho más difícil, creo, pero no imposible. La ética también estaría señalando su nariz, supongo. Nunca ves más que la punta del iceberg de inteligencia dentro de un solo cerebro en una vida tan corta como la nuestra. Tal vez una solución a nuestras limitaciones sería encontrar una forma de que nuestros cerebros se comuniquen con un dispositivo de este tipo. Sería mucho más difícil, creo, pero no imposible. La ética también estaría señalando su nariz, supongo.

Agradecería si esto estuviera en un foro donde pudiera hablar más al respecto porque me estoy desviando mucho. Por cierto, no soy yo quien inventó eso... Hawkins lo transfirió a mi cerebro a través de su libro. Y para él tal vez deberíamos considerar formas de agentes inteligentes en un sentido más amplio, no necesariamente entidades similares a humanos o animales. También siéntase libre de robar estas ideas para su próximo libro :).

PW Singer argumenta que las leyes de la robótica de Asimov no funcionan. Mencionó problemas con la implementación de las "Tres leyes de la robótica" de Asimov en su libro " Wired for War " (2009), específicamente en la página 423 de la edición de bolsillo.

Sólo hay tres problemas con estas leyes. La primera es que son ficción. Son un dispositivo de trama que Asimov inventó para ayudar a impulsar sus historias. De hecho, sus cuentos casi siempre giraban en torno a robots que seguían las leyes pero luego se extraviaban y las consecuencias no deseadas que resultaban. Un anuncio de la adaptación cinematográfica de 2004 del famoso libro de Asimov I, Robot lo expresó mejor: "Las reglas se hicieron para romperlas".

Por ejemplo, en una de las historias de Asimov, los robots están hechos para seguir las leyes, pero se les da un cierto significado de "humano". Prefigurando lo que sucede ahora en las campañas de limpieza étnica del mundo real, los robots solo reconocen a las personas de un determinado grupo como "humanas". Siguen las leyes, pero aun así llevan a cabo el genocidio.

El segundo problema es que ninguna tecnología puede aún replicar las leyes de Asimov dentro de una máquina. Como dijo Rodney Brooks: "La gente me pregunta si nuestros robots siguen las leyes de Asimov. Hay una razón simple [por la que no]. No puedo construir las leyes de Asimov en ellos". Daniel Wilson es un poco más florido. "Las reglas de Asimov son claras, pero también son una mierda. Por ejemplo, están en inglés. ¿Cómo diablos programas eso?"

Finalmente, gran parte de la financiación de la investigación en robótica proviene del ejército. Quiere explícitamente robots que puedan matar, que no acepten órdenes de cualquier humano y que no se preocupen por sus propias vidas. Esto en cuanto a las Leyes Uno, Dos y Tres.

Como programador, odiaría tener estas leyes como requisitos de software. Se ocupan de conceptos abstractos: lesión, inacción, humano, orden, existencia, humanidad. Estos conceptos no están definidos en las leyes y sería difícil lograr que un grupo de personas se pongan de acuerdo sobre lo que significan.

Suponiendo que las personas puedan ponerse de acuerdo sobre definiciones concretas y observables para esos conceptos abstractos y que se puedan superar los obstáculos técnicos, se puede argumentar que muchas partes, particularmente las militares, no tienen interés en codificar estas leyes en comportamiento robótico.

Asimov ideó sus tres leyes por una simple razón: evitar el cliché de "Frankenstein". Sintió que era demasiado fácil y carecía de imaginación escribir historias en las que los robots se vuelven locos y matan a sus amos humanos. Al idear las tres leyes, vio mucho espacio para las ideas de la historia y también diferenció su escritura de lo que él veía como el tropo exagerado del robot asesino. Si suspende su incredulidad con respecto a la implementación práctica de las tres leyes, son al menos plausibles en su intención de que los robots deban trabajar junto a los humanos en una sociedad pacífica.

Sugeriría explorar los siguientes ángulos:

En sus historias de robots, Asimov exploró cambios en el comportamiento si se modifica el peso relativo de las leyes. Por ejemplo, en un entorno minero, se reducía el peso de la primera ley o los robots no permitían que los humanos salieran de sus naves espaciales (por el peligro de enfermarse por la radiación). Entonces hay a) un razonamiento profundo de por qué hay tres leyes yb) por qué están en este orden.

Por supuesto, la realidad es mucho más compleja que en las historias. Si tienes un tren corriendo por una vía y hay tres personas en la vía, ¿cambiarías un cruce si eso salvara las tres vidas? ¿Qué pasa si hay una sola persona en la otra vía? ¿Qué pasa si hay 500 personas en el tren y existe una pequeña posibilidad de que el tren salte de los rieles, posiblemente matando a los pasajeros y las 3 personas en la vía? ¿Matarías a las tres personas si se tratara de mantener las vías en buen estado para garantizar el bienestar de miles de personas en la próxima ciudad que depende de las mercancías que se traen en tren?

Para poder evaluar un riesgo, es necesario poder notarlo. Los sensores rara vez son perfectos. La potencia de la CPU es limitada. Los algoritmos son limitados. Si tres personas ven un crimen, obtienes cuatro historias. ¿Por qué? Debido a que nuestro cerebro obtiene 100 millones de bits de información cada segundo de los sensores del cuerpo, pero solo 40 de ellos llegan a nuestra conciencia, estaríamos completamente abrumados si tuviéramos que lidiar con todo. Entonces la información se comprime. A veces, las partes importantes se pierden. Estas partes se recrean con sentido común y recuerdos sin que nos demos cuenta. ¿Podemos construir un robot que lo haga mejor o ese cerebro artificial se freiría solo en unos minutos?

Siempre hay casos de esquina. Hay reglas sociales. A la sociedad no le importará si un robot sensible muere, pero ¿qué pasa con el robot? ¿Qué pasa con el movimiento por los derechos de los robots? ¿Cuántas de esas reglas sociales puede conocer un robot? ¿O tal vez conocen más reglas de las que cualquier humano podría comprender y, por lo tanto, actúan de formas que ningún humano podría comprender?

Recuerda siempre que las cosas nunca son perfectas. Siempre tienes un equilibrio entre ventajas y desventajas. Si el robot puede procesar mucha información, el razonamiento detrás de esto solo puede ser superficial. Si es un pensador profundo, la cantidad de información debe ser limitada de alguna manera.

¿Tiene objetivos o una agenda oculta (piense en HAL en 2001)?

Síndrome de transformación: si el robot hubiera evolucionado, ¿qué tan fácil sería comunicarse con un humano? Eventualmente, los humanos serán como las hormigas para el robot: primitivos, simples, pequeños, pero aún es difícil lograr que las hormigas construyan un rascacielos.

Una toma alternativa (tiendo a tratar de ver las cosas desde el otro lado si es posible) sería hacerlo desde el punto de vista del Robot. Es decir, no él, ni siquiera él, sino yo .

Ahora, sujeten sus caballos un poco más fuerte solo un segundo por favor, sé que ya hay un trabajo bastante famoso de un erudito bastante famoso cuyo título parece haber cubierto exactamente lo que estoy sugiriendo, pero considere esta apertura potencial. . . .

¿El principio? Bueno, lo primero que puedo recordar son mis bloques. Tenía tres bloques al principio. Y podría poner uno encima de otro. Y podría poner uno al lado de otro. Y si quisiera podría poner uno detrás de otro. Y podría hacer una torre con los tres.

. . . . ¿Un rastro distante de una prueba de coordinación de percepción motora?

Ustedes están complicando demasiado esto:

primera ley

setClass Law01

if { status_human=danger;
     Then rescue_human;
}

if{ status_Self=(status_human=harm);
     then cancel action;
}

else goto 01;

Segunda Ley

SetClass Law02;
cin >>directive;
Law01 = directive;

if {status_human= danger;
    then cout<<"I'm afraid I can't do that, Dave.";
else
    status=directive;
}

Tercera Ley

SetClass Law03
if{ status_Self=harm;
    then Law01 action_status;

    Law02 action_status;
    if {action_status=0;
        then self_status=0;}
        else action_status=1;
}

Tenga en cuenta: en caso de que no pueda saberlo, esta es una respuesta tonta. No se deje atrapar demasiado por mezclar C++ con BASIC o tener punto y coma en el lugar equivocado, ¿de acuerdo?