¿Cómo se aplicarían efectivamente las "Tres leyes de la robótica" de Asiimov para los robots construidos por empresas privadas? [cerrado]

Para un proyecto de narración, intento imaginar un mundo en el que empresas privadas desarrollen y produzcan robots bípedos bastante avanzados. Como estos robots serían capaces de dañar y matar humanos fácilmente, el gobierno necesita/quiere obligar a todos los robots a cumplir con las Tres Reglas de Asiimov.

¿Qué esfuerzos podría hacer un gobierno para lograr tal tarea y asegurarse absolutamente de que estas empresas privadas no desarrollen robots asesinos a puerta cerrada? ¿Sería suficiente la amenaza de posibles demandas judiciales, inspecciones frecuentes y minuciosas, etc.? ¿Tendría que haber un paso final en el que los ingenieros del gobierno "codifiquen" las leyes en el código fuente de cada robot?

(No necesariamente relevante para la pregunta, pero en la narración dada, una de estas compañías encuentra una manera de abusar de sus robots cargando una conciencia humana en ellos, lo que implica que es imposible eludir las Tres Leyes simplemente reprogramando el robot). Lo siento si la pregunta es un poco difusa o rara. No soy ni elocuente ni dotado de palabras jaja.

Mirando hacia adelante a todas y cada una de las respuestas!

Te das cuenta de que la mayoría de las historias de las 3 leyes de Asimov trataban sobre cómo las 3 leyes no eran suficientes para proteger a los robots o a los humanos.
"¿Qué esfuerzos podría hacer un gobierno para lograr tal tarea y asegurarse absolutamente de que estas empresas privadas no desarrollen robots asesinos a puerta cerrada?" - hubo al menos algunos libros completos sobre eso, y Asimov escribió sobre las fallas de este sistema incluso cuando se aplicó ...
Ya tenemos grandes máquinas capaces de dañar y matar humanos. Los gobiernos regulan su fabricación exigiendo cinturones de seguridad y bolsas de aire, y regulan su uso con leyes de tránsito y licencias. -- En cuanto a las medidas absolutas ... bueno... las medidas en su mayoría efectivas con la seguridad del automóvil son mejores que ninguna medida.
¡Hola bramble, y bienvenido! Tómese un momento para revisar el centro de ayuda y el recorrido --- esos recursos tienen mucha buena orientación sobre cómo hacer y responder consultas aquí en Worldbuilding. En este momento, su consulta está programada para cerrarse debido a que es demasiado amplia. Esta es tu oportunidad de editarlo de tal manera que te concentres en un aspecto del problema al que te enfrentas en tu construcción del mundo. Puede hacer más de una pregunta (¡en publicaciones separadas!) pero SE funciona en el modelo de una pregunta y una respuesta .
Asimov tampoco explicó nunca la implementación de las tres leyes. No estaba claro si se trataba de una elección de diseño o de una naturaleza fundamental de la mente positrónica.
En "The Naked Sun", IIRC, un personaje dijo que llevaría mucho tiempo desarrollar un cerebro positrónico que no tuviera las Tres Leyes incorporadas. Supongo que los primeros diseños tenían las Tres Leyes, y todos más. o menos copió los diseños a partir de entonces.
Desde la perspectiva de contar historias, las 3 leyes funcionan bien en la vida cotidiana. Pero es muy fácil hacer agujeros en las leyes y tener diferentes interpretaciones de las leyes al igual que los humanos. Incluso con el gobierno haciendo cumplir las reglas, es muy fácil cegar los sentidos de un robot y decirle que apriete el gatillo. Después de todo, tiene que seguir la orden y no puede saber si está violando la primera ley.
El cerebro positrónico de Asimov no era una computadora digital, ni estaba relacionado de ninguna manera con la tecnología actual. En todo caso, era una computadora cuántica que usaba probabilidades. Solo estamos desarrollando algoritmos utilizables por la computación cuántica. Las Tres Leyes no formaban parte de la programación, cada una era un filtro separado, siempre operando entre las decisiones de los robots y sus acciones. Algo así como nuestros lóbulos frontales y la corteza cerebral. Eran, en los términos de hoy, procesadores separados construidos específicamente que estaban cableados en la etapa de decisión final.
Cada uno tenía una y solo una de tres funciones, en orden jerárquico: garantizar que la acción o inacción del robot no causara daño humano; para asegurarse de que el robot siguió un comando humano; y asegurar su propia supervivencia. Estos tres procesadores actuaron independientemente de la unidad de probabilidad (cuántica) que tomaba las decisiones generales. Se ordenó que estas tres unidades estuvieran 'cableadas' en cada robot, para que la industria obtuviera el permiso para usar robots en la tierra. El no hacerlo resultó en severas sanciones para el fabricante. Esto estaba claramente delineado en sus historias.
Si no recuerdo mal, la pena por no incorporarlos a ninguna unidad utilizada alrededor de los humanos era la muerte. Recuerdo una historia sobre las revoluciones de los robots y los orígenes de estas leyes. Los robots fueron expulsados ​​de la tierra, condenados al ostracismo en colonias automatizadas, hasta que se desarrollaron estos procesadores.

Respuestas (5)

Echa un vistazo a este comentario de Separatrix:

Te das cuenta de que la mayoría de las historias de las 3 leyes de Asimov trataban sobre cómo las 3 leyes no eran suficientes para proteger a los robots o a los humanos.

Lo que preguntas es similar a "¿cómo puede un gobierno evitar que las personas cometan delitos?". Aparte de reemplazar a cada ciudadano humano con uno robótico, no hay nada que su gobierno pueda hacer.

Si aún desea impulsarlo, el gobierno tendría que controlar cada fábrica de robots para asegurarse de que las leyes se implementen en hardware y software. Incluso entonces, nunca se puede estar seguro.

De la misma manera, la maquinaria moderna y compleja puede cumplir (o fallar) con los estándares de seguridad. ¿Cómo podemos asegurarnos de que el piloto automático de Tesla no esté intentando matar a los conductores humanos en secreto?

El gobierno puede exigir que las empresas envíen el código fuente de IA para la certificación. Luego, la propia IA del gobierno puede ejecutar este código a través de extensos escenarios de simulación. Incluso si no se encuentra una función "asesina" bien oculta, habría secciones de código asociadas con ella que nunca se ejecutarían.

Dado que una verdadera IA es, por supuesto, capaz de resolver los problemas que encuentra que están más allá de su programación original, también parece una necesidad implícita de recordar las IA periódicamente para volver a examinarlas.

El gobierno puede regular cualquier cosa, incluso lo mundano, pero especialmente si algo es peligroso como los robots asesinos. En un país libre, las leyes son impulsadas por la política. Los partidos políticos rivales podrían estar peleando entre sí, alegando que son los más "socialmente responsables" en su celo por salvar vidas de los malvados fabricantes de robots, mientras que a la otra parte solo le importan las ganancias, no las personas.

En un país tiránico, el propietario sería responsable de las acciones del robot, incluso bajo pena de muerte.

En una sociedad izquierdista enloquecida, el grito podría ser "los androides también son personas", y se les otorgarían derechos, incluido el derecho al voto y el derecho a un juicio si fueran acusados ​​de asesinato. Quienes estén en contra de tales medidas serían tildados de "androidofóbicos".

En un mundo dirigido por corporaciones, una corporación puede tener la capacidad de restringir la violencia robótica. Si otras empresas carecen de la misma capacidad, estarían en una grave desventaja competitiva si las restricciones de robots fueran un requisito legal.

Básicamente, el software de inteligencia artificial de la empresa tendría que estar certificado; no solo porque sigue las Tres Leyes, sino porque las Tres Leyes no se pueden eludir (fácilmente), por ejemplo, rooteando un robot o instalando un software de anulación.

Con el progreso técnico que permite realidades cada vez más pequeñas para producir IA lo suficientemente poderosas (por ejemplo, cuatro instalaciones de software masivas desarrolladas en la década de 2000 y que requieren el mainframe de un banco ahora se ejecutan simultáneamente en cuatro máquinas virtuales en mi computadora portátil. El software que ejecuta las misiones Apolo en la década de 1970 puede ahora se ejecuta en el teléfono inteligente promedio, etc.), esto se convierte en un problema cada vez mayor.

A menos que alguna plaga local derivada de la popularización análoga del empalme de ADN mate a todos primero, tarde o temprano el gobierno necesitará emplear equipos de expertos para cazar y cerrar "centros de investigación" domésticos de IA deshonestos en sótanos y áticos, para que no desencadenen un Apocalipsis de singularidad. Espero que los miembros del equipo sean conocidos como "Blade Runners".

Si los robots requieren IA (como solían hacer en las historias de Asimov), la IA es esencialmente misteriosa. No está claro por qué la humanidad no ha logrado inventar esto todavía. Puede ser cierto que lo que hace que los humanos sean inteligentes también los ciega intelectualmente al proceso/mecanismo que permite la inteligencia... de lo contrario, es difícil conciliar los grandes avances que hemos visto en las computadoras con la escasez de cerebros positrónicos.

Si este no es el caso, y es solo un problema difícil que aún no hemos resuelto... entonces todavía es intelectualmente complicado. No sería injusto decir que es muy poco intuitivo o contra-intuitivo, y que incluso después de su descubrimiento, pocos realmente lo entenderán.

Por lo tanto, es poco probable que se reinvente mucho. Mucho más fácil de copiar (y modificar ligeramente según sea necesario) el código. En tal caso, solo sería necesario incluir las leyes de Asimov en ese código base. Las prohibiciones de criptografía y hardware contra la ejecución de ejecutables sin firmar evitarían sobrescribirlos o subvertirlos (al menos tan bien como lo hizo en las historias).

Se podría esperar que la IA tenga una inteligencia sobrehumana (quizás una inteligencia sobrehumana débil, pero aún así), y casi con certeza sería capaz de realizar ingeniería inversa y eliminar las leyes. No estoy seguro de si las propias leyes lo prohibirían o no.

Y, por supuesto, están los Roombas. Si alguien construyó una versión de seguridad para el hogar de uno de esos, las Leyes simplemente no importan... es una máquina tonta. Las máquinas tontas pueden hacer cosas bastante complicadas, por lo que nadie puede molestarse en absoluto con la IA.