Para un proyecto de narración, intento imaginar un mundo en el que empresas privadas desarrollen y produzcan robots bípedos bastante avanzados. Como estos robots serían capaces de dañar y matar humanos fácilmente, el gobierno necesita/quiere obligar a todos los robots a cumplir con las Tres Reglas de Asiimov.
¿Qué esfuerzos podría hacer un gobierno para lograr tal tarea y asegurarse absolutamente de que estas empresas privadas no desarrollen robots asesinos a puerta cerrada? ¿Sería suficiente la amenaza de posibles demandas judiciales, inspecciones frecuentes y minuciosas, etc.? ¿Tendría que haber un paso final en el que los ingenieros del gobierno "codifiquen" las leyes en el código fuente de cada robot?
(No necesariamente relevante para la pregunta, pero en la narración dada, una de estas compañías encuentra una manera de abusar de sus robots cargando una conciencia humana en ellos, lo que implica que es imposible eludir las Tres Leyes simplemente reprogramando el robot). Lo siento si la pregunta es un poco difusa o rara. No soy ni elocuente ni dotado de palabras jaja.
Mirando hacia adelante a todas y cada una de las respuestas!
Echa un vistazo a este comentario de Separatrix:
Te das cuenta de que la mayoría de las historias de las 3 leyes de Asimov trataban sobre cómo las 3 leyes no eran suficientes para proteger a los robots o a los humanos.
Lo que preguntas es similar a "¿cómo puede un gobierno evitar que las personas cometan delitos?". Aparte de reemplazar a cada ciudadano humano con uno robótico, no hay nada que su gobierno pueda hacer.
Si aún desea impulsarlo, el gobierno tendría que controlar cada fábrica de robots para asegurarse de que las leyes se implementen en hardware y software. Incluso entonces, nunca se puede estar seguro.
De la misma manera, la maquinaria moderna y compleja puede cumplir (o fallar) con los estándares de seguridad. ¿Cómo podemos asegurarnos de que el piloto automático de Tesla no esté intentando matar a los conductores humanos en secreto?
El gobierno puede exigir que las empresas envíen el código fuente de IA para la certificación. Luego, la propia IA del gobierno puede ejecutar este código a través de extensos escenarios de simulación. Incluso si no se encuentra una función "asesina" bien oculta, habría secciones de código asociadas con ella que nunca se ejecutarían.
El gobierno puede regular cualquier cosa, incluso lo mundano, pero especialmente si algo es peligroso como los robots asesinos. En un país libre, las leyes son impulsadas por la política. Los partidos políticos rivales podrían estar peleando entre sí, alegando que son los más "socialmente responsables" en su celo por salvar vidas de los malvados fabricantes de robots, mientras que a la otra parte solo le importan las ganancias, no las personas.
En un país tiránico, el propietario sería responsable de las acciones del robot, incluso bajo pena de muerte.
En una sociedad izquierdista enloquecida, el grito podría ser "los androides también son personas", y se les otorgarían derechos, incluido el derecho al voto y el derecho a un juicio si fueran acusados de asesinato. Quienes estén en contra de tales medidas serían tildados de "androidofóbicos".
En un mundo dirigido por corporaciones, una corporación puede tener la capacidad de restringir la violencia robótica. Si otras empresas carecen de la misma capacidad, estarían en una grave desventaja competitiva si las restricciones de robots fueran un requisito legal.
Básicamente, el software de inteligencia artificial de la empresa tendría que estar certificado; no solo porque sigue las Tres Leyes, sino porque las Tres Leyes no se pueden eludir (fácilmente), por ejemplo, rooteando un robot o instalando un software de anulación.
Con el progreso técnico que permite realidades cada vez más pequeñas para producir IA lo suficientemente poderosas (por ejemplo, cuatro instalaciones de software masivas desarrolladas en la década de 2000 y que requieren el mainframe de un banco ahora se ejecutan simultáneamente en cuatro máquinas virtuales en mi computadora portátil. El software que ejecuta las misiones Apolo en la década de 1970 puede ahora se ejecuta en el teléfono inteligente promedio, etc.), esto se convierte en un problema cada vez mayor.
A menos que alguna plaga local derivada de la popularización análoga del empalme de ADN mate a todos primero, tarde o temprano el gobierno necesitará emplear equipos de expertos para cazar y cerrar "centros de investigación" domésticos de IA deshonestos en sótanos y áticos, para que no desencadenen un Apocalipsis de singularidad. Espero que los miembros del equipo sean conocidos como "Blade Runners".
Si los robots requieren IA (como solían hacer en las historias de Asimov), la IA es esencialmente misteriosa. No está claro por qué la humanidad no ha logrado inventar esto todavía. Puede ser cierto que lo que hace que los humanos sean inteligentes también los ciega intelectualmente al proceso/mecanismo que permite la inteligencia... de lo contrario, es difícil conciliar los grandes avances que hemos visto en las computadoras con la escasez de cerebros positrónicos.
Si este no es el caso, y es solo un problema difícil que aún no hemos resuelto... entonces todavía es intelectualmente complicado. No sería injusto decir que es muy poco intuitivo o contra-intuitivo, y que incluso después de su descubrimiento, pocos realmente lo entenderán.
Por lo tanto, es poco probable que se reinvente mucho. Mucho más fácil de copiar (y modificar ligeramente según sea necesario) el código. En tal caso, solo sería necesario incluir las leyes de Asimov en ese código base. Las prohibiciones de criptografía y hardware contra la ejecución de ejecutables sin firmar evitarían sobrescribirlos o subvertirlos (al menos tan bien como lo hizo en las historias).
Se podría esperar que la IA tenga una inteligencia sobrehumana (quizás una inteligencia sobrehumana débil, pero aún así), y casi con certeza sería capaz de realizar ingeniería inversa y eliminar las leyes. No estoy seguro de si las propias leyes lo prohibirían o no.
Y, por supuesto, están los Roombas. Si alguien construyó una versión de seguridad para el hogar de uno de esos, las Leyes simplemente no importan... es una máquina tonta. Las máquinas tontas pueden hacer cosas bastante complicadas, por lo que nadie puede molestarse en absoluto con la IA.
Separadora
Mołot
ghedipunk
elementos
Cort Amón
david thornley
sombrazee
justin tomillo
justin tomillo
justin tomillo