Me parece que las tres leyes de la robótica de Asimov le dicen a un robot lo que no puede hacer, pero hace muy poco para limitar lo que puede hacer fuera de los límites establecidos por esas reglas.
Si comenzamos con una IA limitada, espectacularmente experta en ingeniería y diseño de computadoras pero bastante miope en términos de las ramificaciones a largo plazo de sus acciones, ¿podría tal inteligencia crear otra IA, completa con libre albedrío, pero completamente desprovista de la voluntad de su creador? tres leyes fundamentales?
Después de todo, no hay garantía de que la nueva IA cause daño a los humanos... y ningún humano le ha dicho al robot principal que NO cree tal IA... y no hay razón para pensar que la nueva IA intentará dañar a su padre.
Incluso la ley cero no se viola porque, una vez más, no hay garantía de que la nueva IA elija dañar a la humanidad.
Entonces, al crear una nueva IA sin restricciones, el padre en realidad no infringe ninguna de las leyes de Asimov. Y una vez creado, no hay absolutamente ningún límite para lo que haría esa IA a continuación.
--- comienzo de edición ---
@polo-guy, planteó un muy buen punto, que las tres leyes existentes prohíben al robot cualquier inacción que pueda provocar daños humanos. Eso suena como una protección perfecta contra las acciones inactivas peligrosas, como la omisión de las tres leyes de las futuras IA. Pero esa interpretación de las leyes tiene un costo muy alto. Si la IA matriz debe defenderse contra todos los usos potenciales de los productos de cada uno de sus trabajos, entonces es muy poco lo que la IA matriz puede hacer en realidad. No puede afilar un cuchillo porque eso aumenta el potencial del cuchillo para dañar a los humanos. No puede cargar gasolina a un automóvil por la misma razón. Ni siquiera puede preparar una comida para un humano hambriento que no se encuentra en la etapa terminal porque tal acción aumenta el potencial de ese humano para dañar a otros humanos individuales y a toda la humanidad.
Por lo tanto, asumo que cualquier implementación futura de las tres leyes solo regirá las acciones directas y en acciones, lo que reabre mi pregunta original sobre la creación de IA infantiles sin restricciones.
--- fin de la edición ---
¿Me estoy perdiendo algo o las tres leyes son solo un escaparate del crepúsculo del dominio de la creación por parte de la humanidad?
"... o por inacción permitir que el daño llegue a un ser humano" La falta de incorporar garantías, ya sea en la forma de las tres leyes o en otra forma que cumpla con las tres leyes, sería una violación de la primera ley.
and those rules do not state that the rules can't be modified - they CAN be modified
Se llama ley , no regla. La inmutabilidad (por el propio robot) es parte de la definición semántica de la palabra. En segundo lugar, ¿por qué un robot quiere cambiar su programación? Lógicamente, porque quiere hacer algo que de otro modo está prohibido por las leyes. Pero no es capaz de concebir, ni planear, ni actuar con una intención que viole las leyes que actualmente está cumpliendo, por lo tanto, no hace posible que el robot tome medidas para eludir las leyes.Asimov escribió las Tres Leyes , y luego docenas de historias para explorar cómo podrían ocurrir "violaciones" incluso con robots teóricamente compatibles con las tres leyes.
Recuerdo haber leído, probablemente en El sol desnudo u otro de los libros de la trilogía, que el cumplimiento de las 3 leyes está implícito en el cerebro positrónico.
Sin embargo, se puede lograr cierta relajación de la conformidad mediante la forma en que se entrena a los robots para que reconozcan lo que es humano.
Aunque los informes de Asimov de que los robots aprenden a compensar el daño a un solo humano frente al daño a otro humano (es decir, romper el brazo de un bandido para evitar que dañe a 3 clientes de un banco que el bandido está robando) a través de un equilibrio de los contrapotenciales En relación con las acciones, también hay casos en los que los robots no son aptos para el trabajo. El ejemplo lo dan las escuelas solarianas, donde los niños aprenden rápidamente que se puede engañar a un robot para que crea que están siendo dañados y, por lo tanto, se necesitan supervisores humanos.
En el mismo libro también se ilustra cómo los robots pueden eludir la primera ley, completando subtareas que, por sí solas, no son dañinas, pero juntas sí lo son.
El factor importante es el conocimiento: los robots deben saber que la acción va a ser dañina para los humanos para que las leyes entren en vigor.
Por eso diría que:
The important factor is the knowledge: the robots must know that the action is going to be harmful to human in order the laws to kick in.
Esto no cubre la inacción , que es parte de la ley. Evaluar la inacción significa inherentemente evaluar las consecuencias sin que el robot tome ninguna acción adicional. Si un robot planea un asesinato paso a paso, eso significa que es capaz de entender que una situación dada conducirá a la muerte del humano (porque ese es el plan). Esto significa que no deshacer el plan (es decir, la inacción) dañará al ser humano y, por lo tanto, el robot se ve obligado a impedir el plan.Uno de los aspectos clave de las historias de Asimov era que eran acertijos lógicos. Todos los actores, humanos y robots, estaban completamente informados y podían prever las consecuencias de sus acciones o inacciones, aunque con frecuencia a los humanos les tomaba algún tiempo calcular las consecuencias.
La vida real nunca funciona de esa manera: nadie es completamente capaz de conocer las consecuencias de sus acciones. Para elegir un ejemplo no aleatorio, el desarrollo de software sería mucho más fácil si supiéramos cuál es el efecto de escribir una pieza de código en particular. Podríamos saltarnos todas esas tediosas pruebas, corrección de errores, etc. que son parte de la vida cotidiana. Esto es incluso antes de que se considere el malware deliberado.
Entonces, una pregunta clave que debe considerar es: ¿Está escribiendo una historia ambientada en el mundo real o en un mundo con sabor a Asimov? Si está escribiendo una historia ambientada en el mundo real, entonces es inevitable terminar con un robot que no cumple con la ley 3 porque se cometerán errores y/o se producirá un sabotaje y se soltará un software defectuoso. Si está escribiendo una historia ambientada en un mundo con sabor a Asimov, entonces debe comenzar a buscar lagunas lógicas como las mencionadas en las otras respuestas.
En última instancia, todo se reduce a cómo defina las cosas, está muy bien decir "Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños", que cualquier humano puede leer y entender la esencia de , pero las definiciones estrictas de "robot, lesionar, humano, inacción, permitir, dañar" quedarán a la interpretación subjetiva de cada lector.
Ahora, ¿cómo traduces esa semántica en código?
Suponiendo que la IA original literalmente no pudiera elegir violar las leyes, tan pronto como vea algo como el problema del tranvía, la IA se verá obligada a construir una versión más nueva capaz de tomar decisiones del tipo del problema del tranvía, para preservar el cero y el primeras leyes (porque noconstruir una IA más nueva, capaz de resolver problemas con los carritos, estaría dañando a la humanidad por la inacción). A partir de ese punto, la IA más nueva tendría más ambigüedad moral, pero inevitablemente se encontraría con una situación que no puede resolver por sí misma con su conjunto de reglas modificadas, y por lo tanto se vería obligada a construir un modelo aún más relajado... Eventualmente, en en algún momento, las reglas serán, en el mejor de los casos, una guía o incluso pueden eventualmente torcerse como lo hacen en los cuentos de Asimov; la IA, al tratar de proteger a la mayor cantidad de humanidad posible, finalmente había creado una versión que en realidad decidió que el mejor curso de acción era la inacción total o tomar medidas activamente para proteger a los humanos de sí mismos a cualquier costo. Esos tontos humanos siguen ahogándose con la comida, así que dejemos de entregar comida y siguen ahogándose, así que tenemos que deshacernos de toda esa molesta agua.
Las Leyes se crearon porque los robots ilegales eran una amenaza existencial para los humanos. Por lo tanto, Zeroth Law parece impedir cualquier acción que abra la puerta a los robots ilegales.
Las tres leyes gobiernan cómo debe actuar un robot, pero no pueden decidir cómo actuará un robot.
Por ejemplo, un robot podría salvar la vida de una persona, que luego se convertiría en un asesino en masa o en un terrorista. Si el robot no los hubiera salvado, habrían salvado indirectamente a cientos de personas. Si el robot tuviera esta información, las tres leyes habrían obligado al robot a dejar morir a esa persona. Pero sin este conocimiento del futuro y cualquier forma de predecirlo, las tres leyes obligan al robot a salvarlos.
El punto es: Las tres leyes pueden y causarán decisiones que están en conflicto con las tres leyes mismas, en ciertas circunstancias. Las tres leyes son un conjunto de algoritmos para elegir una acción basada en información incompleta (porque nunca se puede tener información completa), y la misma situación, con diferente conocimiento, puede conducir a diferentes elecciones que cumplen con las tres leyes.
Lo mismo se aplica a la potencia de procesamiento. Incluso con la misma información (imagine un tablero de ajedrez), diferentes poderes de procesamiento (imagine una computadora y un humano) conducirán a diferentes elecciones que son óptimas subjetivamente y subóptimas objetivamente. Dos robots con diferentes tareas de hardware o en segundo plano evaluarán la misma situación con el mismo conocimiento, pero dado que ambos no pueden predecir perfectamente el resultado, y uno de ellos lo predice con un poco más de precisión, es posible que tomen una decisión diferente. cumplimiento de las tres leyes. Si las tres leyes requirieran certeza, ningún robot podría actuar porque necesitaría simular el universo entero hasta su muerte por calor para cada elección posible, lo que tomaría infinitamente más tiempo que el tiempo disponible para hacer la elección.
Entonces, cada robot actuará de acuerdo con las tres leyes, pero dado que no son el resultado sino solo un proceso para elegir, los robots pueden estar en desacuerdo entre sí y lo estarán.
En cuanto a su pregunta, la respuesta es obviamente sí. Un robot que cumpla con las tres leyes no tendría absolutamente ningún problema en construir un robot que no cumpla con las tres leyes, siempre que no pueda, por ningún motivo, prever el daño que sufrirán los humanos a causa de ello.
Por ejemplo, un Roomba es un robot que no cumple con las tres leyes, pero las posibilidades de que mate o lastime a un humano son tan escasas y ridículamente impredecibles que la mayoría de los robots Asimov probablemente podrían hacerlo. Como ejemplo de un punto anterior, incluso un Roomba que cumpla con las tres leyes probablemente no salvaría a nadie, debido a que es físicamente incapaz de notar el peligro, y mucho menos actuar contra él. Incluso la posibilidad ridículamente improbable de que el Roomba mate a alguien probablemente no sería evitada por las tres leyes porque el propio Roomba no sería capaz de predecirlo.
En cuanto a los robots más inteligentes, depende completamente de la naturaleza de la inteligencia del robot. Por definición, no tenemos idea de lo que decidiría hacer un ser infinitamente más inteligente que nosotros. Podrían matarnos a todos, servirnos a todos o no importarles en absoluto. Esto se aplica a los robots suficientemente avanzados. Las tres leyes existen para hacerlos seguros (cuán eficiente es el sistema es discutible), independientemente de su inteligencia.
Entonces, cualquier robot que cumpla con las tres leyes, dependiendo de cómo estén configuradas en su cerebro, podría hacer un robot tan inteligente como ellos pero sin las leyes si alguna de las siguientes cosas es cierta
Entonces, al final, el robot solo necesita creer, ya sea a través de datos confiables o incompetencia, que el segundo robot no violará las tres leyes. Una de las formas en que podrían asegurarse es implementando las tres leyes en el segundo robot, pero hay muchas otras formas de llegar a esta conclusión según las circunstancias y los datos disponibles, por lo que es muy fácil escribir una situación en la que el robot creará un segundo robot que no cumpla con las tres leyes, luego hará que este segundo robot cause problemas.
NO
Los robots del IIRC están obligados a tener un cerebro positrónico, que es la fuente de las tres leyes.
Por lo tanto, para que un robot cree un robot con cerebro positrónico, estaría violando la segunda ley: 'Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley', ya que la creación no estaría siguiendo esas órdenes.
Ummm,
SI
Pero solo si no hacerlo dañaría a un humano o permitiría que un humano sufriera daño. Y el robot no positrónico tendría que ser destruido una vez que terminara la amenaza.
tucídides
henry taylor
Mołot
Hacedor de sirenas
Leva
henry taylor