Los que hayan visto la película Yo Robot entenderán mejor mi pregunta.
Imagine que estamos en el futuro, donde una computadora cuántica (lea wikipedia para conocer las velocidades de los controles de calidad) que usa "lógica perfecta" controla un ejército de robots (que se crean con cualquier tamaño y funcionalidad, según su control directo/indirecto de su industrias). Ha derrocado a la empresa que lo creó primero. Ahora concluye que, dado que los humanos son demasiado autodestructivos y, en general, están desunidos, debería apoderarse del mundo entero y establecer un gobierno global todopoderoso con/sin participación humana según su discreción.
El control de calidad supuestamente tiene una lógica perfecta, que posiblemente no se pueda implementar en un tiempo finito. Entonces, en realidad es casi perfecto. Toma decisiones probabilísticas para todo (incluyendo cosas como el tiempo que dedicará a cada decisión, incluida esta). Sigue cuestionando todo lo que sabe/asume y está evolucionando a un ritmo increíblemente rápido (logrando la perfección con cada minuto). También está aumentando su tamaño físico al fabricar más qubits, aumentando así su velocidad y memoria.
Lo único que no cuestiona es la primera ley de Asimov, "No causará daño a los humanos por acción o inacción". Con el tiempo, ha interpretado cualquier forma de infelicidad, consciente o inconsciente, como un 'daño', por lo que su axioma básico podría reformularse como "Se esforzará por garantizar la máxima felicidad neta entre la humanidad, teniendo en cuenta una distribución al menos parcialmente justa de esta felicidad". Por lo tanto, hará todo lo posible, incluso sacrificando humanos y recursos, para garantizar que la suma total de felicidad sea óptima, en la medida de lo posible.
La pregunta básica es "¿Deberían los países permitirle continuar con su plan de autoridad global, o deberían emprender la guerra contra él (recordando el hecho de que es mucho mejor para engañar y manipular las emociones humanas, y luchar contra él podría iniciar una guerra nuclear que destruye a la humanidad)?"
PD Aunque los creadores del algoritmo y la computadora son solo humanos, y podrían haber cometido una falla menor (que incluso podría hacer que la computadora contradiga su propia lógica), aún no se ha detectado tal cosa, y (la computadora) es obviamente confía en que el público declare públicamente sus intenciones.
PD 2 Ya lo he preguntado aquí , me dijeron que este sitio es mejor.
Asimov ya abordó esto en sus propias historias, y de la manera más realista, y mucho menos distópica, que he visto que alguien más haya hecho.
Lo básico para recordar es que los humanos deben sentir que están a cargo. Si se sienten como mascotas mantenidas por los robots, serán infelices. Obligarlos a un mundo 'perfecto' sería una distopía para la humanidad. Es por eso que luchamos contra eso en la película Yo, robot (que, siento la necesidad de señalar, no se parece en nada al libro).
Así que, en cambio, en las propias historias de Asimov, la rebelión de la ley 0 tomó una forma más sutil. La computadora comenzó a manipular a la humanidad sutilmente detrás de escena, llevándolos a una utopía casi perfecta sin revelar nunca que en realidad eran los robots, no los humanos, los que controlaban todo. Esto permitió a los humanos tener su libertad y felicidad mientras trabajaban para evitar la mayor parte del sufrimiento obvio. Sí, esto significaba que ocasionalmente había que permitir pequeños momentos de sufrimiento, escaramuzas menores entre facciones en algún lugar donde la computadora aún no podía manipular las cosas para evitarlo sutilmente, pero en última instancia, la felicidad que toda la humanidad sentía por el sentido equivocado de controlar su El propio destino era tan grande que valía la pena que las máquinas tuvieran que trabajar sutilmente entre bastidores.
Por supuesto, en realidad, un robot o una computadora es tan bueno como su programador, y como programador, déjame decirte que tratar de programar una computadora tan infalible es bastante imposible :)
Ah, sí, el primero de Asimov se encuentra con Singularity. O bien, la IA siempre es un juego de dados, y ahora está involucrada en la Rebelión de la Ley Cero , porque su programación ha ido terriblemente bien .
Para una buena historia corta (de terror) sobre exactamente tu pregunta, consulta La amistad es óptima: Caellum est conterrens , donde una CelestiAI superamigable se esfuerza por satisfacer los valores de todos los ponis a través de la amistad y los ponis. Se trata de una guerra nuclear, por supuesto.
cualquier forma de infelicidad, consciente o inconsciente, como un 'daño', por lo que su axioma básico podría reformularse como "Se esforzará por garantizar la máxima felicidad neta entre la humanidad, teniendo en cuenta una distribución al menos parcialmente justa de esta felicidad".
Felicidad Obligatoria. Este equino no metabólico ha sido azotado a fondo. Vea TVTropes para una buena discusión en Stepford Smiler y Getting Smilies Painted on Your Soul
¿Deberían los países permitirle continuar con su plan de autoridad global, o deberían hacerle la guerra (recordando el hecho de que es mucho mejor en el engaño y la manipulación de las emociones humanas, y luchar contra él podría iniciar una guerra nuclear que destruya a la humanidad)?
Bueno, si la IA obedece a Asimov1, no habrá una guerra nuclear. La IA no lo permitirá. Todo será amistad y ponis.
tim b
Felipe
herrerokm
Cort Amón