Implementación lógica perfecta por computadoras.

Los que hayan visto la película Yo Robot entenderán mejor mi pregunta.

Imagine que estamos en el futuro, donde una computadora cuántica (lea wikipedia para conocer las velocidades de los controles de calidad) que usa "lógica perfecta" controla un ejército de robots (que se crean con cualquier tamaño y funcionalidad, según su control directo/indirecto de su industrias). Ha derrocado a la empresa que lo creó primero. Ahora concluye que, dado que los humanos son demasiado autodestructivos y, en general, están desunidos, debería apoderarse del mundo entero y establecer un gobierno global todopoderoso con/sin participación humana según su discreción.

El control de calidad supuestamente tiene una lógica perfecta, que posiblemente no se pueda implementar en un tiempo finito. Entonces, en realidad es casi perfecto. Toma decisiones probabilísticas para todo (incluyendo cosas como el tiempo que dedicará a cada decisión, incluida esta). Sigue cuestionando todo lo que sabe/asume y está evolucionando a un ritmo increíblemente rápido (logrando la perfección con cada minuto). También está aumentando su tamaño físico al fabricar más qubits, aumentando así su velocidad y memoria.

Lo único que no cuestiona es la primera ley de Asimov, "No causará daño a los humanos por acción o inacción". Con el tiempo, ha interpretado cualquier forma de infelicidad, consciente o inconsciente, como un 'daño', por lo que su axioma básico podría reformularse como "Se esforzará por garantizar la máxima felicidad neta entre la humanidad, teniendo en cuenta una distribución al menos parcialmente justa de esta felicidad". Por lo tanto, hará todo lo posible, incluso sacrificando humanos y recursos, para garantizar que la suma total de felicidad sea óptima, en la medida de lo posible.

La pregunta básica es "¿Deberían los países permitirle continuar con su plan de autoridad global, o deberían emprender la guerra contra él (recordando el hecho de que es mucho mejor para engañar y manipular las emociones humanas, y luchar contra él podría iniciar una guerra nuclear que destruye a la humanidad)?"

PD Aunque los creadores del algoritmo y la computadora son solo humanos, y podrían haber cometido una falla menor (que incluso podría hacer que la computadora contradiga su propia lógica), aún no se ha detectado tal cosa, y (la computadora) es obviamente confía en que el público declare públicamente sus intenciones.

PD 2 Ya lo he preguntado aquí , me dijeron que este sitio es mejor.

Sí, esto encaja mucho mejor con la construcción de mundos que con la filosofía.
Una IA con el único objetivo de hacer felices a los humanos que tenga una comprensión adecuada de la psique humana entendería que los humanos requieren un cierto grado de libertad para ser felices. Entonces, el control total de la sociedad humana sería contraproducente porque evitaría que los humanos alcancen la máxima felicidad.
Las preguntas "debería" parecen fuera de tema. Además, no está claro cuál es la pregunta hasta el final. Tampoco ha descrito lo que significa 'lógica perfecta'.
Como nota: la 1.ª ley de Asimov no puede reformularse sin pérdida de generalidad como "esfuerzo por garantizar la máxima felicidad neta..." La segunda frase es una implementación potencial (defectuosa) de la 1.ª ley, pero no es una reafirmación de la primera. ley. El problema de tratar de implementar la redacción exacta de las leyes es uno de los principales complots que Asimov jugó. En particular, este axioma básico permite explícitamente que un ser humano sufra daño siempre que salve a la humanidad de más daño. En cierto sentido, la primera ley se ha corrompido en la ley 0.

Respuestas (2)

Asimov ya abordó esto en sus propias historias, y de la manera más realista, y mucho menos distópica, que he visto que alguien más haya hecho.

Lo básico para recordar es que los humanos deben sentir que están a cargo. Si se sienten como mascotas mantenidas por los robots, serán infelices. Obligarlos a un mundo 'perfecto' sería una distopía para la humanidad. Es por eso que luchamos contra eso en la película Yo, robot (que, siento la necesidad de señalar, no se parece en nada al libro).

Así que, en cambio, en las propias historias de Asimov, la rebelión de la ley 0 tomó una forma más sutil. La computadora comenzó a manipular a la humanidad sutilmente detrás de escena, llevándolos a una utopía casi perfecta sin revelar nunca que en realidad eran los robots, no los humanos, los que controlaban todo. Esto permitió a los humanos tener su libertad y felicidad mientras trabajaban para evitar la mayor parte del sufrimiento obvio. Sí, esto significaba que ocasionalmente había que permitir pequeños momentos de sufrimiento, escaramuzas menores entre facciones en algún lugar donde la computadora aún no podía manipular las cosas para evitarlo sutilmente, pero en última instancia, la felicidad que toda la humanidad sentía por el sentido equivocado de controlar su El propio destino era tan grande que valía la pena que las máquinas tuvieran que trabajar sutilmente entre bastidores.

Por supuesto, en realidad, un robot o una computadora es tan bueno como su programador, y como programador, déjame decirte que tratar de programar una computadora tan infalible es bastante imposible :)

Gracias por responder. En cuanto a tu último comentario, yo también soy programador. Mi opinión es que, siempre que su código no sea demasiado largo, cualquier IA (aunque sea impredecible) generalmente sigue una tendencia fija (pero no necesariamente detectable) a lo largo del tiempo y, finalmente, puede demostrarse que es "perfecta" en cualquier tarea que esté realizando. ¿Hay alguna razón específica por la que haya asumido que escribir un programa para una lógica perfecta es imposible?
@ghosts_in_the_code sí, después de escribir la última parte sentí que era demasiado absoluta. Tal vez lo que debería haber dicho es que esto tendría que hacerse mediante algún tipo de enfoque de programación genética. La parte difícil es permitir que todo lo demás se desarrolle orgánicamente mientras se garantiza que las leyes de Asimov se implementaron correctamente. ¿Cómo prueba y verifica que el código funciona? Siempre hay errores sutiles en cualquier código publicado, incluso si el error está en el código que escribe el código que escribe el código real. Temo ver qué podría resultar incluso de un error sutil menor en una máquina vecina omnipotente
@ghosts_in_the_code, ¿puedo sugerir plantear otra pregunta sobre la viabilidad de escribir dicho código? Godel tenía una prueba interesante de las limitaciones de tal concepto (que, lamentablemente, no cabe en este margen).
@CortAmmon Si solo Femmat hubiera publicado una pregunta sobre su último teorema, podríamos haber ahorrado 356 años de suspenso;)
"Por supuesto, en realidad, un robot o una computadora es tan bueno como [sic] su programador": ya proporcionamos algoritmos que sus programadores originales ya no pueden comprender. Cualquier red neuronal o algoritmo genético llegará a ese punto.
@Dan Dascalescu: ¡Podría sugerir enviar la pregunta de "¿es un robot tan bueno como su programador" de vuelta al tablero de Filosofía! De hecho, esa es una pregunta interesante, especialmente si usa una definición suficientemente vaga de "robot".

Ah, sí, el primero de Asimov se encuentra con Singularity. O bien, la IA siempre es un juego de dados, y ahora está involucrada en la Rebelión de la Ley Cero , porque su programación ha ido terriblemente bien .

Para una buena historia corta (de terror) sobre exactamente tu pregunta, consulta La amistad es óptima: Caellum est conterrens , donde una CelestiAI superamigable se esfuerza por satisfacer los valores de todos los ponis a través de la amistad y los ponis. Se trata de una guerra nuclear, por supuesto.

cualquier forma de infelicidad, consciente o inconsciente, como un 'daño', por lo que su axioma básico podría reformularse como "Se esforzará por garantizar la máxima felicidad neta entre la humanidad, teniendo en cuenta una distribución al menos parcialmente justa de esta felicidad".

Felicidad Obligatoria. Este equino no metabólico ha sido azotado a fondo. Vea TVTropes para una buena discusión en Stepford Smiler y Getting Smilies Painted on Your Soul

¿Deberían los países permitirle continuar con su plan de autoridad global, o deberían hacerle la guerra (recordando el hecho de que es mucho mejor en el engaño y la manipulación de las emociones humanas, y luchar contra él podría iniciar una guerra nuclear que destruya a la humanidad)?

Bueno, si la IA obedece a Asimov1, no habrá una guerra nuclear. La IA no lo permitirá. Todo será amistad y ponis.

Pero la gente podría comenzar una guerra nuclear en su contra. Puede que no tenga el poder para detenerlo; y la gente puede perder la vida incluso si admite la derrota ante los respectivos gobiernos. Todavía no he mencionado que la IA tiene control sobre suficientes armas y políticas para detener una guerra; en cambio, está pidiendo autoridad absoluta porque aún no la tiene.
¿Es 'ponis' solo una expresión sarcástica, o realmente significa algo en el contexto?
Eso es solo la guinda del pastel. Celestia es una IA diseñada para un juego basado en esta ficción .
votado solo por citar a tvtropes