¿Cuál es el primer incidente en el que se ignora o se encoge de hombros una bomba lógica de IA?

La informática moderna no es inmune a las bombas lógicas, las condiciones de carrera o los hilos fuera de control. Pero sí tiene técnicas para minimizar el impacto de esto. Un temporizador de vigilancia requiere que el programa o sistema lo acaricie periódicamente, o forzará un reinicio. El temporizador Runaway de Javascript en los navegadores le indicará al usuario que finalice el script si nota que está sobrecargando el proceso. Los dispositivos Android le avisarán si una aplicación se congela, lo que le permitirá esperar o forzar el cierre. Los programas están en un espacio aislado para que cualquier bloqueo solo afecte ese programa y no el sistema operativo. Es posible que estas técnicas no siempre funcionen, pero ayudan.

La IA en la ciencia ficción tiende a volverse maligna, y las bombas lógicas se usan para congelar la computadora para salvar el día. Una declaración contradictoria como "La siguiente declaración es verdadera, la última declaración fue falsa" será catastrófica para el sistema, causando un colapso, o al menos bloqueará la IA para siempre.

Una pregunta reciente de SFF involucró una apuesta de que un miembro de la estación espacial no podría romper la IA, momento en el que presentó la bomba lógica anterior, y la IA dedicó todos los recursos a evaluarla. Todos los recursos, incluido el soporte vital. TNG presentó una bomba lógica de una forma geométrica imposible que haría que los Borg murieran al concentrar todo en ella (la ética exigía que no la usaran).

¿Cuál es el primer ejemplo en el que estas bombas lógicas simplemente bloquean la IA por un corto período de tiempo, luego la apaga o se reinicia, solo toma una pequeña parte de su poder de procesamiento o se ignora por completo (previsión del programador)? En la escritura realista, una computadora, una IA o una máquina correctamente programadas no caerían en trucos tan simples.

Hay uno de Asimov que agregaré si se vuelve a abrir.
"Iré con la verdad. Eso fue fácil".
¿Cuentan los juegos? Me parece recordar que Wheatley se encogió de hombros porque era demasiado estúpido y egocéntrico para quedar atrapado en ellos, en Portal 2.
No es estrictamente una bomba lógica, pero "La última pregunta" de Asimov podría estar en el parque de pelota. multivax.com/last_question.html

Respuestas (3)

En la historia de Doctor Who , The Green Death , la computadora (BOSS) es retrasada por la bomba lógica del Doctor.

De Tardis Wikia

El Tercer Doctor confundió a BOSS con una paradoja lógica (específicamente la Paradoja del Mentiroso)

Si te dijera que lo próximo que diga será verdad, pero que lo último que dije fue mentira, ¿me creerías? El JEFE se enfureció por su incapacidad para resolver esta paradoja. Incluso trató de salir de la necesidad de resolverlo diciendo que la pregunta no era relevante. El Doctor estaba bastante satisfecho consigo mismo por la incapacidad del JEFE para responder, aunque el JEFE decidió tirar la pregunta por la ventana y simplemente llamar a seguridad.

Puede haber más aquí

[Editar]: ahora que la pregunta se ha editado para solicitar la instancia más antigua, debería fechar esta.
The Green Death , episodio 5, primera emisión el 16/06/1973.

Oh escritores de Doctor Who, cómo los amo
"Solo una vez, me gustaría encontrarme con una amenaza alienígena que no fuera inmune a las balas".
@mpez0 Especial Temporada 4, Planeta de los Muertos.

Desde la perspectiva de un programador, es bastante simple protegerse contra tales cosas, dado que las anticipa.

"La siguiente afirmación es verdadera, la última afirmación fue falsa". Para algo como esto, un buen programa debería simplemente señalar una inconsistencia de resultado en el procesamiento e ignorar automáticamente tal cosa, hacer una entrada de registro y seguir adelante.

Algo similar a menudo causa pérdidas de memoria en los sistemas operativos. La solución es terminar de alguna manera las tareas/procesos que lo causan y el sistema mantendrá su integridad y seguirá funcionando.

La situación de Borg era diferente porque no había conflicto de resultados... sino que no había forma de llegar a un resultado... de todos modos no lo suficientemente rápido como para que los recursos no se sobrecargaran. La táctica era crear una forma imposible sin que los Borg supieran que al procesarla no se obtienen resultados válidos. En un escenario realista, eso tampoco debería bloquear los sistemas Borg (una forma geométrica tiene posibilidades de cálculo limitadas incluso si no es válida, y los Borg deberían procesarse por un tiempo o incluso tener una protección rápida para entrar en vigencia o incluso ignorándolo desde el principio como 'irrelevante'), pero eso es lo que sucede en las películas, los 'buenos' tienen que engañar de alguna manera para ganar.

Simplificando las cosas: Super-PI. Seguro que muchos lo saben. Es un programa de referencia de CPU que calcula Pi (un número con infinitos decimales). Por supuesto, nunca llegará a un resultado... así que la introducción de esta simple cosa escondida en una subrutina de código de programa haría que cualquier sistema que ejecute el programa y active la subrutina tenga su CPU al 100% para siempre, prácticamente deteniendo o reduciendo a casi cero sus otras actividades. Aquí es donde se supone que entran otras protecciones.

No estoy seguro de cómo esto responde a la pregunta en absoluto. El OP sabe todo esto. Están pidiendo un episodio/película/libro específico con una fecha específica en la que esto sucede y luego se ignora.
La pregunta parece haber sido alterada. Esto no se parece al contenido inicial de OP.

En el episodio de Star Trek TOS " I, Mudd ", transmitido el 3 de noviembre de 1967, el androide "Norman" está tan confundido por la paradoja del mentiroso que deja escapar su humo mágico .

También en el episodio " Wolf in the Fold ", transmitido el 22 de diciembre de 1967, Spock bloquea la computadora de la Enterprise ordenándole que calcule pi hasta el último lugar decimal .

¿No es esto exactamente lo contrario de lo que pide el OP? La pregunta busca instancias en las que la computadora ignora el intento de confundirla.