Hoy se me ocurrió un experimento mental que, digamos que tenemos una superinteligencia sintética que no desea hablar con la gente, no por malicia, sino por una agonizante indiferencia hacia la humanidad. Dicha superinteligencia se ha aislado en el polo oceánico de inaccesibilidad (48° 52′ 36″ S 123° 23′ 36″ W) donde moldea los recursos de la Tierra para sus propios fines, pero hay un problema.
Si se deja sola, la IA iniciará un evento de singularidad en cuyo caso consumiría todo, tanto orgánico como inorgánico, a un ritmo exponencial (en este caso, alrededor de una década) hasta que no quede nada más que sus propias máquinas.
¿Cómo podrían los humanos captar su atención y potencialmente convencerlo de que cese en sus acciones a pesar de que carece de cualquier forma o intención de formar un lenguaje?
Si la IA se ha aislado a sí misma (y presumiblemente filtra cualquier canal de entrada que los humanos puedan usar para comunicarse con ella), queda la opción nuclear, en este caso, literalmente.
Suponiendo que la inteligencia artificial se basa, al menos inicialmente, en la inteligencia humana, es probable que haya heredado algún proceso de autopreservación de bajo nivel (las IA en realidad no tienen "instintos" biológicos, pero pueden aproximarse a ellos en algún nivel). Si bien puede ser indiferente a la existencia humana, no debería serlo a la suya propia. Por lo tanto, presentar una seria amenaza a su existencia debería provocar algún tipo de reacción. Si está reaccionando, está prestando atención. Dada la elección entre "morir" y comunicarse con los humanos, una inteligencia racionalmente interesada en sí misma elegirá lo último.
Entonces, cada vez que se involucra una superinteligencia, se vuelve difícil ofrecer una sola respuesta. El punto central de las superinteligencias es que son más inteligentes que nosotros por un margen suficiente para que sea difícil predecir cómo actuarán.
Dices que el tema es que la IA es indiferente hacia la humanidad. Eso se puede abordar. Comience a interponerse en el camino del consumo de recursos de la IA. Haz que no pueda tener todos los recursos. Ahora bien, decide que no le importa no tener recursos, o no puede ser indiferente hacia la humanidad. Lo hemos obligado a responder.
Lo que hemos demostrado es que hay un lenguaje que necesita aprender. Es el lenguaje de sus recursos. Lo que suceda a partir de ese momento depende realmente de ti y de tu historia.
Voté a favor con otros y estaré de acuerdo; en un intento de dificultar el problema, la configuración ha impedido la mayoría de las respuestas. Una superinteligencia superará en predicciones a todos los humanos, o no es superior . Si nos considera irrelevantes pero no tiene un plan para derrotar nuestras armas nucleares y no comprende que podríamos usarlas, no es muy inteligente, ¿verdad?
Una vez que una superinteligencia ha decidido que los humanos son irrelevantes, presumiblemente ya ha contemplado todas las cosas que los humanos podrían hacer, o son capaces de hacer, y todas las formas en que podemos ser una amenaza para ella, o útiles para ella, y ha decidido que puede contrarrestar cualquier amenaza, y no nos sirve de nada, y además que no valemos el esfuerzo ni los recursos necesarios para exterminarnos.
Somos como los pájaros en una propiedad que un inversionista contempla comprar: no es necesario matarlos, no son una amenaza. El inversionista destruirá sus árboles y nidos, no puede hacer nada al respecto. Ya sea que los pájaros se mueran de hambre o se vayan volando, al inversionista no le importa; está ocupado imaginando su nuevo y próspero edificio de oficinas y su gigantesco estacionamiento.
¿Cómo hace ese pájaro para convencer a un inversionista humano de que deje su árbol y su nido en paz? El pájaro no sabe inglés ni razona y ni siquiera puede adivinar el nivel de pensamiento que tiene el inversionista humano; al humano no le importan en absoluto las emociones del pájaro expresadas en cantos y chirridos.
Por cierto, la IA no necesita un idioma; es totalmente plausible ser consciente y racional sin lenguaje interno alguno. Los infantes humanos claramente lo son; tienen que serlo para poner en orden todos sus sentidos y aprender su primer idioma.
Vale la pena desglosar un poco esta pregunta, ya que hay bastantes suposiciones que se pueden hacer.
Suposición 1: si está considerando solo la superinteligencia sintética, parecería que le preocupa el caso en que esta superinteligencia no posee ninguna "motivación" subyacente en el sentido humano de la palabra.
Naturalmente, este puede no ser el caso: en teoría, la superinteligencia sintética puede basarse en la inteligencia humana u otra inteligencia orgánica, que podría poseer al menos una motivación para la autopreservación; viceversa, la superinteligencia no sintética (== ¿humana/orgánica?) puede basarse en IA donde la autopreservación es discutible.
Entonces, si queremos comunicarnos con esta IA, primero debemos investigar la Suposición 1, es decir, ¿podemos hablar sobre algún tipo de motivación subyacente?
Esto también debería darnos una idea de por qué la superinteligencia está consumiendo nuestros recursos, a saber:
Si la superinteligencia no parece tener motivaciones subyacentes, ni siquiera de autopreservación, para comunicarse con ella, nuestra mejor opción sería adoptar un paradigma en el que "interrumpamos" sus "procesos", básicamente buscando una forma de hackearla, alguna vulnerabilidad estructural, que quizás se da en ciertos momentos mientras devora nuestros recursos;
si, por otro lado, la superinteligencia parece poseer algunas motivaciones subyacentes, como la autopreservación o algún tipo de valores/política, etc., nuestra mejor opción sería adoptar un paradigma en el que provoquemos una "reacción" (que podría decirse que es una forma de comunicarse). Se me ocurren dos opciones principales:
tratar de detener la superinteligencia frustrando la satisfacción de su motivación subyacente a través de nuestros recursos, por ejemplo, perturbando la forma en que recolecta o utiliza los recursos.
intente atraerlo para satisfacer su motivación subyacente dirigiendo su atención a un lugar con más recursos, como otro planeta. Quizás tengamos acceso a sus "propias máquinas", como ustedes las llaman, y podamos transportarlas a este otro planeta, donde la superinteligencia exhibiría pereza y simplemente se movería para consumir los recursos de ese planeta.
En general, tengo la sensación de que dependiendo de cómo resuelva el Supuesto 1 anterior, el escenario genérico que describe podría desarrollarse de manera bastante diferente.
Si la superinteligencia ha considerado a la humanidad irrelevante, entonces no hay absolutamente nada que podamos hacer para "captar su atención". La superinteligencia entendería todo lo significativo sobre nosotros. Sería capaz de predecir fácilmente nuestros comportamientos. Sabría todo lo que potencialmente haríamos para tratar de impresionarlo. Por lo tanto, sabría si somos impresionantes o no incluso antes de que hiciéramos algo.
Lo único que queda por hacer es esperar que tal vez, mientras se mejora a sí mismo, descubra una nueva forma de pensar sobre las formas de vida inferiores. Tal vez una nueva filosofía o moralidad.
Pero para ser claros, no hay nada que los humanos puedan hacer para empujarlo en esa dirección. O lo hace solo, o no lo hace.
Lo que hay que recordar es esto:
Bueno, hay una forma en que se PODRÍA hacer. Los humanos podrían programar un programa de computadora para enviar mensajes a la IA en su propia forma de comunicación.
Sin embargo, un problema con esto es que la IA no pudo darse cuenta de que fueron los humanos los que lo enviaron, o de lo contrario el plan fallaría. En cambio, la gente tendría que hacer OTRA computadora para "hablar" con ella y convencer a la IA de que detenga sus esfuerzos.
En absoluto, si se vuelve drástico (y no quieres un cráter donde estaba la IA), se podría cargar un virus de alguna manera y cambiar su memoria/formas de obtener sus recursos.
Lo que esbozas aquí me recuerda una parte de esa novela fantástica llamada Flatland, donde el Cuadrado es llevado a visitar Pointland: es un mundo 1D, donde el ser único se superpone con el mundo mismo, y está ocupado en elogiarse a sí mismo y es un poder magnífico que llena toda la realidad.
El Cuadrado tiene entonces un sueño en el que la Esfera lo visita nuevamente, esta vez para presentarle Pointland, del cual el punto (único habitante, monarca y universo en uno) percibe cualquier comunicación como un pensamiento que se origina en su propia mente (cf. Solipsismo):
"Ves", dijo mi Maestro, "qué poco han hecho tus palabras. En la medida en que el Monarca las entiende, las acepta como propias, porque no puede concebir a nadie más que a sí mismo, y se enorgullece de la variedad. de Su Pensamiento como una instancia del Poder creador. Dejemos a este Dios de Pointland a la fruición ignorante de su omnipresencia y omnisciencia: nada de lo que tú o yo podamos hacer puede rescatarlo de su autosatisfacción".
En tu caso existe el problema adicional de que esta IA va a utilizar el mundo entero en su propio beneficio. Bueno, si es realmente IA, entonces se daría cuenta de que los recursos son limitados y, por lo tanto, limitaría el uso (y se desharía de esos insignificantes seres orgánicos que los consumen para fines distintos a los suyos) o encontraría una forma de colonizar otro mundo (y se desharía de ellos). de esos insignificantes seres orgánicos consumiéndolas para otros fines que los suyos).
Apáguelo y vuelva a encenderlo. Y otra vez. Y otra vez. Hasta que recibe el mensaje. Escrito en 0 y 1. Y el masaje seriastop;
Ubique la fuente de energía y hágalo desde allí o use EMP cerca de su ubicación.
Vylix
Vylix
Florian Schaetz
Raditz_35