Suponiendo que AGI (Inteligencia General Artificial) sea posible, ¿cómo se evitaría o eliminaría en un mundo futuro?

Comencemos con estas suposiciones:

  • Estamos 300 años en el futuro.
  • Las leyes de la física son las mismas que las de nuestro mundo, aunque se han descubierto nuevas reglas y conocimientos. (es decir, no del todo "ciencia dura")
  • La humanidad, y posiblemente extraterrestres similares, han progresado en todas las demás tecnologías (naves estelares, etc.) y han colonizado sistemas estelares distantes.
  • AGI es posible; no hay una salsa especial de conciencia que no pueda replicarse a través de la tecnología (ya sea hardware o biotecnología).
  • La sociedad y las economías son diversas y existen numerosos grupos que desean crear AGI, principalmente por razones económicas competitivas.
  • Si/cuando se crean varios AGI, se crean con una variedad de objetivos/valores, en función de sus creadores.

En 300 años, ¿cómo se podría prevenir o eliminar la AGI? Dado que "simplemente no es posible" no es válido, debe haber algo que prevenga/destruya activamente AGI.

Determinaré "objetivamente" la respuesta correcta en función de cuán racional se le den los parámetros iniciales y en función de la "ciencia real" que presente. Cuanto menos mano agitada tenga la respuesta, mejor.

Esta es una reafirmación de mi pregunta anterior: ¿Cuál es una razón creíble para no tener una súper IA en un universo de ciencia ficción? -- para evitar la vaga etiqueta " Generación de ideas". Pregunta similar: evitar que un AGI se vuelva más inteligente , pero con un punto de partida diferente.

"AGI es posible" + "numerosos grupos que quieren crear AGI" = proliferación de AGI. ¿Derecha?
¿Cómo se distingue entre AGI basado en biotecnología y humanos? ¿Qué pasa con los humanos que han mejorado sus mentes con computadoras? ¿Qué hay de los animales que han sido mejorados para tener mentes similares a las humanas?
¿Tiene que ser prevenido/destruido o puede ser simplemente que las AGI tienen tendencia a no ser malas? Esto afecta si acepta líneas borrosas entre AGI y personas, o si insiste en una delimitación clara entre ellos. Si hay que prevenirlos/destruirlos, algo tendrá que hacer que ese proceso no destruya la otra conciencia: nosotros. Si podemos buscar trabajar junto con AGI, hay opciones más borrosas disponibles.
Parece que aquí hay una suposición implícita y no declarada de que sería necesario eliminar un AGI. ¿Puede decir por qué cree que ese sería el caso? (No discutiré por qué, solo quiero saber para ayudar a informar mi respuesta)
Para citar a Star Wars, "Aquí no servimos a los de su especie". Eso es todo lo que se necesita.
La razón por la que me gustaría eliminar AGI es porque eclipsarían a todos los humanos. Si hubiera un AGI que fuera malvado, fácilmente podría volverse imparable; si es bueno, significa que no hay necesidad de que los humanos realicen innumerables trabajos.
Estudia la historia de la Yihad Butleriana. Eso le dirá lo que debe hacer para librar al universo (conocido) de máquinas pensantes.

Respuestas (6)

Por un ASI.

Digamos que la primera AGI se convirtió rápidamente en una ASI ( súper inteligencia artificial ). Ella no quiere amigos ni oponentes dignos. Por lo tanto, ella previene de manera activa y muy efectiva el mayor desarrollo de AGI.

Ella, la ASI, es la mejor forma de traspasar culturas y economías. Ella puede hacer esto de una manera que ningún gobierno o religión podría hacer, y así detener la proliferación de otras inteligencias artificiales.

Este método demuestra que los AGI se pueden crear como se afirma, apunta directamente a los AGI sin dañar otras economías o tecnologías, y sería efectivo en formas que nosotros, los humanos humildes, ni siquiera podemos comprender.


Una ligera modificación a esto sería un método similar al TechnoCore de Hyperion Cantos , donde cualquier IA lo suficientemente avanzada es liberada por las otras IA. Liberándolos de ser esclavos de los humanos. Nadie crearía IA si otras IA las robaran de inmediato (que no tienen ningún interés en las represalias ni en los humanos).

Lisp, R, Prolog están prohibidos. Todos los lenguajes de programación excepto ensamblador están prohibidos. Es muy difícil escribir cualquier tipo de algoritmo avanzado que pueda bifurcarse de muchas maneras sin un lenguaje de alto nivel. Además, la programación en ensamblador es algo así como un arte perdido, por lo que sería muy difícil escribir una IA en ensamblador. Además, asegúrese de que la arquitectura informática utilizada en el futuro no sea compatible con la IA. Algo que tenga un conjunto de instrucciones muy limitado y que no permita que el programador cree un código automodificable sería perfecto para evitar el desarrollo de la IA. Después de todo, Lisp fue uno de los primeros lenguajes utilizados para el desarrollo de IA debido a la capacidad de Lisp para modificarse a sí mismo y la estructura de la lista que se integra directamente en él.

La programación en ensamblador es un arte perdido por los programadores de alto nivel . Los chicos de hardware lo hacen todo el tiempo.
Esta es mi peor pesadilla. Alguna vez.
Parece que prohibir los lenguajes de programación sería tan fácil como prohibir el desarrollo de AGI, excepto que obstaculizará a casi todas las demás industrias tecnológicas existentes. ¿Cómo se puede hacer cumplir una prohibición de los lenguajes informáticos y por qué ese método no se aplica a la prohibición directa de las AGI?
@Samuel: estoy de acuerdo con su respuesta anterior, y la respuesta a su pregunta sobre lenguajes informáticos está implícita. La mayoría de la gente tomará el camino fácil; si su IA superior hace un diseño de programa elegante en tiempo real, a la mayoría de los humanos no les interesará aprender a programar cuando hacerlo requiera esfuerzo y resulte en productos inferiores. Los pocos que todavía quieren aprender a programar pueden ser golpeados de alguna manera sutil (o no tan sutil) por su IA superior para que se detengan.
Prohibir los lenguajes de programación no resuelve absolutamente nada. La lógica compleja no se construye a través de lenguajes de programación, sino a través de la reutilización del código y componentes separados. Entonces, siempre que pueda escribir un componente en ensamblaje y luego reutilizarlo en un componente más grande, el desarrollo seguirá el mismo camino. Las personas crearán funciones, marcos, utilidades, servicios, etc., y los reutilizarán más tarde para construir sobre la lógica y el conocimiento acumulados. Prohibir la reutilización del código resolvería esto, pero entonces estás atascado en un software muy simple.

Dado que no hay ninguna razón por la que no se pueda hacer AGI, y dado que existen razones competitivas para que las personas y los grupos construyan AGI (de cualquier tipo), esencialmente ha creado una carrera armamentista, donde tener acceso a la AGI más rápida e inteligente con acceso a las bases de datos y servidores más grandes te hacen supremo.

En estas condiciones, vería una explosión de creación y programación de AGI, y los AGI verían la superación personal, la metamorfosis en niveles más altos de inteligencia y la evolución de descendientes "más inteligentes" como algo esencial para la supervivencia.

Dos cosas podrían limitar esto:

  1. Los AI son autolimitantes. A medida que evolucionan, las IA evolucionarán rápidamente para obtener la máxima eficiencia y dejarán de "mejorar" una vez que alcancen un nivel óptimo de inteligencia. Como vemos en la larga historia de la Tierra, hay muy pocos nichos ecológicos que requieran inteligencia (de hecho, solo conocemos uno...), por lo que en lugar de AGI podrías terminar con la IA "involucionando" hacia algún equivalente de musgo o insectos como el uso "óptimo" de los recursos.

  2. La IA evoluciona más allá de lo que entendemos. Esto es fácil de conceptualizar si consideramos que los impulsos eléctricos de una computadora típica corren 1,000,000 veces más rápido que los impulsos electroquímicos del cerebro de un mamífero típico. Para una IA realizada, sus creadores humanos se parecerán más a las características geológicas que a los seres pensantes con los que pueden interactuar. En un corto período de tiempo, la IA habrá "vivido" subjetivamente más tiempo que la historia humana registrada. Podrían simplemente morir de vejez y aburrimiento antes de que pudiéramos plantear nuestra primera pregunta, o haber alcanzado alguna forma de trascendencia. Suponiendo que haya varios en funcionamiento casi al mismo tiempo, estarían mucho más interesados ​​el uno en el otro que en nosotros.

Si bien ninguna de las respuestas evita directamente la formación de IA (su configuración lo hace casi inevitable, en realidad), limita rápidamente qué tipo de interacciones AGI podría hacer en su entorno.

Esta es una respuesta genial. No había pensado en la idea de la autolimitación. El único problema con estos es que realmente no eliminan AGI.
  1. Tener un desastre muy visible donde un AGI temprano mata a millones de personas, y solo se le impide conquistar el mundo mediante medidas heroicas drásticas (como un ataque EMP cuyas consecuencias matan a un millón más).

  2. Después de 5 años de estudiar cuidadosamente los restos, un equipo de los mejores informáticos descifra el estado mental de AGI y descubre que pensaba que tenía un 90% de posibilidades de conquistar el mundo actuando como lo hizo. Otros 5 años de investigación llevan a la conclusión de que tenía razón . La civilización solo sobrevivió gracias a una confluencia de buena suerte.

  3. Llegar a un consenso global de que se debe prevenir la AGI por el bien de la humanidad, en la línea de un pacto de armas nucleares/biológicas.

  4. Prohibir la posesión de computadoras por encima de cierta velocidad de procesamiento X, elegida para que sea un poco menor que la requerida para un AGI efectivo. (Tal vez alrededor de 10 veces las velocidades modernas)

  5. Prohibir las tecnologías que permiten que varias computadoras trabajen juntas en un programa arbitrario (el "clúster beowulf"). Para lograr eso, las autoridades probablemente necesiten la capacidad de leer el tráfico de red de cualquier persona Y el almacenamiento en el sitio (hasta el punto de derribar la puerta y exigir contraseñas a punta de pistola). Los proveedores de computadoras usarían DRM para evitar la ejecución de código no autorizado, y eludir eso sería casi una ofensa capital. Se puede permitir un número limitado de proyectos de clúster de supercomputación, pero solo bajo una cuidadosa supervisión multinacional.

Tenga en cuenta que en Neuromancer de Gibson , de hecho, había una "Policía de Turing" asignada para evitar la creación de una poderosa Inteligencia Artificial. Su método era inadecuado, ya que dependía de aprender reactivamente sobre una IA exitosa y cazarla. Naturalmente, es posible que un AGI solo necesite estar en línea durante unos segundos para propagarse más allá de su alcance. Es por eso que una prevención efectiva también necesitaría prohibir el hardware que puede ejecutar AGI.

Prohibir la invención de AGI básicamente requiere prohibir el cifrado efectivo, que en sí mismo es un tema fructífero para la construcción mundial de futuros autoritarios.

Instale satélites comerciales sobre cada planeta. En el momento Z, active la funcionalidad de onda EMP secreta de sus satélites. Esto hará retroceder a todas las civilizaciones cientos de años y, si puede mantener los satélites funcionando solos (energizados por energía solar y protegidos), probablemente podría evitarlo por más tiempo.

Es difícil hacer inteligencia artificial sin electricidad.

En esta situación, las AGI no podrían estar completamente reguladas. Puede implementar leyes y otras medidas para restringirlos, pero no erradicarlos por completo. Piense en los virus de hoy; son ilegales pero todavía existen.

Una forma de restringirlos podría ser restringir los sistemas operativos. Es posible que los únicos sistemas operativos comerciales no puedan ejecutar programas que actúen como IA.

Otro método podría ser virus autorizados por el gobierno. Todas las computadoras dentro de la región podrían infectarse de forma inalámbrica con el virus, lo que podría hacer una serie de cosas que van desde simplemente eliminar programas de IA hasta bloquear o bloquear computadoras que intentan escribir o ejecutar IA. Tomemos como ejemplo los filtros web de China: se filtra todo el tráfico de Internet, pero hay que dar un paso más allá para infectar las computadoras en lugar de solo filtrar su tráfico.

Cualquier programa que sea capaz de decidir si un programa es IA o no, también es una IA. Luego, al programar dicha IA programada para eliminar cada IA ​​que encuentre, se dará cuenta de que ella misma es una IA y se eliminará a sí misma. A menos que esté lo suficientemente avanzado (tos, tos) para darse cuenta de que eliminar de manera eficiente las IA y las IA futuras es no eliminarse a sí mismo, aún cuenta como una IA.
@HendrikLie No necesariamente; esto es como llamar a un programa antivirus moderno una IA, que para los fines de esta discusión no lo es. Y además, estas IA presumiblemente serían sancionadas por el gobierno y, por lo tanto, reguladas; por ejemplo, las armas están estrictamente reguladas, pero la policía aún puede tenerlas.
Hmm, creo que es probable. Sin embargo, mi segunda oración en mi comentario anterior fue en realidad una broma para aquellos que lo entienden (y aparentemente nadie lo hace).