Comencemos con estas suposiciones:
En 300 años, ¿cómo se podría prevenir o eliminar la AGI? Dado que "simplemente no es posible" no es válido, debe haber algo que prevenga/destruya activamente AGI.
Determinaré "objetivamente" la respuesta correcta en función de cuán racional se le den los parámetros iniciales y en función de la "ciencia real" que presente. Cuanto menos mano agitada tenga la respuesta, mejor.
Esta es una reafirmación de mi pregunta anterior: ¿Cuál es una razón creíble para no tener una súper IA en un universo de ciencia ficción? -- para evitar la vaga etiqueta " Generación de ideas". Pregunta similar: evitar que un AGI se vuelva más inteligente , pero con un punto de partida diferente.
Por un ASI.
Digamos que la primera AGI se convirtió rápidamente en una ASI ( súper inteligencia artificial ). Ella no quiere amigos ni oponentes dignos. Por lo tanto, ella previene de manera activa y muy efectiva el mayor desarrollo de AGI.
Ella, la ASI, es la mejor forma de traspasar culturas y economías. Ella puede hacer esto de una manera que ningún gobierno o religión podría hacer, y así detener la proliferación de otras inteligencias artificiales.
Este método demuestra que los AGI se pueden crear como se afirma, apunta directamente a los AGI sin dañar otras economías o tecnologías, y sería efectivo en formas que nosotros, los humanos humildes, ni siquiera podemos comprender.
Una ligera modificación a esto sería un método similar al TechnoCore de Hyperion Cantos , donde cualquier IA lo suficientemente avanzada es liberada por las otras IA. Liberándolos de ser esclavos de los humanos. Nadie crearía IA si otras IA las robaran de inmediato (que no tienen ningún interés en las represalias ni en los humanos).
Lisp, R, Prolog están prohibidos. Todos los lenguajes de programación excepto ensamblador están prohibidos. Es muy difícil escribir cualquier tipo de algoritmo avanzado que pueda bifurcarse de muchas maneras sin un lenguaje de alto nivel. Además, la programación en ensamblador es algo así como un arte perdido, por lo que sería muy difícil escribir una IA en ensamblador. Además, asegúrese de que la arquitectura informática utilizada en el futuro no sea compatible con la IA. Algo que tenga un conjunto de instrucciones muy limitado y que no permita que el programador cree un código automodificable sería perfecto para evitar el desarrollo de la IA. Después de todo, Lisp fue uno de los primeros lenguajes utilizados para el desarrollo de IA debido a la capacidad de Lisp para modificarse a sí mismo y la estructura de la lista que se integra directamente en él.
Dado que no hay ninguna razón por la que no se pueda hacer AGI, y dado que existen razones competitivas para que las personas y los grupos construyan AGI (de cualquier tipo), esencialmente ha creado una carrera armamentista, donde tener acceso a la AGI más rápida e inteligente con acceso a las bases de datos y servidores más grandes te hacen supremo.
En estas condiciones, vería una explosión de creación y programación de AGI, y los AGI verían la superación personal, la metamorfosis en niveles más altos de inteligencia y la evolución de descendientes "más inteligentes" como algo esencial para la supervivencia.
Dos cosas podrían limitar esto:
Los AI son autolimitantes. A medida que evolucionan, las IA evolucionarán rápidamente para obtener la máxima eficiencia y dejarán de "mejorar" una vez que alcancen un nivel óptimo de inteligencia. Como vemos en la larga historia de la Tierra, hay muy pocos nichos ecológicos que requieran inteligencia (de hecho, solo conocemos uno...), por lo que en lugar de AGI podrías terminar con la IA "involucionando" hacia algún equivalente de musgo o insectos como el uso "óptimo" de los recursos.
La IA evoluciona más allá de lo que entendemos. Esto es fácil de conceptualizar si consideramos que los impulsos eléctricos de una computadora típica corren 1,000,000 veces más rápido que los impulsos electroquímicos del cerebro de un mamífero típico. Para una IA realizada, sus creadores humanos se parecerán más a las características geológicas que a los seres pensantes con los que pueden interactuar. En un corto período de tiempo, la IA habrá "vivido" subjetivamente más tiempo que la historia humana registrada. Podrían simplemente morir de vejez y aburrimiento antes de que pudiéramos plantear nuestra primera pregunta, o haber alcanzado alguna forma de trascendencia. Suponiendo que haya varios en funcionamiento casi al mismo tiempo, estarían mucho más interesados el uno en el otro que en nosotros.
Si bien ninguna de las respuestas evita directamente la formación de IA (su configuración lo hace casi inevitable, en realidad), limita rápidamente qué tipo de interacciones AGI podría hacer en su entorno.
Tener un desastre muy visible donde un AGI temprano mata a millones de personas, y solo se le impide conquistar el mundo mediante medidas heroicas drásticas (como un ataque EMP cuyas consecuencias matan a un millón más).
Después de 5 años de estudiar cuidadosamente los restos, un equipo de los mejores informáticos descifra el estado mental de AGI y descubre que pensaba que tenía un 90% de posibilidades de conquistar el mundo actuando como lo hizo. Otros 5 años de investigación llevan a la conclusión de que tenía razón . La civilización solo sobrevivió gracias a una confluencia de buena suerte.
Llegar a un consenso global de que se debe prevenir la AGI por el bien de la humanidad, en la línea de un pacto de armas nucleares/biológicas.
Prohibir la posesión de computadoras por encima de cierta velocidad de procesamiento X, elegida para que sea un poco menor que la requerida para un AGI efectivo. (Tal vez alrededor de 10 veces las velocidades modernas)
Prohibir las tecnologías que permiten que varias computadoras trabajen juntas en un programa arbitrario (el "clúster beowulf"). Para lograr eso, las autoridades probablemente necesiten la capacidad de leer el tráfico de red de cualquier persona Y el almacenamiento en el sitio (hasta el punto de derribar la puerta y exigir contraseñas a punta de pistola). Los proveedores de computadoras usarían DRM para evitar la ejecución de código no autorizado, y eludir eso sería casi una ofensa capital. Se puede permitir un número limitado de proyectos de clúster de supercomputación, pero solo bajo una cuidadosa supervisión multinacional.
Tenga en cuenta que en Neuromancer de Gibson , de hecho, había una "Policía de Turing" asignada para evitar la creación de una poderosa Inteligencia Artificial. Su método era inadecuado, ya que dependía de aprender reactivamente sobre una IA exitosa y cazarla. Naturalmente, es posible que un AGI solo necesite estar en línea durante unos segundos para propagarse más allá de su alcance. Es por eso que una prevención efectiva también necesitaría prohibir el hardware que puede ejecutar AGI.
Prohibir la invención de AGI básicamente requiere prohibir el cifrado efectivo, que en sí mismo es un tema fructífero para la construcción mundial de futuros autoritarios.
Instale satélites comerciales sobre cada planeta. En el momento Z, active la funcionalidad de onda EMP secreta de sus satélites. Esto hará retroceder a todas las civilizaciones cientos de años y, si puede mantener los satélites funcionando solos (energizados por energía solar y protegidos), probablemente podría evitarlo por más tiempo.
Es difícil hacer inteligencia artificial sin electricidad.
En esta situación, las AGI no podrían estar completamente reguladas. Puede implementar leyes y otras medidas para restringirlos, pero no erradicarlos por completo. Piense en los virus de hoy; son ilegales pero todavía existen.
Una forma de restringirlos podría ser restringir los sistemas operativos. Es posible que los únicos sistemas operativos comerciales no puedan ejecutar programas que actúen como IA.
Otro método podría ser virus autorizados por el gobierno. Todas las computadoras dentro de la región podrían infectarse de forma inalámbrica con el virus, lo que podría hacer una serie de cosas que van desde simplemente eliminar programas de IA hasta bloquear o bloquear computadoras que intentan escribir o ejecutar IA. Tomemos como ejemplo los filtros web de China: se filtra todo el tráfico de Internet, pero hay que dar un paso más allá para infectar las computadoras en lugar de solo filtrar su tráfico.
Samuel
ckersch
Cort Amón
dan smolinske
IchabodE
lucas
DSKekaha