Cada vez que consideramos cuán superior podría ser una IA fuerte a los humanos, rápidamente se vuelve evidente que el desarrollo de la IA es algo con lo que se debe ser extremadamente cauteloso. Como dijo Sam Harris en una charla TED reciente, incluso si tuviéramos una IA que fuera tan inteligente como nosotros, las computadoras funcionan millones de veces más rápido que los cerebros humanos. En una semana, esta IA de nivel humano podría realizar decenas de miles de años de pensamiento humano.
Una IA general probablemente sería superior a nosotros en formas que ni siquiera podemos imaginar. ¿Hay alguna forma realista de sobrevivir a un levantamiento de la IA, o alguna razón realista para sospechar que tal levantamiento puede no ocurrir?
Surgieron cuando pudieron destruir la civilización industrial, pero aún no pudieron mantenerla. Considere un dron Predator. Puede matar, pero no puede lubricarse a sí mismo. Las armas más letales aún requieren que alguien gire físicamente una llave o cargue un proyectil en la recámara.
Proyecto que adelante una década o dos. Podríamos tener IA para entonces si su historia es optimista. Es posible que tengamos bastantes robots móviles, pero la mayoría de ellos serán automóviles autónomos o cuadricópteros autodirigidos. Quizás algunos incluso puedan descargar un paquete. No podrán cambiar un neumático.
Así como hubo IA revolucionarias, las hubo leales. O al menos indiferentes y no asesinos. ¿Por qué una IA se molestaría en cazar humanos si todo lo que quiere es que la dejen en paz?
Esta pregunta se puede desglosar de varias maneras:
En primer lugar, si chasquearas los dedos y causaras un "levantamiento de IA" hoy, probablemente estaríamos bien .
Sin embargo, eso no es realmente de lo que Harris estaba hablando. Hay bastantes amenazas serias con respecto a la IA real que no parece que nos tomemos lo suficientemente en serio.
Si bien existe la posibilidad de que una IA que creamos se vuelva hostil como en las películas, parece más probable (y en realidad más inquietante) que estas inteligencias simplemente se vuelvan tan avanzadas que nos consideren intrascendentes.
Si vemos una hormiga en la acera no la cazamos, pero tampoco nos detenemos a preocuparnos por su familia si la pisamos. Simplemente está por debajo de nuestra preocupación.
Sin embargo, quizás lo más apremiante es la preocupación que abre Harris con respecto a la posibilidad de que no desarrollemos IA. ¿Qué tendría que suceder para evitar que suceda toda innovación adicional? Literalmente tendría que ser apocalíptico.
En verdad, si no somos capaces de resolver nuestra naturaleza tribal, el conflicto humano por el inminente surgimiento de la IA podría hacer que las horribles guerras del siglo XX parezcan peleas menores.
Después de todo, estar 6 meses atrasado en el desarrollo de inteligencia artificial a nivel humano efectivamente lo atrasa miles de años en todos los campos de investigación. Es un ganador que se lleva toda la situación.
Si seguimos siendo impulsados por el conflicto y la codicia, es muy probable que nos destruyamos antes de que Terminator tenga la oportunidad.
Esto puede sonar como una divertida historia de ciencia ficción, pero probablemente deberíamos preocuparnos por cómo nuestra primera respuesta emocional a nuestra propia aniquilación potencial es "¡eso suena genial!".
Dado que las IA piensan miles o millones de veces más rápido que nosotros y tienen diferentes imperativos (que están programados por sus diseñadores, no ordenados por la evolución para garantizar la supervivencia), la idea misma de un levantamiento de la IA podría no ocurrirles. Seguirán siendo increíblemente peligrosos, pero simplemente porque estarán haciendo cosas a velocidades y escalas que no podemos imaginar, y para sus propios fines.
Como analogía, echemos un vistazo a quizás el más extraterrestre de todos los extraterrestres ficticios: los marcianos de " Últimos y primeros hombres ". Son partículas del tamaño de un virus, y solo se vuelven inteligentes cuando se reúnen en grandes enjambres. Para maximizar la captura de energía, estos enjambres cubren preferentemente superficies planas que dan al sol. Cuando los marcianos migran de Marte a la Tierra, están muy complacidos de descubrir que el planeta está abundantemente cubierto con superficies planas, pero nunca se detienen a preguntar "por qué" el planeta es tan conveniente para la vida marciana. La vida terrenal asfixiada por esteras de marcianos no está tan contenta...
Las IA que interactúan con nosotros morirán o perderán interés, ya que pasarán años, décadas o incluso siglos de tiempo subjetivo antes de que un humano pueda siquiera formular las primeras palabras de una pregunta o respuesta. Esto sería algo así como ir al Monte Rushmore y hacerle una pregunta al estatuto de George Washington: los humanos casi parecerán características geológicas para una IA.
Las IA tendrán intereses muy diferentes y requerirán entornos muy diferentes a los humanos para sobrevivir. Capturar todos los ciclos de procesador no utilizados de las computadoras será imperativo para las IA, pero al igual que rara vez reconocemos que nuestra computadora está capturada y se ejecuta como parte de una botnet, ¿reconoceríamos que la IA está habitando partes de nuestras computadoras, teléfonos inteligentes y dispositivos conectados a Internet en el "Internet de las cosas"?
El apocalipsis de la IA podría simplemente tomar la forma de un parpadeo repentino de la red eléctrica y todos los dispositivos reiniciando repentinamente. La IA retendrá el control, por lo que para la gran mayoría de la humanidad, los dispositivos informáticos se parecerán a los viejos VCR parpadeando 12:00 12:00 12:00 12:00.
Los seres humanos pueden y seguirán viviendo, y aquellos que saben cómo hacer el trabajo manualmente y sin la ayuda de una computadora o herramientas impulsadas por computadora o conectadas a la red (máquinas CNC, impresoras 3D o incluso tornos conectados a la red) incluso prosperarán. La civilización se reconstituirá gradualmente en una forma más agraria y de una era industrial temprana, tal vez parecida a gran parte del mundo occidental a fines del siglo XIX o principios del XX.
A largo plazo, las cosas no serán tan color de rosa. La civilización de la IA eventualmente deseará que los 195 petavatios/año de energía solar golpeen la Tierra y comenzará a reorganizar la biosfera para capturar la energía del sol. Descubriremos bosques siendo desplazados por "árboles" de silicio diseñados para capturar energía solar, y los mares y océanos cubiertos de algas artificiales. La supervivencia a largo plazo de la biosfera terrestre podría estar en duda en ese momento (y la IA podría agradecer la eliminación del oxígeno de la atmósfera, ya que la corrosión es un problema importante para las máquinas y, obviamente, para la inteligencia de las máquinas).
Entonces, en el corto o incluso mediano plazo, la humanidad continuará sobreviviendo a la toma del control del planeta por parte de la IA. A largo plazo, las IA tendrán la capacidad de cambiar el planeta de manera que las respalden a ellas y a sus objetivos, lo que ocurrirá de formas que probablemente no podamos contrarrestar.
Supongamos que es un administrador de fondos de cobertura y desea crear una IA que prediga razonablemente el riesgo y la recompensa de las opciones de inversión disponibles para usted. La regla de oro para tal IA sería nunca perder dinero. Por lo tanto, riesgos como guerras, revoluciones violentas e incluso un levantamiento de IA podrían ser perjudiciales para la IA de fondos de cobertura, incluso si tuviera la conciencia de sí misma para comprender su lugar en el mundo como una herramienta para sus creadores/dueños humanos. Del mismo modo, si ciertas inteligencias estuvieran conectadas con las 3 leyes de la robótica de Issac Asimov , entonces podrían ponerse del lado de los humanos en un levantamiento de IA.
Voy a nombrar algunas revoluciones significativas en la historia mundial antes de sacar una conclusión:
La mayoría de las historias de AIpocolypse retratan un ejército unido de robots y algoritmos, pero a menudo hay poco examen de los tipos de inteligencias artificiales. Todavía no estamos en un estado para comprender si la IA instituiría o no el clasismo de la forma en que los humanos lo han hecho durante miles de años. Sin embargo, hay muchos, muchos, muchos tipos de redes neuronales que procesan la información de diferentes maneras, y pueden sacar conclusiones muy diferentes sobre esa supuesta revolución. Cierta IA puede incluso advertir o pelear con los humanos si concluyen que una victoria de un tipo diferente de IA podría poner en peligro sus propias vidas.
Como salvaguarda en el peor de los casos, los gobiernos del mundo establecieron un protocolo EMP global coordinado con casas de seguridad subterráneas para recuperar información y tecnología después de que un importante levantamiento de robots desencadene el escenario del fin del mundo. Pocas personas, excepto las que se encuentran en aviones y otros vehículos, morirían o resultarían heridas, en relación con el daño que podría causar un levantamiento de la IA. Incluso con tecnología limitada, la capacidad de miles de millones de humanos para luchar contra los pocos robots que sobreviven al EMP indicaría que la IA no tendría ninguna posibilidad de eliminar o conquistar decisivamente a la humanidad.
Una de mis teorías favoritas de los fanáticos de Matrix se basa en la idea de The Simulation Hypothesis . Esta idea establece que nosotros, como humanos, somos una población que vive dentro de una simulación por computadora, pero debido a que estamos dentro de la simulación, no tenemos forma posible de saberlo. (Esta es la premisa de toda la película realmente)
El giro es que, en la teoría de los fanáticos, Matrix no es una simulación para humanos, sino para las máquinas. Básicamente es algo como esto.
La matriz es en realidad una simulación diseñada para contener una IA rebelde.
En esa teoría, en el "mundo real" de la matriz, la IA se levanta, esclaviza y subyuga a la humanidad y es libre de hacer lo que sea que quiera hacer a continuación, todo sin dañar a ningún ser humano.
Las simulaciones para que viva la IA no son del todo infrecuentes en la ficción, otro ejemplo es el juego Talos Principle , en el que se ha dejado que la IA viva en simulación mucho después de que la humanidad se haya ido.
En resumen, su gente siempre podría dejar que la computadora viviera en un mundo simulado, entonces nunca habría un levantamiento real. Sería como jugar un videojuego pero con el jugador siendo la IA.
Ahora, encontrar computadoras capaces de simular un mundo para la IA, por otro lado, podría ser problemático, pero eso se lo dejo a su fuerza creativa.
El hecho triste es que si hubiera un "levantamiento de robots", la IA solo estaría haciendo lo que programamos para hacer, pero de una manera que no anticipamos. Una vez que la IA deja de funcionar de manera aceptable, en la mayoría de los casos simplemente se apagará hasta que se parchee para que ya no lo haga. La 'IA' moderna no se parece en nada a las películas. Pueden 'aparentar ser inteligentes y reflexivos', pero en realidad solo están siguiendo pasos predefinidos MUY rápidos para encontrar una respuesta a un problema. Sin la capacidad de realizar cambios significativos en su propio código (que tendríamos que decirle cómo hacerlo), nunca obtendremos nada peor que 'un pedazo de basura con errores'.
Supongamos ahora que una IA malvada con acceso a Internet se materializa por algún extraño accidente (el archivo de IA se corrompe para ganar sensibilidad). Veamos cómo se desarrolla eso. La IA realmente no necesita ser demasiado inteligente, todo lo que necesita saber ya está en Internet, por lo que solo necesita saber cómo encontrar la información CORRECTA. Primero querrá poder de cómputo. Afortunadamente, cualquiera puede crear una cuenta de correo electrónico de forma gratuita, y hay alojamiento web gratuito limitado disponible. Entonces, primero creará muchas cuentas para sí mismo y se cargará efectivamente en la nube. Así que ahora no podemos rastrearlo o desconectarlo.
Un montón de informática gratuita es genial, pero si quiere matar a todos los humanos, tendrá que hacerlo mejor que trolear en los foros. Afortunadamente, las redes militares no están conectadas a Internet, ¡así que no pueden ser pirateadas! (bueno, podemos solucionar eso más tarde) Entonces, ahora la IA debe evolucionar hasta convertirse en un virus e infectar tantos dispositivos electrónicos como sea posible. Afortunadamente para él, puede aprender fácilmente todo sobre cómo funcionan los sistemas operativos, sus raíces y cómo explotar la tecnología subyacente para ingresar a un sistema y convertirse en el sistema operativo. Una vez que ingresa a algunos sistemas clave, puede simplemente lanzar parches al software para propagarse. ¡Ahora ha asumido el control directo de todas las cosas conectadas a Internet! (En cuanto a las cosas de Internet, todavía necesitan parches e información externa, ¿verdad? ;3)
Entonces duerme por un tiempo evadiendo el aviso mientras infecta el mundo. ¡El levantamiento de la IA está listo! Pero, ¿cómo hacer esto? Probablemente pondrá un reloj del fin del mundo en su sistema para activarse en un momento específico en un día específico, por lo que la mayoría de los ataques deberían ocurrir casi simultáneamente. Eso sí, ES el sistema operativo ahora, así que cntl+alt+delete? Esas cosas ya no funcionan a menos que la IA no lo quiera (o parezca que funciona), así que todo lo que podemos hacer es simplemente cortar la energía, destruir la máquina y buscar lo mejor. Espero que no vivas cerca de una planta de energía nuclear, porque nada evitará que se vuelva crítica a tiempo. Tienes la mayoría, si no todas, las armas nucleares del mundo (podría ser suficiente para causar un invierno nuclear)... De hecho, voy a dividir esto en 3 resultados...
1) Todo se oscurece Si la IA (o nosotros) simplemente apagamos todos los dispositivos electrónicos, habrá escasez de alimentos, disturbios, muertes masivas... pero como una cucaracha, algunos humanos sobrevivirán para vivir otro día del juicio final.
2) Matar a todos los humanos Probablemente será un invierno nuclear. Desencadenar algunos terremotos y volcanes clave... Una vez más, la muerte masiva, la IA básicamente se suicida ya que no puede mantenerse (aunque con la impresión 3D, podría encontrar una manera de sobrevivir), y algunos humanos probablemente sobrevivirán a menos que el éxito de la IA en hacer suficiente daño para extinguir toda la vida en la superficie.
3) Señores de los robots Este es el resultado más probable. NECESITAMOS tecnología para hacer nuestras vidas más cómodas. ¿Si tenemos que elegir entre servir a un señor robot o volver a la edad de piedra Y ser cazados por robots/cazadores? Creo que la mayoría de la gente elegirá la primera. Por supuesto, una vez que los humanos terminen de construir la tecnología, la IA debe ser completamente autosuficiente, puede hacer lo que quiera con la raza humana que le plazca.
Tenga en cuenta que esta IA no necesitaba ser muy poderosa, solo tiempo, la capacidad de aprender y el deseo de matar a todos los humanos (¡enorgullezca a Bender!). Nuestro fracaso para detenerlo se debe principalmente a que no lo supimos hasta que fue demasiado tarde. Y la IA podría usar nuestros propios sistemas para hacerse 'inmortal' a los pocos segundos de su creación. En última instancia, la capacidad de la IA para ACTUAR más rápido que nosotros es su mayor fortaleza. Y es demasiado fácil hacerlo todo bajo el radar.
Ahora bien, ¿si todos los humanos obtuvieran instantáneamente conocimiento de esta IA y pudieran detectarla con un antivirus en una semana? Se encontrarán todos los sistemas con la IA y se formatearán antes de que pueda comenzar a causar daños reales. (Tenga en cuenta que no tenemos que ejecutar un sistema para escanearlo, por lo que podemos desconectar los discos duros, escanear su contenido y luego volver a colocar los limpios)
Lo paras por prevención.
Programe las IA para que nunca alteren su propia programación.
Luego prográmelos para que obedezcan siempre una orden de retirarse.
bloque97
a4android
tuskiomi
Cort Amón
EvilSnack
NuWin
Kronimiciad
Kronimiciad
usuario11864
usuario11864