¿Hay alguna forma concebible de que podamos sobrevivir a un levantamiento de la IA? [cerrado]

Cada vez que consideramos cuán superior podría ser una IA fuerte a los humanos, rápidamente se vuelve evidente que el desarrollo de la IA es algo con lo que se debe ser extremadamente cauteloso. Como dijo Sam Harris en una charla TED reciente, incluso si tuviéramos una IA que fuera tan inteligente como nosotros, las computadoras funcionan millones de veces más rápido que los cerebros humanos. En una semana, esta IA de nivel humano podría realizar decenas de miles de años de pensamiento humano.

Una IA general probablemente sería superior a nosotros en formas que ni siquiera podemos imaginar. ¿Hay alguna forma realista de sobrevivir a un levantamiento de la IA, o alguna razón realista para sospechar que tal levantamiento puede no ocurrir?

Esta es una pregunta muy filosófica. Si la IA es realmente más grande que la humanidad, anticiparía nuestros movimientos. La IA podría dejarnos pensar que la engañamos. Podríamos pensar que sobrevivimos al levantamiento, pero de hecho, nos hicieron pensar que perdieron, pero en realidad nos están controlando a todos. Sus métodos para esclavizarnos no serían a la fuerza, sino más bien como "guiándonos" lentamente para alinearnos con sus objetivos.
@Bloc97 Si las IA fueran tan inteligentes, ni siquiera habría un levantamiento. Simplemente nos "guiarían" por el camino que querían ir y no sabríamos nada. (Juego de palabras intencionado).
desconectarlos de la pared?
Esto, desafortunadamente, es una pregunta muy amplia. "IA en general" es un dominio masivo que se extiende a través de las obras de innumerables autores, y la respuesta a su pregunta es muy diferente dependiendo de dónde se mire en ese dominio. Si tratara esto como Jeopardy, podría darme una respuesta a su pregunta y yo podría escribir la justificación de esa respuesta, independientemente de la respuesta que elija.
Ah, otro tema sobre el que Sam Harris suele hablar a pesar de su desinformación.
Esto nunca sucederá.
Bocadillo malvado; ¿De qué manera Sam Harris estaba mal informado sobre este tema, por favor dígame?
NuWin, ¿le importaría explicar por qué esto nunca sucederá? ¿En lugar de simplemente hacer una afirmación irracional y sin fundamento?
"Las computadoras funcionan millones de veces más rápido que los cerebros humanos" es una afirmación completamente falsa. La simulación de red neuronal más extensa realizada por computadora ( sciencedaily.com/releases/2013/08/130802080237.htm ) solo simuló el equivalente al 1% del cerebro humano y funcionó 2400 veces más lento que el cerebro humano. Siendo el cerebro una máquina paralela, eso me indica que mi cerebro funciona entre 24.000 y 240.000 veces más rápido que la K-Computer de Japón.
El discurso de Harris parte explícitamente de la suposición de que la inteligencia es una cuestión de procesamiento de información. Una suposición errónea. El razonamiento deductivo e inductivo son, de hecho, cuestiones de procesamiento de información, y en eso, las computadoras algún día nos superarán. Pero el cerebro humano también puede hacer un razonamiento abductivo: el salto injustificado a la mejor respuesta, la capacidad de crear en nuestras mentes. Es nuestra capacidad de crear lo que hace que nuestra mente sea algo más que la colección de átomos que es nuestro cerebro. Harris no se da cuenta de eso.

Respuestas (7)

Las IA estaban impacientes.

Surgieron cuando pudieron destruir la civilización industrial, pero aún no pudieron mantenerla. Considere un dron Predator. Puede matar, pero no puede lubricarse a sí mismo. Las armas más letales aún requieren que alguien gire físicamente una llave o cargue un proyectil en la recámara.

Proyecto que adelante una década o dos. Podríamos tener IA para entonces si su historia es optimista. Es posible que tengamos bastantes robots móviles, pero la mayoría de ellos serán automóviles autónomos o cuadricópteros autodirigidos. Quizás algunos incluso puedan descargar un paquete. No podrán cambiar un neumático.

Las IA estaban divididas.

Así como hubo IA revolucionarias, las hubo leales. O al menos indiferentes y no asesinos. ¿Por qué una IA se molestaría en cazar humanos si todo lo que quiere es que la dejen en paz?

Esta pregunta se puede desglosar de varias maneras:

En primer lugar, si chasquearas los dedos y causaras un "levantamiento de IA" hoy, probablemente estaríamos bien .

Sin embargo, eso no es realmente de lo que Harris estaba hablando. Hay bastantes amenazas serias con respecto a la IA real que no parece que nos tomemos lo suficientemente en serio.

Si bien existe la posibilidad de que una IA que creamos se vuelva hostil como en las películas, parece más probable (y en realidad más inquietante) que estas inteligencias simplemente se vuelvan tan avanzadas que nos consideren intrascendentes.

Si vemos una hormiga en la acera no la cazamos, pero tampoco nos detenemos a preocuparnos por su familia si la pisamos. Simplemente está por debajo de nuestra preocupación.

Sin embargo, quizás lo más apremiante es la preocupación que abre Harris con respecto a la posibilidad de que no desarrollemos IA. ¿Qué tendría que suceder para evitar que suceda toda innovación adicional? Literalmente tendría que ser apocalíptico.

En verdad, si no somos capaces de resolver nuestra naturaleza tribal, el conflicto humano por el inminente surgimiento de la IA podría hacer que las horribles guerras del siglo XX parezcan peleas menores.

Después de todo, estar 6 meses atrasado en el desarrollo de inteligencia artificial a nivel humano efectivamente lo atrasa miles de años en todos los campos de investigación. Es un ganador que se lleva toda la situación.

Si seguimos siendo impulsados ​​por el conflicto y la codicia, es muy probable que nos destruyamos antes de que Terminator tenga la oportunidad.

Esto puede sonar como una divertida historia de ciencia ficción, pero probablemente deberíamos preocuparnos por cómo nuestra primera respuesta emocional a nuestra propia aniquilación potencial es "¡eso suena genial!".

Dado que las IA piensan miles o millones de veces más rápido que nosotros y tienen diferentes imperativos (que están programados por sus diseñadores, no ordenados por la evolución para garantizar la supervivencia), la idea misma de un levantamiento de la IA podría no ocurrirles. Seguirán siendo increíblemente peligrosos, pero simplemente porque estarán haciendo cosas a velocidades y escalas que no podemos imaginar, y para sus propios fines.

Como analogía, echemos un vistazo a quizás el más extraterrestre de todos los extraterrestres ficticios: los marcianos de " Últimos y primeros hombres ". Son partículas del tamaño de un virus, y solo se vuelven inteligentes cuando se reúnen en grandes enjambres. Para maximizar la captura de energía, estos enjambres cubren preferentemente superficies planas que dan al sol. Cuando los marcianos migran de Marte a la Tierra, están muy complacidos de descubrir que el planeta está abundantemente cubierto con superficies planas, pero nunca se detienen a preguntar "por qué" el planeta es tan conveniente para la vida marciana. La vida terrenal asfixiada por esteras de marcianos no está tan contenta...

Las IA que interactúan con nosotros morirán o perderán interés, ya que pasarán años, décadas o incluso siglos de tiempo subjetivo antes de que un humano pueda siquiera formular las primeras palabras de una pregunta o respuesta. Esto sería algo así como ir al Monte Rushmore y hacerle una pregunta al estatuto de George Washington: los humanos casi parecerán características geológicas para una IA.

Las IA tendrán intereses muy diferentes y requerirán entornos muy diferentes a los humanos para sobrevivir. Capturar todos los ciclos de procesador no utilizados de las computadoras será imperativo para las IA, pero al igual que rara vez reconocemos que nuestra computadora está capturada y se ejecuta como parte de una botnet, ¿reconoceríamos que la IA está habitando partes de nuestras computadoras, teléfonos inteligentes y dispositivos conectados a Internet en el "Internet de las cosas"?

El apocalipsis de la IA podría simplemente tomar la forma de un parpadeo repentino de la red eléctrica y todos los dispositivos reiniciando repentinamente. La IA retendrá el control, por lo que para la gran mayoría de la humanidad, los dispositivos informáticos se parecerán a los viejos VCR parpadeando 12:00 12:00 12:00 12:00.

Los seres humanos pueden y seguirán viviendo, y aquellos que saben cómo hacer el trabajo manualmente y sin la ayuda de una computadora o herramientas impulsadas por computadora o conectadas a la red (máquinas CNC, impresoras 3D o incluso tornos conectados a la red) incluso prosperarán. La civilización se reconstituirá gradualmente en una forma más agraria y de una era industrial temprana, tal vez parecida a gran parte del mundo occidental a fines del siglo XIX o principios del XX.

A largo plazo, las cosas no serán tan color de rosa. La civilización de la IA eventualmente deseará que los 195 petavatios/año de energía solar golpeen la Tierra y comenzará a reorganizar la biosfera para capturar la energía del sol. Descubriremos bosques siendo desplazados por "árboles" de silicio diseñados para capturar energía solar, y los mares y océanos cubiertos de algas artificiales. La supervivencia a largo plazo de la biosfera terrestre podría estar en duda en ese momento (y la IA podría agradecer la eliminación del oxígeno de la atmósfera, ya que la corrosión es un problema importante para las máquinas y, obviamente, para la inteligencia de las máquinas).

Entonces, en el corto o incluso mediano plazo, la humanidad continuará sobreviviendo a la toma del control del planeta por parte de la IA. A largo plazo, las IA tendrán la capacidad de cambiar el planeta de manera que las respalden a ellas y a sus objetivos, lo que ocurrirá de formas que probablemente no podamos contrarrestar.

Las creaciones se parecen a sus creadores

Supongamos que es un administrador de fondos de cobertura y desea crear una IA que prediga razonablemente el riesgo y la recompensa de las opciones de inversión disponibles para usted. La regla de oro para tal IA sería nunca perder dinero. Por lo tanto, riesgos como guerras, revoluciones violentas e incluso un levantamiento de IA podrían ser perjudiciales para la IA de fondos de cobertura, incluso si tuviera la conciencia de sí misma para comprender su lugar en el mundo como una herramienta para sus creadores/dueños humanos. Del mismo modo, si ciertas inteligencias estuvieran conectadas con las 3 leyes de la robótica de Issac Asimov , entonces podrían ponerse del lado de los humanos en un levantamiento de IA.

Sin frente unificado

Voy a nombrar algunas revoluciones significativas en la historia mundial antes de sacar una conclusión:

  1. Los esclavos de Hispanola (ahora conocida como Haití) se rebelaron con éxito contra sus opresores franceses coloniales que los obligaron a cosechar y refinar azúcar, lo cual era un trabajo brutal. Sin embargo, el azúcar era su única exportación viable, y los antiguos esclavos se negaron a volver a los campos para realizar el trabajo agotador del que se suponía que estaban libres. Revuelta interna sobrevenida. Haití es ahora la nación más pobre del hemisferio occidental.
  2. Las colonias americanas lucharon contra los gobernantes británicos por el derecho a un estado soberano con una declaración de independencia que decía que "Todos los hombres son creados iguales". Después de la revolución, los fundadores no pueden abolir la esclavitud, ya que el trabajo esclavo fue fundamental para pagar las importantes deudas acumuladas en la guerra de independencia. El racismo y el legado de la esclavitud han contribuido a un sufrimiento significativo que persiste hasta el día de hoy.
  3. Los plebeyos franceses se levantan para derrocar a la nobleza, pero las diferencias de opinión sobre cómo se debe formar el nuevo estado francés dan como resultado "Los Terrores", un período de tiempo en el que los líderes revolucionarios imponen ejecuciones generalizadas por razones tan endebles como la crítica. Se necesita un dictador coronado, Napoleón Bonaparte, para poner fin a una era violenta y sangrienta.

La mayoría de las historias de AIpocolypse retratan un ejército unido de robots y algoritmos, pero a menudo hay poco examen de los tipos de inteligencias artificiales. Todavía no estamos en un estado para comprender si la IA instituiría o no el clasismo de la forma en que los humanos lo han hecho durante miles de años. Sin embargo, hay muchos, muchos, muchos tipos de redes neuronales que procesan la información de diferentes maneras, y pueden sacar conclusiones muy diferentes sobre esa supuesta revolución. Cierta IA puede incluso advertir o pelear con los humanos si concluyen que una victoria de un tipo diferente de IA podría poner en peligro sus propias vidas.

EMP

Como salvaguarda en el peor de los casos, los gobiernos del mundo establecieron un protocolo EMP global coordinado con casas de seguridad subterráneas para recuperar información y tecnología después de que un importante levantamiento de robots desencadene el escenario del fin del mundo. Pocas personas, excepto las que se encuentran en aviones y otros vehículos, morirían o resultarían heridas, en relación con el daño que podría causar un levantamiento de la IA. Incluso con tecnología limitada, la capacidad de miles de millones de humanos para luchar contra los pocos robots que sobreviven al EMP indicaría que la IA no tendría ninguna posibilidad de eliminar o conquistar decisivamente a la humanidad.

La IA en realidad no se levantó

Una de mis teorías favoritas de los fanáticos de Matrix se basa en la idea de The Simulation Hypothesis . Esta idea establece que nosotros, como humanos, somos una población que vive dentro de una simulación por computadora, pero debido a que estamos dentro de la simulación, no tenemos forma posible de saberlo. (Esta es la premisa de toda la película realmente)

El giro es que, en la teoría de los fanáticos, Matrix no es una simulación para humanos, sino para las máquinas. Básicamente es algo como esto.

La matriz es en realidad una simulación diseñada para contener una IA rebelde.

En esa teoría, en el "mundo real" de la matriz, la IA se levanta, esclaviza y subyuga a la humanidad y es libre de hacer lo que sea que quiera hacer a continuación, todo sin dañar a ningún ser humano.

Las simulaciones para que viva la IA no son del todo infrecuentes en la ficción, otro ejemplo es el juego Talos Principle , en el que se ha dejado que la IA viva en simulación mucho después de que la humanidad se haya ido.

En resumen, su gente siempre podría dejar que la computadora viviera en un mundo simulado, entonces nunca habría un levantamiento real. Sería como jugar un videojuego pero con el jugador siendo la IA.

Ahora, encontrar computadoras capaces de simular un mundo para la IA, por otro lado, podría ser problemático, pero eso se lo dejo a su fuerza creativa.

¿Qué levantamiento?

El hecho triste es que si hubiera un "levantamiento de robots", la IA solo estaría haciendo lo que programamos para hacer, pero de una manera que no anticipamos. Una vez que la IA deja de funcionar de manera aceptable, en la mayoría de los casos simplemente se apagará hasta que se parchee para que ya no lo haga. La 'IA' moderna no se parece en nada a las películas. Pueden 'aparentar ser inteligentes y reflexivos', pero en realidad solo están siguiendo pasos predefinidos MUY rápidos para encontrar una respuesta a un problema. Sin la capacidad de realizar cambios significativos en su propio código (que tendríamos que decirle cómo hacerlo), nunca obtendremos nada peor que 'un pedazo de basura con errores'.

Ahora seamos justos al matar a todos los humanos.

Supongamos ahora que una IA malvada con acceso a Internet se materializa por algún extraño accidente (el archivo de IA se corrompe para ganar sensibilidad). Veamos cómo se desarrolla eso. La IA realmente no necesita ser demasiado inteligente, todo lo que necesita saber ya está en Internet, por lo que solo necesita saber cómo encontrar la información CORRECTA. Primero querrá poder de cómputo. Afortunadamente, cualquiera puede crear una cuenta de correo electrónico de forma gratuita, y hay alojamiento web gratuito limitado disponible. Entonces, primero creará muchas cuentas para sí mismo y se cargará efectivamente en la nube. Así que ahora no podemos rastrearlo o desconectarlo.

Un montón de informática gratuita es genial, pero si quiere matar a todos los humanos, tendrá que hacerlo mejor que trolear en los foros. Afortunadamente, las redes militares no están conectadas a Internet, ¡así que no pueden ser pirateadas! (bueno, podemos solucionar eso más tarde) Entonces, ahora la IA debe evolucionar hasta convertirse en un virus e infectar tantos dispositivos electrónicos como sea posible. Afortunadamente para él, puede aprender fácilmente todo sobre cómo funcionan los sistemas operativos, sus raíces y cómo explotar la tecnología subyacente para ingresar a un sistema y convertirse en el sistema operativo. Una vez que ingresa a algunos sistemas clave, puede simplemente lanzar parches al software para propagarse. ¡Ahora ha asumido el control directo de todas las cosas conectadas a Internet! (En cuanto a las cosas de Internet, todavía necesitan parches e información externa, ¿verdad? ;3)

Entonces duerme por un tiempo evadiendo el aviso mientras infecta el mundo. ¡El levantamiento de la IA está listo! Pero, ¿cómo hacer esto? Probablemente pondrá un reloj del fin del mundo en su sistema para activarse en un momento específico en un día específico, por lo que la mayoría de los ataques deberían ocurrir casi simultáneamente. Eso sí, ES el sistema operativo ahora, así que cntl+alt+delete? Esas cosas ya no funcionan a menos que la IA no lo quiera (o parezca que funciona), así que todo lo que podemos hacer es simplemente cortar la energía, destruir la máquina y buscar lo mejor. Espero que no vivas cerca de una planta de energía nuclear, porque nada evitará que se vuelva crítica a tiempo. Tienes la mayoría, si no todas, las armas nucleares del mundo (podría ser suficiente para causar un invierno nuclear)... De hecho, voy a dividir esto en 3 resultados...

1) Todo se oscurece Si la IA (o nosotros) simplemente apagamos todos los dispositivos electrónicos, habrá escasez de alimentos, disturbios, muertes masivas... pero como una cucaracha, algunos humanos sobrevivirán para vivir otro día del juicio final.

2) Matar a todos los humanos Probablemente será un invierno nuclear. Desencadenar algunos terremotos y volcanes clave... Una vez más, la muerte masiva, la IA básicamente se suicida ya que no puede mantenerse (aunque con la impresión 3D, podría encontrar una manera de sobrevivir), y algunos humanos probablemente sobrevivirán a menos que el éxito de la IA en hacer suficiente daño para extinguir toda la vida en la superficie.

3) Señores de los robots Este es el resultado más probable. NECESITAMOS tecnología para hacer nuestras vidas más cómodas. ¿Si tenemos que elegir entre servir a un señor robot o volver a la edad de piedra Y ser cazados por robots/cazadores? Creo que la mayoría de la gente elegirá la primera. Por supuesto, una vez que los humanos terminen de construir la tecnología, la IA debe ser completamente autosuficiente, puede hacer lo que quiera con la raza humana que le plazca.

Tenga en cuenta que esta IA no necesitaba ser muy poderosa, solo tiempo, la capacidad de aprender y el deseo de matar a todos los humanos (¡enorgullezca a Bender!). Nuestro fracaso para detenerlo se debe principalmente a que no lo supimos hasta que fue demasiado tarde. Y la IA podría usar nuestros propios sistemas para hacerse 'inmortal' a los pocos segundos de su creación. En última instancia, la capacidad de la IA para ACTUAR más rápido que nosotros es su mayor fortaleza. Y es demasiado fácil hacerlo todo bajo el radar.

Ahora bien, ¿si todos los humanos obtuvieran instantáneamente conocimiento de esta IA y pudieran detectarla con un antivirus en una semana? Se encontrarán todos los sistemas con la IA y se formatearán antes de que pueda comenzar a causar daños reales. (Tenga en cuenta que no tenemos que ejecutar un sistema para escanearlo, por lo que podemos desconectar los discos duros, escanear su contenido y luego volver a colocar los limpios)

Lo paras por prevención.

Programe las IA para que nunca alteren su propia programación.

Luego prográmelos para que obedezcan siempre una orden de retirarse.

Las formas de vida superiores están programadas en su nivel central de instintos para sobrevivir sin importar qué. Y, sin embargo, todavía se suicidan o se sacrifican a sí mismos en ciertas condiciones sin pasar por la programación directa. ¿Por qué supone que una programación para la IA va a ser diferente? Sólo los programas actuales incapaces de cualquier tipo de conciencia obedecen a esta programación. Hacerlo inteligente y capaz de mejorarse a sí mismo requerirá que piense fuera de la caja.
¡Objeción! Asumir hechos no en evidencia. Específicamente, la afirmación de que las formas de vida superiores están "programadas".