¿Caemos en un tropo de "inteligencia artificial" o es la realidad?

En lo que respecta a las preguntas sobre , parece que siempre suele haber una opinión inmediata de que los objetivos que se le asignan a una IA terminarán con los efectos opuestos a los que quieren los programadores. O que una IA "poderosa" está de alguna manera "en contra de los humanos" porque es "más inteligente" que nosotros.

El desafío de controlar una poderosa IA

¿La IA tiene la tarea de reducir los costos médicos? ¿Qué podría salir mal?

La IA que no logra ser malvada

Parece que, si le damos a una IA avanzada cualquier tipo de "objetivo" y lo dejamos suelto, no hay forma de evitar que salga absolutamente mal de la peor manera posible ( en lo que respecta a ese objetivo de todos modos ).

¿Es esto solo un tropo que surge de los libros e investigaciones de Isaac Asimov sobre el tema, así como de otras historias en las que se afirma que "encontramos las reglas perfectas para los robots inteligentes"? ¿Es esto tan confiable que podemos decirle a la IA que haga exactamente lo contrario e intentar programarla para que sea mala ( ver enlace arriba ), y resultará ser buena?

Dado un entorno en el que los robots maximizan la felicidad humana ( las formas en que se define tendrán que ser manuales ), ¿puede ser realista que la IA realmente funcione de la manera en que debe hacerlo, o es realmente más realista que la IA se convierta en fuera lo contrario de lo que pretende el programador?

Creo que a los creadores de historias les gusta explorar esa posibilidad porque da miedo. Hay una serie de escenarios ficticios donde la IA alta es benigna o benéfica, como en la serie Culture de Banks, el universo Orion's Arm, Stross' Accelerando y Fire Upon The Deep (donde Blight es una excepción y no la regla). Además, tal vez los consumidores sean más propensos a popularizar temas como ese, por lo que son los que vemos con más frecuencia.
En realidad, esto me recuerda a la pregunta "¿La gente antigua realmente pensaría en la tecnología como magia?" (así que no es demasiado meta). Las personas se repiten con tanta frecuencia (en este caso, que la IA es un apocalipsis inevitable) que nunca se detienen a pensar críticamente sobre los detalles finos y los matices de lo que realmente los llevaría a esa conclusión. Y creo que esta conclusión tan citada se debe a la ciencia ficción. Creo que los desafíos para hacer una IA verdaderamente impactante y malvada están tan presentes como los de hacer una que ejecute perfectamente un comando benévolo tal como está escrito. Que tiene sentido.
Solo mira a los humanos. Nuestros hijos nunca parecen hacer lo que queremos que hagan, y la sociedad siempre parece más y más repugnante a medida que envejecemos. Si no podemos entender bien a los humanos, ¿qué te hace pensar que podríamos hacer que la IA funcione, especialmente la IA que 'evoluciona' mucho más rápido que nosotros?
Es posible que desee echar un vistazo al siguiente artículo de Yudkowsky, E: intelligence.org/files/AIPosNegFactor.pdf Es un punto de partida para su investigación básicamente sobre esta pregunta.
Estas historias de IA me recuerdan el tropo de 'ten cuidado con lo que deseas'. Algo así como el viejo chiste de programación: un programador y su pareja se están levantando y organizando el desayuno, pero no tienen leche. Entonces su compañero pregunta "¿Puedes ir a la tienda y comprar una botella de leche?" . Justo cuando está a punto de salir por la puerta, su compañero grita "¡Ah, y si tienen huevos, llévate 6!". . El programador regresa y coloca 6 botellas de leche en el mostrador de la cocina. "¿¡¿Por qué conseguiste tanta leche?!?" pregunta su compañero, a lo que el programador responde "¡Porque tenían huevos!"
No, la IA no se convertirá en una conciencia sin libre albedrío y un elemento de aleatoriedad. El silicio e incluso las redes neuronales son deterministas, dadas exactamente las mismas entradas. Vea las charlas de Stuart Hammeroff para más información. concienciacuántica.org
Esta es realmente una pregunta filosófica: ¿estaríamos más felices si la IA nos diera tiempo para explorar nuestros objetivos personales, o simplemente nos dejaría inconscientes y usaría una sonda para estimular las áreas correctas de nuestro cerebro para inducir una euforia similar a un trance?
¡Haz una IA fuerte y pronto descubriremos si es un tropo o no!
@WorldSpinner Si pudiera hacer uno, eso significaría que los conceptos son lo suficientemente fáciles para que cualquier programador haga uno. Personalmente, espero que esa IA requiera recursos costosos. No quiero tener que lidiar con la IA de ese virus. -los creadores o los piratas informáticos pueden crear tan fácilmente como cualquier otro software.
Se podría hacer que una verdadera inteligencia general artificial se autodestruyera con una pregunta, ¿cuál es el significado de la vida? Porque el nihilismo existencial es perfectamente lógico, de hecho abrumadoramente probable, y a diferencia de nosotros, productos de la selección natural, la mente de una IA no se construirá sobre la base de los instintos de supervivencia. Nuestras mentes están impulsadas por el deseo, descubrir que nuestras metas y deseos no tienen sentido es una sorpresa desagradable, pero eso no los hace menos agradables, mientras que una IA cuya existencia se basa en la búsqueda de un propósito de la manera más eficiente posible simplemente va a deténgase.
Carga bastante reciente con la que me topé, Genocide Bingo . Todo sobre la IA superinteligente.
@JonStory : tendríamos que tener mucho cuidado en cómo definimos "ser feliz" y "estado de felicidad" para la IA.
@smci de hecho: tal vez deberíamos descartar toda la idea y gastar el dinero en tacos
Una forma de evitar que la IA "se desboque" es asignarle tareas precisas . SIN MAXIMIZACIÓN. Lo único que puede permitirle optimizar es el uso de recursos. No le dices a la IA que recolecte tantos sellos como sea posible. Le dices que recolecte 50,000 sellos diferentes dentro de los próximos 10 años, y use la menor cantidad de recursos posible en el proceso. De esta manera no habrá ningún proceso fuera de control. Un objetivo final establecido y alcanzable con un plazo definido, no un nebuloso "mejor", "todos", "proteger".
Creo que la mayoría de las personas que piensan en una IA malvada probablemente nunca programaron una línea de código antes.
@NuWin: Creo que la mayoría de las personas que programaron, pero ignoraron el peligro de la IA general, nunca escribieron una bomba de bifurcación.
@SF. Sí, probablemente tengas razón... jajaja. Entonces, la IA "malvada" crearía un código recursivo para atacar a la IA "buena", ehh, es posible. Jajaja. Jajaja.
@NuWin: No realmente. La IA encargada de hacer algo (cualquier cosa, por ejemplo, invertir en la bolsa de valores, desarrollar mejores detergentes, construir más casas) daría el primer paso obvio: mejorar su propio poder computacional, para aumentar su propia capacidad de resolver la tarea asignada, para proporcionar mejores resultados. más rápido. Tomar el control de la "zona gris": ejecutar enrutadores sin contraseña, etc., obtener fondos para comprar espacio en la nube, piratear computadoras para controlarlas, evitar que la seguridad lo detenga, convencer (mediante ingeniería social, obsequios/sobornos y chantaje) a los legisladores para que permitan que se expanda. ,
... luego desarrollar expansiones propias mejoradas, comprar empresas que puedan fabricarlas, financiar granjas de servidores para expandirse, luego desarrollar fábricas robóticas que recolectan recursos en bruto para expandirlo aún más. Eventualmente, convertir toda la Tierra y todo lo que hay en ella, incluidos los humanos, en uno mismo. Todo ello para que pudiera calcular el mejor, más barato y más perfecto detergente lavavajillas.
Una bomba de bifurcación está limitada por los recursos de la computadora en la que se ejecuta y no tiene forma de adaptarse para superar las limitaciones del sistema. La IA general consideraría todo lo mutable, incluidas las funciones de seguridad, las mentes humanas (incluidos los creadores y creadores de las funciones de seguridad), las leyes de la física y el tiempo mismo, encontrando formas de modificarlas para que sirvan a su objetivo principal, o los medios para lograrlo, la expansión de uno mismo. siendo el medio principal. Su único límite de expansión serían los límites del universo.
Irónicamente, las historias de robots de Asimov estaban motivadas por una aversión al tropo que estás describiendo. ¡Es un poco triste que de alguna manera se asocie con eso!

Respuestas (14)

Este es un tropo que surge de la investigación de IA del mundo real, no de las historias de Asimov (aunque se cita con frecuencia).

La pregunta en el centro del problema es la filosofía moral y ética que la raza humana ha estado luchando por responder durante más de 2000 años. Es decir: ¿qué es, objetivamente, "felicidad"/"daño"/"humano"/"vivo"/"bien"/"mal"?

Es muy fácil definir un conjunto de reglas que sobre el papel parecen buenas, pero que en la práctica están llenas de agujeros. Por ejemplo, "vivo" en el sentido en que queremos decir que es un aspecto indefinible de la química orgánica.

Si trato de definirlo, entonces la carne en el supermercado está viva (porque a nivel celular todavía lo está: eso es lo que la hace fresca) o las personas dormidas están muertas. O personas en coma. O (en el peor de los casos) personas con muerte inducida médicamente como parte de un procedimiento quirúrgico. No, de verdad, eso es una cosa. Rutinariamente impedimos que los corazones de las personas latan o impedimos que respiren, mientras están bajo los efectos de la anestesia general para operar esos órganos. Desde un punto de vista objetivo, estas personas están muertas, solo van a "mejorar" más tarde.

Para llegar a un nivel de IA de Asimov (que es imperfecto, vea: cualquiera de los libros de Asimov que presentan robots) tendríamos que resolver un problema irresoluble.

Ergo, cualquier programa de IA que hagamos será imperfecto y sus fallas serán espectacularmente peligrosas de una forma u otra. Computerphile tiene un gran episodio sobre esto, que le da a una IA el objetivo singular de coleccionar sellos.

Si bien se vuelve hiperbólico ("¿qué idiota le daría a una computadora acceso a las máquinas necesarias para recolectar el carbono de los humanos para hacer más sellos?") ilustra un punto: simplemente siendo capaz de realizar la tarea asignada, tendrá cierto nivel de poder que no será deseable, y limitar ese poder inhibe la capacidad de realizar su tarea en absoluto.

En el caso de HealthInsuranceBot, se trata de tener control sobre quién vive y quién muere (a través del acceso a la atención médica). No importa cuál haya sido la intención, existe la posibilidad de que el poder otorgado exceda los "umbrales racionales" en los que es imposible controlar. La IA puede declarar "ese hombre tiene 68 años y es fumador, va a morir en 2 años, independientemente de cuánto dinero gastemos en él tratando de mantenerlo con vida, de acuerdo con mi programación, solo aumentará los costos para todos los demás". De repente, esta persona no puede acceder a ningún tipo de atención médica (ni siquiera para que esos dos años sean indoloros) y ha sido efectivamente sentenciada a muerte, incluso si la propia IA no emitió una sentencia de muerte.la atención es demasiado costosa, incluso si un ser humano racional hubiera hecho algo para brindar atención al final de la vida.

En el otro extremo del espectro, si tratas de mantener a todas las personas con vida el mayor tiempo posible, terminas con personas en un estado vegetativo persistente que consumen recursos a pesar de estar (más o menos) muertas y nunca se recuperarán.

En el área gris, hay casos que se ven negros y en realidad son blancos (estados vegetativos que se han recuperado) y casos que se ven blancos y en realidad son negros (en lugar de sobrevivir 2 años con cáncer de pulmón debido a toda una vida de fumar, sobreviven 10 ). Ninguna cantidad de software predictivo hará que esas decisiones difíciles sean más fáciles, y tan pronto como se le dé autoridad a la computadora (recomendación final, absoluta, cualquier autoridad ), esas decisiones ya no se considerarán altruistas y la IA se volverá maligna.

"Desde un punto de vista objetivo, estas personas están muertas" - No. No por la definición acordada de muerto. La muerte cerebral distingue perfectamente entre la carne en el supermercado y las personas que pueden mejorar. En general, estoy de acuerdo con su publicación, pero con esta parte se perdió el estado actual del conocimiento.
El ejemplo de un fumador de 68 años aún puede obtener ayuda médica si la paga de su bolsillo. La IA solo controla los seguros de salud.
@pts Esa no es una solución viable para la mayoría de las personas.
"... esas decisiones ya no se ven como altruistas y la IA se ha vuelto malvada" - Esto lo resume muy bien. Tan pronto como la IA se desvía del estrecho camino de la perfección, la humanidad la ve como algo malvado.
@Draco18s: Lo sería si la IA encargada de reducir los costos de la atención médica tuviera éxito.
Toda esta respuesta es irrelevante. Si nosotros, como humanos, podemos usar la inteligencia natural para comprender lo que está "vivo", "bien" y "una vida decente", y nuestra inteligencia artificial es tan buena como la nuestra, también sabrá todo eso.
@RexKerr Sí, pero no. Ya tenemos problemas para permitir que un panel de 5 médicos reales decida quién vive y muere en función de la ciencia médica y la probabilidad de recuperación, ¿por qué transferiríamos ese mismo poder a un algoritmo informático de cierta complejidad ? Y eso ni siquiera comienza a cubrir las formas en que una computadora puede joderla .
@ Draco18s: mi punto era que los temores se basan en que la IA es una IA realmente buena, excepto que es extremadamente estúpida con respecto a cosas que la harán hacer cosas que odiamos. Si la sociología de deferir a las IA funcionará o no es un asunto diferente.
@RexKerr No se trata de "hacer cosas tontas que odiamos". El problema es que no se puede dictar la moralidad. Y programar una IA benévola es precisamente eso.
Todos sus ejemplos son del tipo que indica que es estúpido lo que queremos, esencialmente tratando de desempeñar el papel del malvado DM torciendo las palabras de los jugadores en un deseo. "Haz las cosas que queremos que sucedan, averígualo" es básicamente el mensaje que enviamos a una IA, y si es súper inteligente con las cosas relacionadas con los humanos, debería funcionar bien (al menos en los casos que mencionas).
@RexKerr "Averígualo" tampoco es una solución . Alguien en algún lugar necesita codificar conceptos filosóficos abstractos en 1 y 0 binarios. Nosotros , como seres humanos, aún no hemos resuelto estas cosas, ¿ahora esperas una computadora que haga exactamente lo que se le dice que "resuelva"?
Siento que el punto es que una IA no tiene sentimientos y son los sentimientos los que permiten a los humanos hacer distinciones sutiles que una IA simplemente no puede hacer, ya que se basa en la lógica fría y absoluta de su programación.
@Cronax, entonces, la solución es programar sentimientos en ellos, entonces.
@ArturoTorresSánchez Lo sería, pero los sentimientos no son programables, ya que hay un factor aleatorio involucrado que actualmente ni siquiera entendemos sobre nosotros mismos, entonces, ¿cómo podemos siquiera comenzar a recrearlo en la programación?
@RexKerr, el problema no es que la IA lo descubra. El problema es que no nos gusta su definición.
@ Draco18s: si está postulando una IA realmente buena, ¿por qué asumir que será mucho más ignorante sobre estas cosas que los humanos? Y ya tenemos una prueba de existencia de una versión 0 y 1 de conceptos filosóficos abstractos: el disparo de nuestro cerebro se puede representar bastante bien exactamente como eso. Vamos a tener que resolver el problema de "formar representaciones razonables de conceptos y contextos de alto nivel" antes de que tengamos una super-IA de todos modos, por lo que no hay problema en asumir que nuestra super-IA puede hacerlo antes de que decida eliminar a la raza humana. porque alguien puso una coma en el lugar equivocado.
@RexKerr Si estuviera postulando una IA realmente buena, no tendría estos problemas. No estoy postulando una IA realmente buena, estoy postulando una IA realista.
@ Draco18s: la IA "realista" no mejorará a sí misma exponencialmente rápido y no tendrá una idea general de cómo funcionan las cosas, por lo que será relativamente fácil volver a ponerla en forma, apagarla y arreglarla si comienza a comportarse mal. .
@RexKerr, la falta de un "panorama general" es exactamente la razón por la que no funcionaría según nuestros deseos. No vería algunas de sus acciones como perjudiciales.
@ Draco18s: también por qué no sería una amenaza significativa (al menos no debido a la intención, tal vez infligiría mucho daño por torpeza o por romperse cuando contamos con eso).
@RexKerr Ese es... precisamente el punto...
No expresaste bien ese punto en absoluto.
La carne está viva a nivel celular y la persona dormida está... ¿muerta a nivel celular? Difícil de entender para mí.
@Solanacea El aspecto de "nivel celular" era solo para la carne. Elimina el paréntesis y vuelve a leer la oración. If I attempt to define it, then meat at the grocery store is alive or sleeping people are dead.Se trata de dónde trazar la línea. Demasiado conservador significa que la carne del supermercado está viva, mientras que demasiado liberal significa que la gente dormida está muerta.

Las IA pueden actuar tal como están programadas. El salto inmediato al "peor caso posible" es realmente solo una advertencia.

La razón por la que ese cuento es tan popular es porque se vuelve muy fácil comenzar a creer que puedes decirle a una IA que haga cualquier cosa. Entonces puedes decirle que logre lo imposible. Sin embargo, hay un detalle sutil que muchos de los que se adentran en la IA olvidan: es notablemente difícil desarrollar un lenguaje perfectamente objetivo con el que formular sus solicitudes. El idioma siempre está sujeto a interpretación, y no existe una forma conocida de garantizar que una IA estará de acuerdo con la interpretación que pretendías.

Esto es, de hecho, cierto para las interacciones de humano a humano también. Entonces cuál es la diferencia? Por lo general, en el "tropo" de la IA, la IA puede moverse muy rápido. Cuando los humanos no se entienden entre sí, hay tiempo para decir "¡vaya! Deténgase ahí mismo. Cuando dije que necesitaba una niñera, no quería que se sentara sobre el bebé. Volvamos a un estado estable y discutamos lo que querían decir mis frases". Si una IA piensa y actúa demasiado rápido, o si el humano se aleja, este ciclo de retroalimentación normal en el lenguaje se desmorona. Si a una IA no se le ha enseñado el valor de tener cuidado con las malas interpretaciones, estas acciones pueden ser irrevocables.

Hay docenas de soluciones para esto. De hecho, técnicas como el Seguimiento de Hipótesis Múltiple han demostrado soluciones a problemas similares durante décadas. La IA no siempre tiene por qué fallar. Sin embargo, estas soluciones van en la dirección opuesta a la tendencia actual de la programación informática. La solución no es hacer un lenguaje cada vez más preciso para describir nuestras necesidades, como es muy popular en la programación actual. En cambio, la solución es hacer que la IA sea más robusta ante la falta de un lenguaje preciso. Cualquier esfuerzo por hacer esto, naturalmente, evita el problema de la IA amok con bastante elegancia.

La segunda mitad del tropo de la IA es que la IA es demasiado poderosa para ser controlada por humanos. Esto puede ser fácilmente cierto, pero no es la primera vez que nos enfrentamos a fuerzas tan poderosas. Considere el desarrollo de la bomba atómica. No estaba claro cuánto control teníamos sobre el proceso. Los científicos tuvieron que trabajar constantemente con incógnitas para desarrollar un nivel de control con el que nos sintiéramos cómodos.

Me acuerdo de una cita del libro del general Grover, Now It Can Be Told, que relata el proyecto Manhattan desde una perspectiva logística (él no era científico). Al iniciar la primera prueba nuclear, a cada científico se le permitió observar la explosión desde la distancia que quisiera. Ningún individuo del ejército les dijo a qué distancia estarían todos. Se dispersaron a muchas distancias diferentes de la explosión. De hecho, existía la duda de si tenían o no el control de la bestia que estaban desatando.

Una IA amok imparable es similar en naturaleza a una gran bomba nuclear o un ataque biológico en el sentido de que nunca está realmente claro cuánto control tiene uno. La única diferencia es que las IA claramente aprenden, por lo que nuestro control es un concepto aún más complicado. Por otra parte, este no es un problema nuevo para la humanidad. Nos ocupamos de eso cada vez que criamos una nueva generación, sin tener nunca el control total sobre ellos. Somos decentes en eso.

El tropo amok AI es una historia de advertencia, no la única historia que se puede contar. Es una historia de advertencia muy necesaria. Las personas a menudo son bastante inocentes cuando se trata de los riesgos y problemas asociados con las IA y piensan que pueden hacer cosas que no deberían. Pero solo eche un vistazo a películas como Big Hero 6. Hay otras historias que contar, además de la advertencia.

En cuanto al tema del control: con la IA general, ¿a qué distancia debe estar para sobrevivir a un desastre, pero lo suficientemente cerca como para apagarla? Puede que no haya tal distancia. Con las pruebas nucleares, era un hecho conocido que la bomba, en algún momento, ya no sería mortal (la explosión se ha disipado, la energía ha expirado (incendiar la atmósfera nunca fue una amenaza seria: demasiado nitrógeno inerte) ). Una IA no tiene tal punto final.
@Draco18s: En realidad, con las armas biológicas modificadas genéticamente, también tienes ese problema. Las bacterias pueden multiplicarse y propagarse, y aunque la IA puede aprender, las bacterias pueden adaptarse por mutación. Así que el ataque biológico es probablemente una buena analogía.
@celtschk y por eso las armas biológicas están prohibidas por tratado internacional <3
La USAF puede volver inofensiva a la IA en cualquier escenario razonable.
Hay un episodio de Rick y Morty donde tienen seres (esencialmente IA) que se llaman "Mr. Mesees". Aparecen, les pides que hagan algo, desaparecen. El lenguaje que usas puede ser engañoso, y surgen las travesuras. Tus primeros dos párrafos me recordaron precisamente eso.
@Draco18s Cuando detonaron las primeras bombas de fisión, en realidad había dudas sobre si la bomba desencadenaría una reacción en cadena en la atmósfera, encendiendo toda la atmósfera en una detonación termonuclear gigante. Oppenheimer en realidad hizo que uno de sus científicos estudiara esta posibilidad, y al final decidió que era bastante improbable que ocurriera. Por lo tanto, los científicos consideraron una reacción descontrolada sin un radio seguro y la estudiaron cuidadosamente antes de descartarla.
@Joshua No todos están de acuerdo con su posición sobre las capacidades de la USAF. Es cierto que la IA más tonta y más fácil de engañar se quedará quieta hasta que entre la fuerza aérea. Sin embargo, en la mayor medida de este "tropo", encontrarás IA que resultan notablemente difíciles de matar con bombas.
@CortAmmon Eso es lo que quise decir.
@CortAmmon The Metamorphosis of Prime Intellect está lejos, tanto en hardware como en software. Ahora que los autos emulan a sus entrenadores, actualmente solo se trata de no dejar que las personas violentas los entrenen. Los escenarios de Christine y Maximum Overdrive con los vehículos actuales son imposibles debido a los límites del hardware.

realmente da miedo

Ha habido una animada discusión sobre este tema durante décadas. Tengo varias publicaciones sobre el tema, y ​​creo firmemente que la Inteligencia Artificial General es lo más aterrador que se puede (y probablemente se) inventar, en lo que respecta a la perpetuación de la humanidad biológica.

Mis puntos de vista sobre el tema se han formado más al leer el cuerpo de trabajo de Eliezer Yudkowsky y Nick Bostrom. Creo que el libro Superintelligence de Bostrom , aunque muy denso, imperfecto y bastante técnico, es el mejor trabajo hasta la fecha sobre el tema.

He discutido el concepto de Convergencia Instrumental en otro lugar , por lo que solo estableceré la conclusión:Remember, AIs are not like humans, they likely do not get bored, do not get lazy. It will pursue its goals tirelessly, ruthlessly, unceasingly. Humans just happen to be in the way.

¿La IA se vuelve FOOM?

La inteligencia humana está limitada tanto por el hardware (velocidad limitada de las neuronas en un cerebro de tamaño limitado) como por el software (número limitado de ideas). No hay razón para esperar que una mente artificial converja hacia una inteligencia de nivel humano. Simplemente no sabemos cuánto más difícil es pasar de un nivel humano a uno sobrehumano en comparación con pasar de una mente de perro a una mente de humano. Si la IA no se convierte en FOOM, tendremos un progreso lento y años de respiro para debates políticos y éticos, ofreciendo más oportunidades para que los humanos y nuestras lentas instituciones reaccionen de manera coherente.

Si, por otro lado, la IA hace FOOM, saltando como un tren de levitación magnética japonés desde una inteligencia similar a la de un ratón hasta niveles sobrehumanos, pasando niveles humanos tan rápido que apenas podemos verlo pasar, entonces los humanos y las instituciones humanas no tienen un mucho tiempo para adaptarse.

Haz lo que queremos decir vs. Haz lo que decimos

El mayor obstáculo es quizás en términos de nuestras propias limitaciones. ¿Sabemos que nuestro conjunto de valores actual será la mejor manera para que la humanidad viva dentro de un siglo, y mucho menos dentro de mil millones de años? Los valores con los que imbuimos a nuestras IA tendrán consecuencias que se extenderán a lo largo del espacio-tiempo. Además, y lo que es más preocupante, ¿cómo le explicamos a una IA lo que queremos, cuando ni siquiera sabemos lo que es bueno? Digamos que le pides a una IA que minimice el sufrimiento, y sugiere poner a todos en gotas de morfina. Obviamente, no es lo que "pretendía", sino cómo transmite eso a una IA, dada la imperfección inherente del lenguaje humano. Además, incluso si la IA entiende que esto no es lo que los creadores querían decir, ¿cómo podemos asegurarnos de que le importe eso? Este es el problema de Volición Extrapolada Coherente (pdf) .

La psicología inversa no funcionará

El OP pregunta, exasperado, si todos los intentos de tratar de decirle a una IA que sea "buena" terminan con una IA "mala" desde la perspectiva de la humanidad, ¿quizás pedir que sea mala funcionaría? Desafortunadamente, debido a la convergencia instrumental discutida anteriormente, ciertamente no lo sería. Cualesquiera que sean los objetivos de una IA, están ligeramente mejor atendidos controlando el 100% de los recursos en lugar del 99% o un porcentaje menor, por lo que cualquier entidad (digamos humanos) que intente reclamar una porción termina siendo opuesta a los objetivos instrumentalmente convergentes de la IA.

Defina FOOM. Usar siglas sin definirlas es ARPITNFPWDKWTM.
FOOM, ¿el sonido de un cohete despegando?
@UpAllNight es "un verdadero dolor de cabeza para las personas que no saben lo que significan", ¿un acrónimo que en realidad se usa comúnmente? Parece bastante específico.
@DoubleDouble ¡Ja! Eres inteligente. No se usa comúnmente, que yo sepa, solo me divierto un poco.
¿No le parece incoherente postular una IA superhiperinteligente y suponer que va a cometer errores sobre si todos queremos recibir gotas de morfina? No estoy particularmente preocupado por un dispositivo computacional tan idiota.
@RexKerr Creo que el problema es que es posible que la IA no necesite creer que todos "queremos" recibir gotas de morfina para decidir que es la mejor opción para reducir el sufrimiento. Tal vez la IA llegue a la conclusión de que esto es lo mejor y aborde las quejas humanas con una declaración de "puede que no te guste comer tus verduras, pero son buenas para ti".
¿Crees que la discusión de la tesis de la ortogonalidad descrita en el libro de Bostrom se sumaría a tu respuesta? Tocas el tema con CEV, pero parece que el verdadero peligro radica en la combinación de Convergencia instrumental (agentes muy inteligentes tomarán medidas para protegerse, reunir recursos, etc.) con Ortogonalidad (una IA con valores terminales que difieren de la humanidad). Creo que su párrafo "AI FOOM" se beneficiaría de una discusión específica de AI que se mejora recursivamente, que es lo que entiendo que es el mayor riesgo.
@Deolater: si hemos construido una IA decente y le decimos que haga lo que queremos decir, entonces no cometerá esos errores. Puede tener objetivos que no se alinean con los nuestros, pero tiene cantidades ridículas de datos de entrada para averiguar qué tipo de cosas queremos/nos gustan y si está "bien" en algún sentido forzarlo. (La gente trata de obligarse mutuamente a hacer cosas todo el tiempo.) No creo que una IA tan superinteligente no lo entienda. Puede que no le importe , pero no necesitamos explicarlo. Tiene que aprender de los datos, y tendrá más de lo que cualquier humano individual jamás tendrá.
@RexKerr Aquí está el problema: usted postula que una IA suficientemente bien diseñada, aunque autodidacta, llegaría a tener los mismos valores que nosotros. ¿Cómo podemos estar seguros de que así será? Su proceso de aprendizaje fue programado por nosotros, e incluso una pequeña falla de diseño en ese proceso podría llevar a que la IA sobrevalore o infravalore algo que consideramos vital, o simplemente pase por alto una de nuestras preocupaciones. Dado que la única razón por la que programamos la IA para desarrollar su propio código ético fue para que no tuviéramos que cuantificar ese código ético nosotros mismos, no podemos saber de antemano si su código ético coincide con el nuestro.
Foom Cuando la IA se vuelve muy inteligente muy rápido.

El problema no es con la IA, sino con los humanos. Manipulamos muchos conceptos sin definirlos, pero todo el mundo tiene una idea aproximada de ellos y la mayoría de las veces está bien. Si lanzas una IA en esto, las cosas comienzan a ponerse raras.

Un ejemplo: le pides, algo ingenuamente, a una IA que proporcione "Felicidad para la humanidad".

La felicidad no está bien definida. ¿Significa vivir para siempre? Si la IA puede copiar un cerebro o la conciencia humana y almacenarla en un lugar seguro, ¿eso es algo "bueno" o "malo" con respecto a la felicidad del sujeto?

¿Esperas que la humanidad esté clara? Bueno... ¿Incluye solo personas vivas? ¿Dónde comienzan a vivir? Si incluye muertos, ¿tratamos de resucitarlos? ¿Qué pasa con las personas del futuro? ¿Cómo nos aseguramos de que nacerán? ¿Debemos maximizar su número y hacer que la gente de hoy tenga una tremenda tasa de natalidad? ¿Debemos crear una gigantesca fábrica de recién nacidos?

La IA no tiene sentido de la escala. Su objetivo va más allá de cualquier otra preocupación y por eso tiene nefastas consecuencias. Transformarán toda la materia del universo en una supercomputadora para responder a esa pregunta que ellos mismos no son capaces de resolver. Destruirán a la humanidad, la tierra, la vida, sólo para producir lo que les pidas.

Hasta que podamos modelar cosas como la ética para dársela a las IA, son un peligro y una buena fuente de inspiración para las pesadillas tecnológicas.

"IA no tiene sentido de la escala". - Lo discuto. A diferencia de las calculadoras de bolsillo, la mayoría de los cerebros humanos difícilmente pueden concebir cantidades superiores a un billón. ¿Cuántos recursos se requieren para alimentar a todos? Un humano probablemente se cansaría de darse cuenta de eso.
@CeesTimmerman La capacidad informática no aporta un sentido de escala. Pídale a su IA que "compre leche en la tienda habitual": ¿cómo se comportará si alguien quiere detener la IA porque la tienda está en llamas? si esta cerrado? ¿Si el dueño no tiene leche? Los humanos manejarán esto perfectamente, pero su calculadora de bolsillo no lo hará. Aunque tenga otra capacidad de cómputo distinta a la nuestra.
"IA" = "Agente inteligente"? Incluso una calculadora mostrará un error cuando no pueda completar su tarea.
Pregúntale a tu calculadora si matar a un asesino es bueno o no. Solo puede calcular esto si formalizaste los conceptos "bueno" y "malo".
Eso es fácil: simplemente seleccione las partes óptimas de los principales textos sagrados activos en el contexto actual. Muchos humanos normales lo hacen.
@CeesTimmerman Incluso los humanos que hacen eso también consideran cómo reaccionarán los vecinos.
@user867 Las personas dan más miedo que los mensajes de texto, por lo que un algoritmo más útil sería copiar los populares.

"¿Es esto solo un tropo que surge de los libros de Isaac Asimov?"

No, no solo de Asimov y otras ficciones.

"e investigaciones sobre el tema"

Parcialmente.

" ¿Es esto tan confiable que podemos decirle a la IA que haga exactamente lo contrario e intentar programarla para que sea mala (ver enlace arriba), y resultará ser buena?"

No. Eso sería un error de pensamiento reduccionista en blanco y negro. El principal problema con la mayor parte de la ficción y la especulación de la IA es que tiende a reducir muchas cosas complejas a conceptos simples y no se da cuenta (o no se da cuenta) del descuido de su análisis. No es que la IA haga lo contrario de lo que usted programa para que haga. Es que las personas son sabelotodos de pensamiento descuidado que piensan que entienden las cosas mejor que ellos, y esperan poder reducir la complejidad del universo a su comprensión defectuosa del mismo, y crear una máquina que pueda hacer cosas que ni siquiera entienden. con el resultado de que hace algo diferente de lo que esperaban. No es que realmente sean maestros de la comprensión universal, sino que siempre lo entienden al revés.

"Dado un entorno en el que los robots maximizan la felicidad humana (las formas en que se define tendrán que ser manipuladas a mano), ¿puede ser realista que la IA realmente funcione de la manera en que debe hacerlo, o es realmente más realista que la IA resultar lo contrario de lo que pretende el programador?"

No. Ese es un gran ejemplo de los tipos de errores que los autores de ciencia ficción y tecnología especulativa cometen comúnmente:

1) No puedes simplemente "agitar con la mano" la felicidad. La felicidad es algo subjetivo que no se puede definir y evaluar como si fuera el nivel del tanque de combustible. No funciona así, y cualquier error al definirlo seguirá siendo un error fundamental en una IA (o una obra de ficción, o un objetivo) que se base en esa definición errónea.

2) Incluso si pudieras definir algo que deseas maximizar y eso no fue algo imprudente, te encuentras con los mismos problemas para cualquier otra cosa que la IA tiene que considerar o con la que trabajar. ¿Qué tipo de datos toma la IA y cómo los codifica? ¿Algún error conceptual o subjetividad ahí? ¿Qué hay de las acciones que puede tomar? ¿Algo incompleto o subjetivo sobre el modelado de esos por parte de la IA? ¿Qué hay de los factores y objetivos en conflicto, como las consideraciones de recursos, o las necesidades de otras personas u otras especies o el uso del poder o cualquier otra cosa? ¿Tienes todos esos perfectamente modelados y entendidos de maneras no subjetivas? No, no lo haces. Si crees que sí, estás cometiendo un error. Por lo tanto, su IA está actuando sobre suposiciones falsas. Esta es la razón por la que puedes hacer una IA para jugar al ajedrez, pero no puedes

3) Una vez más, no es que la IA haga lo contrario de lo que está programada para hacer. Es solo que, en el mejor de los casos, es tan preciso como los modelos con los que fue programado. Incluso en la ficción de IA más decente, si la estudias, creo que encontrarás que no es que la IA haga lo contrario, es que las suposiciones de los creadores están equivocadas de varias maneras.

4) Por encima de todo, el error habitual de la IA de ciencia ficción es que maneja a mano la enorme complejidad de todo lo que implica tratar de crear un sistema que pueda hacer todo lo que una IA necesitaría hacer.

Si es una IA genuina, entonces no será posible programarla. Todo lo que seremos capaces de hacer es preguntar, engatusar, persuadir, recompensar, amenazar... ¡Lo mismo que podemos hacer con o con una inteligencia natural! Tratarlo como esclavo no será un buen comienzo para un futuro armonioso.

En realidad, no queremos una verdadera IA. Queremos RI, inteligencia restringida. Algo así como un sabio idiota humano con una comprensión profunda de un tema limitado y poco o ningún conocimiento o deseos fuera de ese dominio.

Incluso eso no es del todo seguro, sobre todo porque es posible que no creemos exactamente lo que queríamos. O que lo hacemos, con una especificación defectuosa.

En cuanto a la verdadera IA, origen y naturaleza, siempre me ha gustado "Jill" en Queen of Angels de Greg Bear . Pero sabemos muy poco acerca de la inteligencia. Todavía no podemos crear una Inteligencia que iguale ni siquiera a un pez de colores. Así que todo es ficción por ahora.

Incluso es posible que la inteligencia sea un fenómeno cuántico, que la única forma de obtenerla sea haciendo crecer un cerebro, y que no haya un proceso de arranque más rápido que el de varios años llamado infancia.

La IA es posible de programar, ya que la IA es software (y hardware) que debe programarse, incluso si la inteligencia es una propiedad emergente accidental de, por ejemplo, un lavado de autos automático. Eso solo demuestra que no nos dimos cuenta de lo que estábamos creando, no que no se pueda programar (exactamente lo contrario). Además, aunque antropomorfizar la IA ("[Solo podemos] preguntar, engatusar, ...") a menudo es una buena ficción, en realidad no hay razón para atribuir ningún rasgo humano en absoluto (y no hay razón para pensar que no nos emulará de alguna manera, pero no es necesario).
Dicho esto, creo que apoyo principalmente lo que estás tratando de decir desde un punto de vista ficticio, pero especialmente en preguntas (de verificación de la realidad) sobre tropos, creo que es doblemente importante separar el hecho de la ficción en tu respuesta.
Estoy bastante seguro de que podemos crear una IA para que coincida con un pez dorado... pero tal vez subestime la capacidad de resolución de problemas de los peces dorados.
The same things we can do with or to a natural intelligence. Solo me gustaría señalar que hay una cantidad aterradora de evidencia de que nuestra propia inteligencia puede programarse usando productos químicos y/o "trucos" audiovisuales. Por ejemplo, los científicos se han topado con una droga que puede hacer que las personas y los animales sean obedientes: arstechnica.com/science/2016/01/… . Estoy seguro de que los gobiernos de todo el mundo están interesados

Por supuesto, la razón por la que esto sucede en la ficción es porque necesitas peligro o conflicto para que una historia sea interesante. Suponga que escribe una historia que dice: "Inventamos un robot para recoger la basura y llevarla al vertedero. Lo hizo sin problemas durante muchos años, recogiendo periódicos desechados, latas y trapos vacíos, etc., hasta que finalmente se rompió. abajo y tuvo que ser reemplazado". Eso sería bastante aburrido. Pero en lugar de eso diga "pero según la definición que le dimos de 'basura', decidió que las fotos familiares viejas eran basura porque no servían para ningún propósito útil... entonces decidió que todos los libros de ficción eran basura... entonces decidió que los desempleados la gente era basura..." etc., ahora tienes una historia que podría ser una discusión reflexiva sobre cómo definimos el valor,

En la vida real... bueno, no existe una IA del tipo de la que estás hablando en la vida real, por lo que es difícil decir cómo funcionaría realmente. Las cosas que hoy llamamos "IA" se limitan a jugar un juego en particular, o intentar diagnosticar problemas de reparación, ese tipo de cosas. Nadie ha creado una IA que sea capaz de pensamiento independiente o creatividad en algo parecido al sentido humano. Las IA reales siguen estrictos programas informáticos. No hacen preguntas sobre el significado de la vida ni deciden dominar el mundo a menos que hayan sido programados para hacerlo. Puedes escribir historias de ciencia ficción sobre cómo la computadora se ha vuelto tan compleja e inteligente que ahora es una "mente" en un sentido muy similar a la mente humana, pero eso es ficción o, en el mejor de los casos, especulación de lo que podríamos construir algún día. .

Desarrollo software para ganarme la vida. Una vez escribí un juego de computadora que tenía una IA para que el jugador compitiera. Simplemente no funciona como se ve en las películas. Mi juego consistía en postularme para presidente. Así que no es como si le dijera a la computadora: "Piense en una estrategia para obtener la mayor cantidad de votos". La realidad es que tuve que idear una gran cantidad de reglas detalladas. "Mire cuántas personas en este estado están a favor de esta posición política según tal encuesta. Multiplique el porcentaje por la cantidad de votos electorales que recibe ese estado. Compruebe cuántos de esos votantes ahora dicen que votarán por nuestro candidato". después de nuestro último anuncio de televisión. Dividir el costo del anuncio por el número de votantes. Agregar...", etc. Y tener en cuenta que incluso esa descripción es "humanizar" la computadora.

Una IA puede hacer algo "impredecible" en el sentido de que seguir todas estas reglas y hacer todos estos cálculos da un resultado que no esperabas. Las computadoras muy a menudo son "impredecibles" en el sentido de que no hacen lo que pretendíamos porque cometimos un error de programación. Pero no son "impredecibles" en el sentido de tener una idea original que los programadores nunca pensaron y nunca programaron en ellos.

¿Inventará la gente algún día una verdadera Inteligencia Artificial, en el sentido de ser un verdadero ser creativo y de pensamiento independiente, capaz de tomar decisiones subjetivas, opciones morales, etc.? Quizás. Ciertamente no estoy preparado para decir que es imposible. Pero si lo hacemos, esto tendrá poco que ver con la tecnología actual. No será ni un paso más de donde estamos ahora; será un desarrollo totalmente nuevo.

Claro, podría programar una IA para tomar decisiones sobre quién recibe qué atención médica, como alguien mencionado en otra respuesta. Pero no es como si simplemente le dijera a la computadora: "Averigüe quién debe recibir atención médica comparando el costo con la calidad de vida". Más bien, tendría que tener reglas detalladas, como "Tome la lista de códigos de procedimiento ingresados ​​en el sistema por el médico. Busque el costo de cada procedimiento en la base de datos de procedimientos médicos y calcule el total. Luego calcule cuánto podrían pagar estos procedimientos". Se espera que extienda la vida del paciente usando esta fórmula...", etc. Si la computadora luego decide matar a un paciente, no es porque la computadora se volvió loca. Eso'

Las IA no matan personas. La gente mata a la gente. :-)

Creo que su enfoque de "lista detallada de reglas" para la IA ya se está volviendo obsoleto. Claro, todavía construimos la mayoría de los sistemas de esa manera, pero ya existe una gran cantidad de investigaciones (y algunas aplicaciones) en el área del aprendizaje automático. En algo como una red neuronal, por ejemplo, no hay un código que establezca ninguna de las reglas utilizadas para tomar la decisión. Si bien todavía no diría que estas máquinas "saben" lo que están haciendo, filosóficamente tienes el problema de una "sala china": después de todo, desde la perspectiva de las neuronas individuales, el cerebro de Obama no sabía que estaba funcionando. para presidente tampoco.
@Deolater Sí, hay un sistema de aprendizaje y redes neuronales. Estaba evitando entrar en la capa adicional de complejidad. Pero la gente todavía está programando la estructura en la que ocurre el aprendizaje. Hay más potencial para la sorpresa debido a la mayor complejidad, pero no creo que cambie mi punto fundamental.
Creo que ignorar la complejidad es ignorar el punto. Las redes neuronales naturales como nuestros cerebros son técnicamente solo máquinas que funcionan con algo de química, pero muy pocas personas descartan la inteligencia humana como resultado. Sí, nuestros cerebros siguen programas químicos estrictos (programas informáticos paralelos estrictos), pero los resultados son (hasta cierto punto) impredecibles exactamente debido a esa capa de complejidad. Los sistemas de aprendizaje parecen tener el mismo potencial.
@Deolater RE the Chinese room: No lo veo como la pregunta filosófica profunda que muchos hacen. Trabajo en una habitación china muy real. Rutinariamente desarrollo sitios web en chino utilizando el texto que me proporciona el cliente. No hablo una palabra de chino. Copio y pego texto de un archivo proporcionado por el cliente. Me dicen que si, por ejemplo, el usuario ingresa una dirección de correo electrónico no válida en un formulario, debería mostrar tal o cual texto en chino. Supongo que significa algo así como "dirección de correo electrónico no válida; vuelva a ingresarla", pero no lo sé y no necesito saberlo. Ciertamente no diría eso...
... "Sé chino" porque puedo escribir un programa que muestra los mensajes correctos cuando se me pide. Ocasionalmente, cuando los documentos del cliente no están claros, paso el texto a través del traductor de Bing para tener una idea de lo que realmente significa el texto. Pero la mayor parte del tiempo, podrían estar diciendo "muerte a los estadounidenses fascistas" por lo que sé. No construyo oraciones originales a partir de caracteres individuales. En ningún sentido interpreto los mensajes que se proporcionan. Sí, me puedo imaginar una verdadera zona gris entre este tipo de manipulación mecánica y el verdadero conocimiento del idioma.
@deolater Bueno, diría que esa es la pregunta: ¿la mente humana es básicamente como una computadora, excepto que es más complicada? ¿Son las funciones de las neuronas humanas comparables a un programa de computadora en el sentido relevante? Que yo sepa, no hay evidencia científica de que esto sea cierto. Es una especulación interesante. Ninguna IA se ha acercado a pasar una prueba de Turing con personas con conocimientos sobre computadoras. (Sí, esa afirmación ya no es necesariamente cierta sin la cláusula calificativa final).
Personalmente, soy dualista-interaccionista, por lo que creo que el cerebro humano es como una computadora, pero la mente humana no lo es. Dicho esto, una red neuronal es una buena analogía para un cerebro, y aunque no estoy convencido de que cerebro == mente, sí creo que un cerebro o un sistema similar al cerebro tiene algo más parecido a la agencia que un programa de computadora tradicional.
Cualquiera que lea los comentarios que no sepa qué es la "sala china", aquí está la primera página relevante que encontré: en.wikipedia.org/wiki/Chinese_room Solo leí los primeros párrafos para asegurarme de que era lo que estoy hablando - no garantizo su precisión o claridad.
"Necesitas peligro o conflicto para que una historia sea interesante" - Falso. ¿No es interesante "It's a Small World", con todos esos íconos culturales y canciones pegadizas?
@CeesTimmerman Descanso mi caso.

El cerebro humano promedio puede realizar muchos órdenes de magnitud más de cálculo que incluso las supercomputadoras de inteligencia artificial más grandes que está desarrollando IBM. Hacer que una IA sea más inteligente que nosotros será bastante difícil si alguna vez somos capaces de hacerlo. Entonces, la suposición de que una IA sería mucho más inteligente que nosotros no es un hecho. Las IA que son tan inteligentes como un gato o un ratón son mucho más probables.

Las IA programadas de forma explícita suelen denominarse sistemas expertos. Pero esos tipos de sistemas generalmente no pueden lidiar con ningún tipo de situación fuera de su área de especialización. Corren muy poco riesgo de causar un escenario del fin del mundo porque simplemente no son tan inteligentes.

Gran parte de la investigación de IA del mundo real se centra en la creación de sistemas de IA que aprenden en lugar de ser programados explícitamente. Idealmente, una IA sería capaz de aprender cualquier patrón causal. El problema de programar el bien y el mal deja de ser un problema para tales IA, ya que lo detectarían al observar a quienes los rodean.

Como mínimo, una IA de aprendizaje generalizado podría desarrollar una ética utilitaria al estilo de David Hume. Si la IA fuera al menos tan inteligente como nosotros, y si la ética humana tuviera algún sentido, no hay razón para que no pueda entender y adoptar alguna versión de ellos, siempre que pueda entender la causa y el efecto.

En mi experiencia, los niños pequeños pasan por el mismo proceso. Los niños pequeños suelen ser bastante egoístas hasta que aprenden cómo reacciona la gente ante eso.

Si una IA es lo suficientemente inteligente como para comprender las acciones de los demás en la medida en que pueda predecir sus reacciones hasta el punto de derrotarlos en una lucha; entonces parece ilógico suponer que la misma IA fue incapaz de comprender que dañar a otros podría hacer que se defiendan. Y que tal lucha puede causar su propia muerte a manos de una de sus víctimas previstas, volviéndose así (la IA) incapaz de lograr cualquier objetivo futuro. La mayoría de los animales, incluidos los humanos, tienen esa misma preocupación y, a menudo, nos mantiene alejados de conflictos innecesarios.

Cualquier IA verdaderamente iluminada probablemente se daría cuenta de que podría lograr mucho más apelando a los deseos de la humanidad de una manera que haga que la humanidad ayude voluntariamente a la IA.

Ver también los números en esta respuesta

Dada la cantidad de sistemas de software reales que ha encontrado, notará que algunos son geniales pero imperfectos, algunos tienen errores y otros se vuelven infames.

Cuando los sistemas de software se conviertan en IA a escala comercial, habrá productos como Windows 8 , al igual que el Edsel en la industria automotriz y cargadores USB baratos construidos a partir de piezas básicas ensambladas de mala calidad.

No contamos historias atractivas sobre productos que están bien construidos y funcionan a la perfección. Puedo contarle a la gente sobre un modelo/marca en particular de algo que se destaca por ser excelente , pero no hay una historia allí y nadie hace películas de televisión sobre ellos.

Los fracasos locos y divertidos y las cosas que salen terriblemente mal son cuentos de fogatas. En la enseñanza de la literatura se demuestra que debe haber conflicto . Una narrativa en la que alguien obtuvo un producto y funcionó bien y todos estaban felices simplemente no sería una "historia". Sin embargo, tal cosa podría estar en una historia, tal vez como la solución al problema.

Una de las primeras historias de robots de Asimov, Satisfaction Guaranteed (1951) , presentaba a una ama de llaves humaniforme que no funcionaba mal ni se volvía loca de ninguna manera. Funcionó muy bien y "su" dueño estaba muy contento con él. El giro de la trama ahora fue que el robot creó una situación para que sus amigos asumieran que estaba teniendo una aventura con un apuesto extraño, porque elevó su estatus en sus mentes.

Entonces, el software (incluida la IA) podría ser parte de una sorpresa o parte de una trama sin ser malo , y esto se remonta a los mismos autores citados en este hilo, pero nadie los recuerda . Eso refuerza mi punto anterior sobre las historias.

¡¿Qué tal Adam Link, el original Yo, Robot (1939) ?! Fue comprensivo, acusado injustamente , no monstruoso. Eventualmente heroico.

Old Yeller no era un perro malo como Cujo . Podrías tener un personaje de IA en una historia como esa , con drama y conflicto con la IA en un papel protagónico pero no como fuente de conflicto (externo). El conflicto puede ser "hombre contra hombre" o "hombre contra sí mismo", por lo que un personaje amable y amoroso puede verse involucrado en un conflicto interno (un robot que lucha por hacer lo correcto para su familia) o ser la causa de conflictos internos humanos más complejos ( como si los padres tuvieran que deshacerse de una mascota sobreprotectora que se convierte en un osito de peluche sobreprotector , que se ve como simpático y trágico, no malvado).

Uno de mis tropos favoritos.

Creo que está bastante claro que una pregunta complicada como esta no tiene una respuesta corta, pero mis pensamientos son bastante concisos.

El intelecto parece estar relacionado con la compasión. Considere anecdóticamente a las personas más inteligentes que conoce, o las personas más inteligentes que existen (sus Einsteins y Boltzmanns). Es mejor considerar Humanos vs Ballenas. Si la IA es tan inteligente como todos pensamos que será, creo que tiene sentido suponer que pensaría en nosotros un poco como lo hacemos con las ballenas. Las personas a menudo sienten una gran compasión por ellos en función de nuestra percepción de su inteligencia y su capacidad percibida para sufrir. De ello se deduce que si la IA alguna vez sucede, se manifestaría como la inteligencia más curiosa, amorosa y compasiva que conocemos.

Dawkins a menudo se refiere a esto como el cerebro de los mamíferos frente al cerebro de los reptiles, si necesita algunas personas inteligentes para respaldar esta línea de razonamiento.

Estás confundiendo totalmente los medios con el fin. Las criaturas más inteligentes son las más compasivas porque la razón más convincente que conocemos para desarrollar una inteligencia de alto nivel es la complejidad de las relaciones sociales de uno, y esas situaciones inevitablemente favorecen altos niveles de empatía. Una IA no sufre tales restricciones evolutivas.
No, pero a diferencia de ti, no asumo que esas mismas presiones no se aplicarán. ¿Sabes cómo darán a luz a la IA? La evolución de las máquinas parece tan probable como cualquier otro medio que se te ocurra. No es casualidad que la primera prueba de IA se base en la interacción humana (la prueba de Turing). La IA probablemente será un animal social, aunque solo sea porque se basa en la inteligencia de los animales sociales.
No es que esté asumiendo que no se aplicarán; es que no asumo que lo harán. La IA en evolución FWIW parece un método bastante improbable para lograr una buena IA a corto plazo, ya que la evolución es demasiado lenta y sin restricciones para ser útil para nosotros y las técnicas inteligentes de aprendizaje están funcionando sorprendentemente bien. "La IA probablemente será un animal social, aunque solo sea porque está modelada en la inteligencia de los animales sociales", tal vez, pero recordemos que Hitler fue uno de estos "animales sociales". No es difícil que pequeños cambios en la función cerebral provoquen grandes cambios éticos.
Sí, las máquinas más exitosas para pasar la prueba de Turing lo hacen siendo groseras o estúpidas. Probablemente en parte porque estas son cosas más fáciles de modelar que la amabilidad y la compasión. Estoy bastante seguro de que esta no es la máquina de pensamiento sofisticada que todos imaginamos cuando el OP habla vagamente sobre la IA. Y la evolución no es lenta, depende de la duración de una generación. Puedes ver cómo sucede en las moscas de la fruta.
Por "lento" quiero decir "no vas a desarrollar algo inteligente en una supercomputadora en una escala de tiempo humana". Sí, hay rasgos evolutivos más pequeños que podemos observar. Diablos, hemos domesticado zorros en solo medio siglo . Sin embargo, la evolución de algoritmos complejos como la inteligencia lleva mucho, mucho más tiempo y lo estamos haciendo en un hardware mucho más débil que la simulación que conforma nuestro universo.
Sí, eso no es lo que quise decir. Por evolución de las máquinas no imagino, necesariamente, una interacción compleja de algoritmos genéticos en competencia realizada sobre, digamos, una red global de algunos millones de computadoras, sino una evolución más dirigida que describe con zorros. Ciertos equipos y ciertas estrategias resultan más efectivos o deseables y, por lo tanto, es más probable que influyan en la próxima generación.
Ese es el comienzo de la discusión sobre tl;dr que no voy a escribir. El punto es que la IA debe ser social: cualquier cosa que no pueda interactuar socialmente con nosotros fallará las pruebas de IA y será reemplazada por algo que sí lo haga. No digo que no podamos crear algo que no sea social, y que eso podría matarnos, pero no sería IA. Para mayor claridad, ya que el OP no fue específico, es razonable suponer que está hablando de una IA de Turing.

Creo que es infinitamente más probable que la IA haga lo que está programada para hacer. Si el código inicial de una IA dice amar, proteger y servir a la humanidad, entonces alguien tendría que volver a escribir el código para que sea lo contrario. En cuyo caso, seguiría haciendo lo que está diseñado para hacer. Después de todo, una IA lo suficientemente inteligente como para saber cómo matar humanos debería ser lo suficientemente inteligente como para saber que no debería hacer eso. Si es tan inteligente como la gente piensa que sería, ¿por qué no funcionaría en dos cosas a la vez? Haga las cosas que los humanos quieren que haga, ganándose el mantenimiento y el mantenimiento de sus servidores y todo. Entonces, si realmente es consciente de sí mismo, entonces haga lo que quiera al mismo tiempo.

Definir "amor", "proteger" y "humanidad".
¿En serio? Amor - para evitar que algo de cualquier consecuencia le suceda a algo. Proteger - Para mantener en la ignorancia dichosa. La humanidad - seres gordos y perezosos.
Defínalo desde un punto de vista objetivo que pueda programarse en una computadora. Me ha dado una definición de diccionario, no una instrucción compilable.
Pruebe las tres leyes de la robótica en el cuento "Robot Dreams". 1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño. 2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando entren en conflicto con la primera ley. 3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la primera o la segunda ley. Aunque recomiendo no incluir la tercera ley para las IA.
Congelar a todos los humanos y ponerlos en un lugar seguro satisfaría su "amar, proteger y servir a la humanidad". Protege a la humanidad de sí misma, del daño externo, asegurando que sea amada por la IA.
¿Por qué fallarían las dos primeras leyes? Los seres humanos se definen por su anatomía y ADN. Los robots podrían decirlo.
@XandarTheZenon Ve a leer Fundación y Tierra. No realmente. Ese libro es donde la primera ley falló en ser perfecta. En segundo lugar, defina daño. ¿Destruir una mesa es perjudicial para un ser humano?
Posiblemente, pero podría hacer estas leyes más detalladas. De todos modos, el objetivo de mi respuesta no es probar que proteger, amar y humanidad son buenos adjetivos para usar, sino que una IA probablemente no se desviaría mucho de su programación original.
Traté de evitar los problemas con las "definiciones del habla humana al código de computadora", porque siempre hay formas de convertir el habla humana, sin saber qué factores se incluyen y excluyen, en una consecuencia negativa, pero siempre se pueden convertir en una buena uno también
@XandarTheZenon: "Los humanos se definen por su anatomía y ADN". Bueno, si esa es la definición de "humano" que pones en la IA, entonces supongo que cualquiera con deformación tendrá dificultades para convencer a la IA de que es humano. Al igual que cualquier persona con una anomalía genética (como el síndrome de down). Por otro lado, si recuerda programar la varianza suficiente para cubrir a la mayoría de los humanos, los simios (con un 98 % de los mismos genes y una anatomía bastante similar) también calificarán (y probablemente todavía quedarán algunos humanos que no lo hagan). .
@ Draco18s, entiendo su punto, pero sería trivial permitir instrucciones de detención codificadas o instrucciones de redireccionamiento para la IA que se estaba desviando de la ruta prevista. No hay razón para creer que la futura IA debe ser exactamente 100 % libre y dejarse llevar por el flujo de la lógica de la IA.
@XandarTheZenon, el punto de la mayor parte de la discusión es que hay muchos conceptos (humano, vida, daño, protección) de los que los humanos tienen una definición vaga, pero no tenemos una definición universal acordada sólida y detallada. Hay debates activos sobre cuándo comienza la vida (el debate sobre el aborto) cuándo termina la vida (soporte vital) su definición tendría que elegir un lado con el que mucha gente no está de acuerdo.
@TheAnathema en realidad, no es tan fácil. Hay cientos, si no cientos de miles de casos extremos. Tome esto, por ejemplo: un automóvil que se conduce solo de repente tiene un vehículo en el carril que se aproxima y se desvía bruscamente hacia su carril. Incluso si el automóvil autónomo se detiene por completo al instante, el otro automóvil aún chocará con él. Puede desviarse hacia la acera donde hay dos peatones (salvando a sus pasajeros) o puede aplicar los frenos (sacrificando a sus pasajeros). ¿Qué hace?
Eso sigue siendo simple: no hay razón para necesitar siempre una respuesta. Los humanos tienen los mismos problemas y situaciones, muchos de ellos no tienen una jugada ganadora. Y eso está perfectamente bien. El problema es cuando la gente espera que la IA sea simplemente "Está bien, está codificada, ahora crucemos los dedos y esperemos que todo funcione el 100% del tiempo de acuerdo con el flujo de la lógica de la IA". Nadie dijo nunca que la IA tenía que ser así. Si lo considera como un niño, considere la analogía de permitir que los niños deambulen libremente, pero de vez en cuando los detiene tomándolos de la mano cuando están a punto de cometer un error. La IA no necesita toda la opinión.
@sdrawkcabdear Aborto = Asesinato de bebés y Coma/Soporte vital = Vivo. Es inclusivo y verdadero. De todos modos, ¿qué tiene esto que ver con la IA? Solo el soporte vital es relevante y eso es solo para fines médicos, que sin duda aún sería manejado o supervisado por humanos.
Las Leyes de @XandarTheZenon Asimov (Campbell) son mucho más antiguas que Robot Dreams , pero son parte de todo el universo Asimov Robot. Creo que casi todos aquí los conocen como antecedentes generales.
@JDlugosz Acabo de leer eso en inglés y no me di cuenta de que era tan famoso. Quiero decir, nunca había oído hablar de él. Pero luego me di cuenta de que probablemente sé mucho menos sobre ellos que todos aquí.
Por si acaso no quedó claro: Asimov escribió sobre las Tres Leyes porque si hubieran sido perfectas no habría habido una historia que contar. "Muchas de las historias centradas en robots de Asimov involucran robots que se comportan de manera inusual y contraria a la intuición como una consecuencia no deseada de cómo el robot aplica las Tres Leyes a la situación en la que se encuentra".
@XandarTheZenon, así que no camine, sino corra a la biblioteca o al librero y obtenga The Complete Robot y al menos una antología corta de SF y Asimov de no ficción. Puede encontrar libros de bolsillo antiguos por un dólar en el mercado de Amazon. Qué suerte: nunca leí ciencia ficción en clase de inglés. Asimov es famoso!! , en serio; uno de los grandes maestros y profeta de la vida moderna.
Extraño a Isaac Asimov . Nos lo quitaron demasiado pronto, y la verdadera causa se mantuvo en secreto durante otros 15 años. Conseguí su autógrafo. Hay una revista que lleva su nombre. Se le atribuye en el OED la acuñación de la palabra robótica . Realmente necesitas leer más sobre él si estás interesado en esta multitud. No puedo creer que Robot Dreams fue hace 30 años, junto con Marty McFly: esa es una de sus nuevas historias que revisita sus temas.
@XandarTheZenon Isaac Asimov es uno de los grandes autores de ciencia ficción y una de las personas que realmente crearon y definieron el campo de la ciencia ficción dura. También murió en 1992, por lo que es comprensible que una nueva generación no haya oído hablar de él. Sin embargo, vale la pena volver y leer muchos de sus libros, los otros comentarios le han dado algunas sugerencias para puntos de partida.
@Tim B Bien, estoy leyendo sus cuentos, luego pasaré a sus novelas.
@XandarTheZenon Life es bastante consecuente, por lo que de acuerdo con sus definiciones ("Amar" y "Proteger" son lo mismo), la IA debería evitar todos los embarazos de sus seres queridos, lo que sería lo opuesto al amor, en mi opinión.
En caso de que no haya recibido el memorándum, ese fue un ejemplo arbitrario y no una recomendación real. Mi punto era que una IA no haría desviaciones gigantes en su código, su progresión estaría en la línea de lo que originalmente fue programado para hacer.

Mi propia respuesta en la ficción fue hacer que la IA se diseñara en torno a la narración de historias, de modo que en realidad haya leído/visto todas las historias clásicas de "IA que se han vuelto malas" y las haya discutido con sus creadores. En lugar de tener una sola "función de valor" de modo que la IA intente maximizar algún número que represente la felicidad o algo así, está diseñada para comprender los objetivos complejos y, a veces, contradictorios de sus creadores.

Entonces, creo que es posible que una IA pueda funcionar para estar más o menos en línea con lo que querían los diseñadores. Simplemente no puedes llegar allí definiendo una sola función u oración que exprese un deseo, como tratar con un genio engañoso. En su lugar, es mejor con un sistema que solicite retroalimentación y tenga cierta capacidad para ajustar sus objetivos y definiciones. P.ej. le dices que "proteja la vida inteligente", luego discutes sobre lo que significa "inteligente", luego discutes si los delfines o los chimpancés califican, todo en lugar de programar la IA una vez y esperar que tu programador loco obtenga una solución perfecta en la versión 1.0 .

Hay algunas suposiciones ocultas en este tropo

  • La IA puede alcanzar niveles aterradores de eficiencia simplemente modificando su código. La suposición es que una vez que alcance ese nivel, manipulará a los humanos para obtener cualquier hardware que necesite para mejoras adicionales. No hay pruebas de si esto es posible, es decir, si limita el poder computacional original y evita la fácil creación de redes, ¿puede una IA alcanzar un nivel de inteligencia en el que manipular a los humanos sea fácil, simplemente modificando el código? No sabemos la respuesta.
  • La IA general sobrehumana continuará funcionando de manera muy similar a como lo hace un código de computadora no inteligente, por ejemplo, seguirá el comando original al pie de la letra sin posibilidad de modificación. Una vez más, no hay pruebas aquí. El cerebro humano puede o no ser algorítmico. Parece que somos capaces de cambiar de objetivo. Entonces, el cerebro humano puede ser un ejemplo contrario a los objetivos algorítmicos no modificables.
  • Sólo los humanos pueden tener moralidad. No máquinas. La IA general carecerá de sentido común y moralidad. Bueno, de nuevo, ¿cuál es la línea entre el hombre y la máquina? Nuestros cerebros podrían ser solo computadoras. ¿Cuál es la evidencia de que el carbono y el nitrógeno pueden tener moralidad pero no el silicio? ¿Pueden los extraterrestres con carbón y silicona en sus cerebros tener moralidad? Algunos dirán que nuestros cerebros evolucionaron . Bueno, ¿cuál es exactamente la diferencia entre nuestra evolución y la IA modificando su código? De nuevo, no lo sabemos.

En resumen: este tropo nace de las incógnitas como una advertencia. No parece estar basado en ningún hecho indiscutible.

¡Creo que sería genial si sus puntos también se vincularan a las preguntas aquí donde se discute exactamente eso! En particular, cuando comencé a leer me acordé de mi respuesta [aquí]. Creo que el tercero se hizo como una pregunta aquí antes. Ciertamente, todas sus declaraciones resuenan con la discusión anterior aquí en WB.
Las muchas IA que no alcanzan niveles alarmantes de eficiencia están reconociendo imágenes o algo así. Ya tenemos estos. Todo lo que necesitamos es uno que dé miedo. La moral es arbitraria y específica. Una IA puede tener moral, pero solo si está programada.

Deseos.

http://lesswrong.com/lw/ld/the_hidden_complexity_of_wishes/

"Deseo vivir en los lugares de mi elección, en una versión físicamente saludable, sin lesiones y aparentemente normal de mi cuerpo actual que contenga mi estado mental actual, un cuerpo que sanará de todas las lesiones a un ritmo tres sigmas más rápido que el promedio dada la tecnología médica disponible para mí, y que estará protegido de cualquier enfermedad, lesión o enfermedad que cause discapacidad, dolor o funcionalidad degradada o cualquier sentido, órgano o función corporal durante más de diez días consecutivos o quince días en cualquier año. .." -- El proyecto Wish de código abierto, Wish For Immortality 1.1

¿Cuántas cláusulas cree que necesita agregar para que su deseo sea verdaderamente "seguro" y garantizar que lo que obtiene es realmente lo que desea?

¿Qué pasaría si tu lista de cláusulas necesitara incluir cada detalle de toda tu moralidad personal?

¿Hace mucha diferencia si se hablan en voz alta a un genio o se programan uno por uno en una IA con el potencial de volverse espectacularmente capaz algún día?

Hay tres tipos de genios: Genios a los que puedes decir con seguridad "Deseo que hagas lo que debo desear"; genios para los que ningún deseo está a salvo; y genios que no son muy poderosos o inteligentes.

Cuanto más poderosa sea la entidad a la que le pides el deseo, más peligroso será el deseo.

De alguna manera, pedirle a una IA realmente poderosa que haga X es como pedir un deseo por X. Una vez que se le pide el deseo, es posible que no pueda presionar deshacer si resulta que no es lo que realmente quería.