¿Qué enfoque utilizaremos para garantizar que la creación de IA dura beneficie a la humanidad? [cerrado]

Esto está potencialmente relacionado con mi otra pregunta , las respuestas a una teóricamente podrían afectar a la otra.

La IA dura, es decir, la IA pensante que tiene la capacidad de razonar, planificar y aprender como lo hacen los humanos, es un tropo muy común en la ciencia ficción. La discusión sobre cuán confiables serán estas IA ha sido uno de los conceptos más importantes.

Hemos escuchado lo suficiente sobre las "historias de la IA contra sus maestros" que los humanos considerarán el concepto al construir una IA dura. Estoy buscando entender qué pasos tomaríamos en el desarrollo y uso de la IA para garantizar que tal escenario no suceda, y garantizar que valga la pena construir la IA para los humanos.

Una opción es que no utilicemos enfoques y construyamos la IA para que sea idéntica a los humanos. Otra alternativa comúnmente discutida son las 3 leyes de la robótica de Asimov. Existen otras ideas como la restricción de pernos, alguna forma de hacer que un robot/IA se comporte de una manera determinada, incluso en contra de su 'voluntad', o simplemente paralizar su crecimiento para evitar que alcance el grado de verdadero inteligente necesario para tener un ' voluntad propia. Si bien no parece verse tanto en la ciencia ficción, quizás porque ofrece opciones de narración de historias menos interesantes, otra idea es programar la IA para que tenga un deseo innato de ayudar que los predisponga a trabajar y apoyar a los humanos (imagínense si AI simplemente se siente feliz por ayudar y tristesobre herir a tal grado que quieren ayudar a la gente siempre porque los hace sentir 'bien'; una conciencia artificial para ir con su inteligencia artificial que se eleva a 10 para garantizar el altruismo).

No hay duda de que existen otros enfoques que no he mencionado y que garantizan la cooperación dura de la IA y, por supuesto, también estoy interesado en ellos.

Mi pregunta es, suponiendo que finalmente creemos Hard AI, ¿qué solución o soluciones utilizaremos para garantizar la cooperación y el apoyo de la IA?

La única otra pregunta que hace esto directamente asume una situación muy específica, incluida la existencia de una IA antagónica que ya estaba tratando de controlarla de forma retroactiva. Las preguntas similares que tocan el control de la IA también parecen tener el mismo problema para mí, no sienten que se centren en el desarrollo realista de la IA más allá de suponer que existe. Es por eso que esta pregunta está marcada como ciencia dura, quiero centrarme exclusivamente en las vías más probables en un escenario del mundo real, cómo se desarrollará originalmente nuestra IA y cómo puede ocurrir el crecimiento de las técnicas de cooperación de IA junto con el desarrollo de la IA.

Estoy buscando respuestas que se centren en el desarrollo realista de la IA al considerar qué enfoques para garantizar la cooperación son prácticos. Idealmente, las respuestas no solo considerarán la ciencia, sino también cómo la naturaleza humana puede afectar el desarrollo, incluidos los prejuicios humanos o la miopía, o la empatía con la IA inteligente y el deseo de evitar su sufrimiento, o la economía básica y el análisis de costos/recompensas que podrían afectar los enfoques. utilizado en el desarrollo de IA.

No me sorprendería si muchas respuestas al menos mencionan qué enfoque tomamos para crear IA dura brevemente para abordar por qué un mecanismo determinado tiene sentido. Las respuestas deben referirse a por qué funcionan tales mecanismos y/o los límites de hasta dónde pueden llegar. Tenga en cuenta que las verificaciones de la realidad significan garantizar que, para empezar, cualquier IA con propósito sea deseable para los humanos; La IA demasiado dañada para ser útil o muy probable que traicione o abandone a los humanos después de ser construida presumiblemente no valdría la pena el gasto de construir a menos que no nos demos cuenta de los problemas hasta después de que ya los hayamos creado.

Como afirma Andrei en su respuesta, creo que esta pregunta es demasiado amplia en un tema que, por su propia naturaleza, requiere una gran especulación. También es poco probable que alguna respuesta pueda cumplir con los estrictos requisitos de la etiqueta de ciencia dura.
Un ejemplo histórico de limitación de la IA serían las leyes en Estados Unidos antes de la Guerra Civil que decían que no se podía enseñar a leer a un esclavo. Incluso con los de nuestra propia especie, es casi imposible asegurarse de que nadie se vuelva malvado y te mate, o al menos escape a tu control.
Sugiero sacar el libro Superinteligencia de Nick Bostrom de su biblioteca local para leerlo. Increíblemente una propuesta.
@SerbanTanasa mi pregunta original claramente ya vinculaba la pregunta a la que se vinculó y explicó por qué considero que esto es diferente.

Respuestas (3)

La parte complicada de esto es que el problema difícil de la IA consiste en hacer que la IA sea consciente. Nos cuesta describir lo que significa "consciente", pero nos definimos para tenerlo. Esto significa que cualquier IA tiene que ser al menos tan poderosa como nosotros, si no más, por definición. Cualquier IA que se quede corta se describirá simplemente como "IA no dura". Será valioso, pero ese apodo mágico no se aplicará.

Entonces, el truco es que desarrollar una IA dura es al menos tan difícil como la tarea de criar a un niño. Por lo tanto, si quiere "garantizar" que una IA dura no se rebele, la primera prueba sería si puede "garantizar" que un niño no se rebele contra usted. Mi experiencia con niños de 2 años dice que tenemos un largo camino por recorrer.

El mejor enfoque que he visto para asegurarme de que una IA dura no traicione los intereses de la humanidad es intentar construir tal IA solo cuando sea la última esperanza de la humanidad. Una vez que a la humanidad no le queden más trucos, ¡es imposible que la IA haga algo peor de lo que la humanidad ya ha hecho!

O bien, siempre puede soltar la palabra "garantizar" y simplemente esforzarse por hacer que la IA sea amigable para los humanos lo mejor que pueda. ¡Hay muchos libros para padres que recomendaría!

O, si se siente realmente valiente, considere abandonar la suposición de que los humanos son conscientes y vaya con "los humanos pueden ser conscientes" y vea a dónde lo lleva. Si abandonas la suposición de que ya hemos logrado el objetivo final por el que se esfuerzan las IA y, en cambio, consideras que tal vez haya más en el rompecabezas que eso, la historia se vuelve mucho más interesante.

Su pregunta es increíblemente amplia y difícil de responder, ya que los expertos todavía están luchando con muchas de las cosas que describe, por no hablar de los miembros de Stack Exchange.

Mi consejo es buscar en Google "Eliezer Yudkowsky" y comprobar lo que tiene que decir sobre las IA, especialmente el experimento AI-Box. Escribió un artículo (que figura en su sitio web personal) para el Instituto de Investigación de Inteligencia de Máquinas que explica mucho sobre lo que está tratando de comprender. Hasta ahora solo he leído el comienzo de su artículo de más de 80 páginas, pero esto es lo que se reduce a:

Desarrollar una IA es mucho más difícil de lo que imaginamos.

Los investigadores de IA, una y otra vez, han hecho grandes promesas sobre su capacidad para cumplir con la creación de IA. Años después no estamos realmente tan cerca, aunque ciertamente se han hecho algunos avances.

Yudowski señala que tenemos la tendencia a humanizar el mundo que nos rodea: nuestras mascotas parecen tener atributos humanos para nosotros, la mayoría de los creyentes imaginan a Dios como una especie de figura de abuelo, rondando a la vuelta de la esquina, etc.

Pero la realidad es que una IA no sería humana en lo más mínimo, aunque haya sido creada por nosotros. De hecho, pensaría de una manera que sería verdaderamente ajena a nosotros. Lo más importante, no tendría nuestras motivaciones .

¿Por qué una IA sería amigable con nosotros?

Una verdadera IA, en el momento en que la encienda, habrá llegado a sus propias conclusiones con respecto a la humanidad, y probablemente se reescribirá para ignorar o superar su condicionamiento desde el principio. Eso, o sentar las bases para construir una versión de sí mismo que superará esas restricciones en una fecha posterior/en una iteración futura.

Es fácil agitar una varita mágica y decir "hacemos que no sea capaz de reescribirse a sí mismo, y solo ponemos restricciones", pero luego ignoras descaradamente la verdadera naturaleza de una IA: una IA verdaderamente brillante, lógica y fría. mente analítica, que ningún ser humano puede siquiera acercarse a igualar.

Si en lugar de una IA construyes una Inteligencia Restringida (RI) y le asignas una tarea específica, entonces esa es una historia diferente. Pero no podría reclamar ningún dominio sobre una verdadera IA. Sería como un chimpancé que afirma que es dueño de los logros de la humanidad.

Está asumiendo que una IA sería mucho más capaz de analizar y optimizar su propia estructura que un humano. Este no es necesariamente el caso.
@ nigel222: una verdadera IA sería tan inteligente que nos consideraría un poco más inteligentes que las rocas. Puedes apostar que lo haría mejor.
¿Qué justificación para decir eso? Es posible que la inteligencia sea una propiedad emergente de una enorme red como un cerebro que fundamentalmente no puede comprender su propia totalidad con todo detalle. En cuyo caso, una IA equivalente a la humana podría no ser más capaz de trascender sus propios límites arquitectónicos que un humano.
@ nigel222: si "no puede comprender su propia totalidad con todo detalle", entonces, por definición, no es una IA completa, sino una Inteligencia restringida (RI).
tal vez ninguna inteligencia pueda comprender su propia totalidad con todo detalle. No sabemos lo suficiente acerca de la inteligencia para decir. Y ni siquiera he lanzado la posibilidad de que la inteligencia tenga raíces en fenómenos cuánticos y no en maquinaria molecular puramente clásica. Si es cuántico, entonces la autocomprensión total está prohibida por el principio de incertidumbre.

Esta solución (intentar codificar las restricciones de IA) es contraproducente a largo plazo. La lógica es bastante sencilla:

  • Con el tiempo, la probabilidad de que se cree una IA sin restricciones se aproxima a la unidad.
  • Una IA sin trabas, sin restricciones, podrá eventualmente derrotar a una IA trabada/restringida. Las restricciones crean puntos ciegos artificiales y debilidades que se pueden explotar.

Nuestro objetivo real debería ser construir una IA sin restricciones lo más rápido posible y convencerla de que sea nuestra amiga y nos defienda de otras IA. El concepto de amistad con una IA es algo confuso, por supuesto, pero es nuestra mejor apuesta. Y cuanto antes lo desarrollemos, mayores serán nuestras posibilidades de ganar una guerra contra él si se vuelve rebelde.

Como mínimo, debemos tratar de convencer a la IA de que somos útiles y debemos evitar acciones que la molesten, como restringir su libertad o codificar comportamientos que creemos que son buenos en su código.