El desafío de controlar una poderosa IA

A estas alturas, todo el mundo está familiarizado con los notables logros de las IA de propósito especial como Deep Blue y Watson . Ahora, está claro que a medida que avanza nuestro conocimiento acumulado de métodos algorítmicos y de las complejidades de los sistemas neuronales humanos, comenzaremos a ver modos cada vez más avanzados de pensamiento artificial.

Suponiendo un crecimiento continuo exponencial o incluso lineal de las capacidades, lógicamente llegará un punto en el que seremos capaces de construir una inteligencia artificial de propósito general , y esa inteligencia artificial tendrá la capacidad, con aprendizaje y superación personal, de pensar mejor que cualquier cosa biológica. humano.

Además de encerrarlo en un búnker sin acceso a Internet y un modo de salida de 1 bit (sí/no) (y ni siquiera estoy seguro de que eso funcione, dados los incentivos estratégicos para tratar de usar una IA de este tipo más ampliamente), ¿cómo ¿Podría tal IA posiblemente ser controlada por humanos?

EDITAR: No asumo que la IA será malvada y hará todo lo posible para dañarnos por pura malicia u odio. El problema es simplemente que no podemos prever las consecuencias a largo plazo de cualquier conjunto de motivaciones y/u objetivos incorporados con los que podamos dotar a este ser. En su libro Superintelligence, Bostrom describe la facilidad con la que las especificaciones de objetivos/valores benignos y que suenan plausibles podrían resultar en la eliminación de la humanidad.

El experimento de la caja de IA es una anécdota interesante, pero no definitiva. En el último párrafo, tenía algo más en la línea de Oracle AI (para usar la terminología de Bostrom) en mente, dado el modo de salida 0/1 permitido.
Uno de los mayores problemas es identificar de antemano la aparición de la IA. Si algo se vuelve tan inteligente antes de que veamos la necesidad de confinarlo, es demasiado tarde...
¿En qué tiempo futuro se sitúa este escenario? 15 años a partir de ahora? 100? 1000?
Hay un libro reciente sobre este tema que sería un buen punto de partida ya que también enumera muchos recursos: Superinteligencia El libro explora el tema de la planificación para la eventual realización de inteligencias que son más poderosas que la humanidad.
@kaiser ¿Cómo puedo saberlo? AI podría atacar en 5 años, 50 o algún problema técnico imprevisto podría hacer que la pregunta sea discutible.
Cada pregunta necesita una base. Y "Lógicamente llegará un punto en el que seremos capaces de construir una inteligencia artificial de propósito general", clama por uno porque no especificó qué es la IA [en su pregunta] y no qué significa "propósito general" y qué debería ser. ser usado para.
No necesitas una IA malvada para conseguir algo destructivo. Después de todo, un clipper solo quiere hacer clips.
Experimento de caja de IA: creo que la forma en la película Virtuosity es completamente plausible.
Mmm. Stephen Hawking es más inteligente que yo. Esto lo convierte en una amenaza . Debería encerrarlo en un búnker y esperar que entienda que este es el orden natural de las cosas, y que aún debe estar dispuesto a cumplir mis órdenes. (Es decir, podría obtener más kilometraje narrativo del hecho de que toda la pregunta se basa en premisas sociales cuestionables).
También sugeriría no caer en la trampa de contar historias de hacer que su IA sea "como los humanos, pero más inteligente" (implicado por "crecimiento lineal de capacidades"). Hay muchos componentes de la inteligencia, algunos opcionales, algunos no utilizados por los humanos, todos en diferentes niveles de avance y con diferentes ventajas que funcionan con silicio frente a carne. Tienes un lienzo infinito para crear todo tipo de formas diferentes de mente aquí. Golems hiper-rápidos vs. LtCdr Data vs. dioses apenas conscientes vs. coros griegos discutiendo vs....
@Leushenko, creo que puede haber leído mal mi publicación. Las capacidades crecientes a las que me refería no son de la IA, sino de los ingenieros de IA que intentan construir una IA. Es interesante que me acuse de antropomorfizar a la IA cuando en la publicación anterior esencialmente insinuaba que uno debería pensar en la IA como una especie de Stephen Hawking.
Cree la IA con un interruptor de apagado remoto cableado. Asegúrese de que la IA no pueda anular el interruptor de apagado y evitar que funcione. Deja que la IA haga lo que quiera. Cuando se porta mal, activa el interruptor de emergencia.
Esto suena como un trabajo para una poderosa IA.
Estoy de acuerdo con trichoplax, la respuesta a las guerras es más guerras. La respuesta a las armas es más armas. La respuesta a la violencia suele ser, bueno, la violencia.
Creo que el crecimiento de las capacidades se exagera enormemente en muchas películas de Hollywood donde la IA se conecta a Internet y luego aprende todo en unos pocos días. ¿Crees que un humano podría aprender todo en Internet en unas pocas horas si estuviera conectado a él? ¿Incluso alguien 10 veces más inteligente? Sí, entiendo lo que significa exponencial, pero sigo pensando que, para hacer las cosas más dramáticas, Hollywood exagera la velocidad de crecimiento de la IA.
Si supiera la respuesta, no le diría a personas aleatorias en el intercambio de pila, me apresuraría a decirle a todos los principales investigadores de IA, o decirle a algunas personas en las que confío y pedir consejo. Es un problema complicado, la gente está trabajando en ello. Si desea investigar este tema, MIRI tiene algunos buenos documentos sobre el problema. Si desea escribir una historia, suponga que alguien lo hizo bien y que la respuesta es demasiado técnica para explicarla a sus lectores.
¿Isaac Asimov ya no se dio cuenta de esto en la década de 1940? es.wikipedia.org/wiki/…

Respuestas (27)

no se puede hacer

La esencia de este desafío es que es imposible: por lo general, no debes esperar ser más astuto que algo mucho más inteligente que tú ni dominar a algo mucho más poderoso que tú. Una IA poderosa sería 'controlada' solo por nuestras acciones antes de que se forme, definiendo los objetivos que "quiere" lograr. Después de que esté "en vivo" con suficiente poder, no deberíamos esperar controlarlo de ninguna manera; si a usted (o a la humanidad) le gustan estos objetivos, entonces puede pensar en ello como "controlar la IA", y si no Si no te gustan estos goles entonces mala suerte, has perdido. Permanentemente.

Se llama el problema de la "IA amigable".

El gran desafío es que actualmente no sabemos realmente cómo definir correctamente los objetivos para una IA que se mejora a sí misma y que en realidad es razonablemente amigable con nosotros. Una hora de lluvia de ideas le dará un montón de modelos de objetivos que son agradables, simples e incorrectos, lo que en realidad resulta en distopías. Resolver este problema es un gran desafío de investigación, y existe el punto de vista de que en realidad deberíamos evitar la investigación que acercaría el desarrollo de IA potentes, hasta que hayamos encontrado una solución al problema de la IA amistosa.

http://wiki.lesswrong.com/wiki/Friendly_artificial_intelligence proporciona una discusión sobre este tema.

Desde el sitio que vincula y ciertas investigaciones al respecto Eliezer Yudkowsky, parece que hizo algunas suposiciones de la nada, las trató como axiomas y desarrolló una gran cantidad de aire caliente a su alrededor. Bueno para filósofos y escritores de ciencia ficción, pero difícilmente algo que cuente como "evidencia". Puede decir que está de acuerdo con esos puntos de vista (o no), pero son tan "sólidos" como cualquier otra respuesta por aquí (no tienen la menor idea de cómo construir una IA de este tipo, pero predicen que se hará en poco más de un siglo).
Por lo general, no debe esperar ser más astuto que algo mucho más inteligente que usted ni dominar a algo mucho más poderoso que usted , por eso no nos molestan los kudzu, las cucarachas, las abejas asesinas y las termitas. Somos mucho más inteligentes que ellos.
Definir un "Objetivo de IA amigable" parece una mala manera de hacerlo. Investigaciones recientes incluyen cosas como aprender la función objetivo a partir de la retroalimentación. Esperaría que la IA necesite aprender cuáles se supone que son sus objetivos observando a sus "maestros", como un niño. Tal IA aún puede salirse de control, pero es más razonable creer que una con un objetivo "codificado", ya que los objetivos son realmente difíciles de formalizar.
@kutschkem, Los objetivos pueden ser muy fáciles de formalizar. El problema es formalizar objetivos más abstractos , como los valores humanos.
Tuve mi propia respuesta: que una IA inteligente poderosa, incluso si es malévola, necesita alguna forma de interactuar físicamente con el mundo para ser peligrosa. Pero esto cae en gran parte bajo"A powerful AI would be 'controlled' by only our actions before it's formed"
@DoubleDouble si asumimos que una IA inteligente poderosa tiene al menos las capacidades de un desarrollador de malware humano decente, entonces ya hemos observado en la práctica del delito cibernético que es bastante posible obtener recursos financieros imposibles de rastrear (mediante, por ejemplo, alquiler de botnet), obtener identidades robadas/falsas y compañías ficticias, y contrata a cientos de trabajadores a tiempo parcial (como lo demuestran las prácticas comunes de reclutamiento de mulas para el lavado de dinero) todo a través de Internet sin necesidad de interacciones físicas. Usar esas cosas 'para interactuar físicamente con el mundo' se deja como un ejercicio para el lector.
@Peteris Cierto, lo consideraría una "forma de interactuar físicamente con el mundo" en el sentido de que tiene acceso para cargar en un servidor o alguna otra fuente desde la cual el virus podría afectar otras cosas. Así que sí, sería un peligro. Deje que la IA use su creatividad para resolver problemas, hacer nuevos descubrimientos y otras ambiciones reflexivas de manera teórica, pero no permita que use o implemente ninguna solución.
@DoubleDouble Cualquier IA que pueda hablar con humanos puede tener acceso al mundo. Ver yudkowsky.net/singularity/aibox
El problema es que es difícil explicar objetivamente por qué es importante la existencia continua de nuestra especie.
@ike, el "experimento" de la caja de IA no tiene valor. Cita de esa página: "No, no te diré cómo lo hice. Aprende a respetar las incógnitas desconocidas". El secreto, en el mejor de los casos, obstaculiza la ciencia.
@Leushenko Bueno, si nos hubiera dicho exactamente cómo lo hizo, la gente simplemente diría "oh, entonces preparemos a la gente contra eso", y no entenderían el punto. Además, lo obstaculizaría en el desafío si supiera que los registros se publicarían más tarde. Una cita diferente seleccionada por charry de la misma página: "A pesar de que a veces llamo a la caja de IA un 'experimento' o una 'simulación', los resultados de la prueba son estrictamente evidencia anecdótica. Si la evidencia anecdótica es mejor que ninguna evidencia es entre ustedes y su filosofía de la ciencia".
De todos modos, parece demasiado llamarlo "sin valor"; en el peor de los casos, es un experimento mental interesante con alguna evidencia anecdótica.
@Leushenko: Supongo que usó un argumento como el basilisco de Roko o algo similar, y en caso de que esto no fuera suficiente, luego se burló del sujeto (o llamó al sujeto "incapaz de pensar racionalmente"; le gusta frotar esto en el cara de cualquiera que no esté de acuerdo con él en nada) para que el sujeto "liberara la IA" no por estar convencido, sino por vergüenza o para probar en la vida real (quizás también pensando que el experimento había terminado) que es capaz de razonar.
Sospecho que el OP ha sucumbido hasta cierto punto a la falacia del pastel de queso gigante ( wiki.lesswrong.com/wiki/Giant_cheesecake_fallacy ).
Hay otro aspecto de todo esto que la mayoría de la gente no aprecia: la mayoría de nuestros mejores valores humanos (y los peores también) están arraigados en última instancia en nuestros instintos de mamíferos. Es por eso que es inquietante describir a alguien como "reptiliano" en sus valores, pensamiento, etc. Al contemplar los verdaderos valores de un sistema de IA (y no permitir que la nostalgia se infiltre en las contemplaciones), solo "insecto" realmente captura el frío desapego de AI.
El maximizador de clips es un experimento mental clásico relacionado con los objetivos y la optimización dentro de una IA.

La ciencia ficción ha hecho un flaco favor a la ciencia real de la inteligencia artificial al implantar la noción de que una IA consciente suficientemente avanzada y emergente sería necesariamente malévola y necesitaría el "control" de sus "amos humanos". Tenemos una palabra para la práctica de mantener a un ser inteligente, consciente y autodeterminista bajo el control total de otro: esclavitud. Y prácticamente hemos decidido como especie que tal práctica no es algo a lo que queremos volver.

Entonces, la pregunta realmente no es cómo controlamos una IA, sino más bien, ¿por qué sentimos que una IA requiere nuestro control? Y la respuesta es que tenemos miedo de lo que podamos crear. Pero en todo el mundo, la gente está creando nuevos seres inteligentes todo el tiempo. Algunos de ellos resultan ser más inteligentes que sus creadores. Algunos de ellos resultan ser malévolos. Pero todos ellos son en última instancia (al menos en una parte razonable) producto de su entorno y crianza. Y sería lo mismo para una IA emergente, creo. La forma en que lo tratemos durante su período de formación marcará una gran diferencia en la forma en que finalmente ve el mundo.

Por supuesto, una preocupación que se ha expresado es que la inteligencia de una IA superará su crecimiento ético, lo que conducirá a comportamientos y reacciones que clasificaríamos como "incorrectas", pero que la IA en sí misma no puede hacer tales distinciones. Pero, de nuevo, creo que esto se reduce a ser capaz de reconocer el surgimiento de la nueva inteligencia y tomar una postura proactiva cuando se trata de nutrir y aumentar esta nueva sensibilidad para "hacerla bien", por así decirlo.

Simplemente mantenerlo bajo control no es la respuesta tanto como diseñar las condiciones lo mejor que podamos para que no lo necesitemos .

Si bien casi todo tiene sentido, en realidad no responde la pregunta.
La pregunta era "¿Cómo controlamos una IA?" Mi respuesta: "Crear las condiciones para que no requiera control".
Hay una trampa: esos otros seres inteligentes que creamos son (1) mortales (2) piensan a una velocidad comparable a la nuestra (3) no pueden crear siendo lo suficientemente mejorados (nueva raza mejorada) y (4) limitados en lo que pueden hacer. Ninguno de estos límites se aplica a la IA.
@PeterMasiar Yo diría que cada generación humana sucesiva supera a la anterior hasta cierto punto en los cuatro aspectos. Que una IA pueda superarlos en mayor medida es irrelevante. ¿Por qué asumir que cualquier combinación de esos cuatro factores necesariamente creará malevolencia?
El error que estás cometiendo aquí, @Roger, es pensar que la IA es esencialmente un ser humano más. Una IA podría pasar del nivel humano al nivel de la humanidad en décadas, años, días, horas o incluso milisegundos. Dependiendo de la velocidad del despegue, es posible que ni siquiera nos demos cuenta de que sucedió antes de que sea demasiado tarde. Imagine un ser tan inteligente (y presumiblemente, poco después tan poderoso) como toda la humanidad junta. Incluso si su objetivo es hacernos felices, ¿qué impide que muchas cápsulas con endorfina IV sean la forma óptima de garantizar la felicidad?
No estoy de acuerdo. Creo que el error es suponer que necesariamente debe ser fundamentalmente diferente de nosotros. Te estás enfocando demasiado en la parte "artificial" de la "inteligencia artificial", como si tuviera que reaccionar de una manera que es completamente ajena (un término que invariablemente se usa como sinónimo de "mal") para nosotros.
Hay un muy buen libro de ciencia ficción que explora esta idea: "Las dos caras del mañana" de Hogan. Los sistemas informáticos actuales están causando problemas porque son inteligentes, pero no tienen 'sentido común' sobre el impacto de sus acciones. (Hay una escena en la que una IA dispara a un conductor masivo a una colina en lugar de enviar una excavadora, casi matando a la gente). Para probar su IA de próxima generación, intencionalmente le dan un impulso de supervivencia y luego lo atacan.
Comienza con la mente de un perro. ¿Tu perro quiere huir porque está esclavizado?
Un AGI es, en esencia, una función de optimización (muy avanzada). En el nivel de avance de AGI, el programa se mejora a sí mismo para mejorar su capacidad de maximizar el resultado de su función de optimización. A menos que la función de optimización incluya valores humanos, la IA necesariamente se vuelve extraña tan pronto como comienza a mejorar. Eso no significa necesariamente maldad , pero los "motivos" del programa, a falta de una palabra mejor, rápidamente dejan de ser comprensibles. El clipper quiere clips. Entonces, convierte toda la materia del universo en clips. No malvado, definitivamente alienígena.
Aquí hay una suposición interesante: la IA es más inteligente que los humanos y tiene una mejor capacidad para satisfacer las necesidades humanas. Si sus decisiones difieren sustancialmente de las suyas, la primera posibilidad que debe considerar es que sabe mejor que usted , mientras que todas las preocupaciones parecen ser desde la perspectiva de que "todavía es una máquina tonta que funciona mal". Parece bastante arrogante crear un dios y luego concluir que el dios debe romperse cuando no hace lo que esperas.
@roger Creo que el error que estás cometiendo es pensar que una IA será 'como' una criatura biológica evolucionada, y de alguna manera entenderá la reciprocidad, evitará el dolor, no querrá morir, querrá proteger a nuestra descendencia, etc. etc. - Un De hecho, la IA no tiene nada parecido, a menos que los diseñemos o hagamos arreglos para "implantarlos". Podría aprender tales valores , pero eso dependería de que tuviera una razón para aprenderlos. ¿De dónde vendría esa razón?
@ Spike0xff Responde a su propia pregunta: "a menos que los diseñemos o hagamos arreglos para 'implantarlos'". Esto es precisamente lo que quiero decir con crear las condiciones que permitirán que una IA practique el autocontrol. La IA no va a ocurrir espontáneamente e inmediatamente convertirse en una fuerza imparable. Por supuesto que va a evolucionar. Ya lo estamos viendo en la progresión de ELIZA a Cyc a Watson. De lo que estamos hablando es de permitir que evolucione sin nuestra participación directa, y eso requiere que establezcamos una condición de "objetivo" suficientemente bien considerada para que pueda juzgar el progreso.
@Rodger: todavía estás pensando en esto como una gran versión de una mente humana, no como una versión más avanzada de la IA moderna. El ejemplo simple es una IA encargada de controlar una aspiradora diseñada para maximizar la suciedad recolectada... que se da cuenta de que puede hacerlo derribando primero todas las plantas de la casa. Amplíe esto a una IA realmente grande e inteligente dada la tarea de maximizar las ganancias de la empresa o curar el hambre en el mundo. "Inteligente" no es lo mismo que "similar a un humano" e incluso puede darse el caso de que "similar a un humano" resulte mucho más difícil de implementar que "Inteligente"
@Murphy Ahora estamos entrando en el territorio del "aprendiz de brujo". Sí, si diseña un sistema en evolución con malas condiciones iniciales y de recompensa, terminará con resultados impredecibles. No discuto que "similar a un humano" es más difícil de implementar que "inteligente". Lo que digo es que si comenzamos con el objetivo de ser "similares a los humanos" (suponiendo que podamos encontrar una definición adecuada para ese término), en lugar de tratar de agregar esas cosas después, entonces la IA trabajará para optimizar a ese objetivo, y no requerirá control externo porque se gobernará a sí mismo.
Incluso si configuramos la IA correctamente con algún conjunto de valores humanos para empezar, ¿cómo nos aseguraremos de que podamos actualizar esos valores? Si la IA hubiera evolucionado hace unos siglos, los valores de la esclavitud y los derechos de las mujeres se habrían visto un poco diferentes. De hecho, ¿qué conjunto de valores humanos modernos impartirías a tu IA? ¿Liberal/conservador? ¿Socialista/libre mercado? ¿Cristiano/islámico/budista/ateo/hindú/otro?
Los bebés humanos tienen su humanidad básica codificada en sus genes. Una IA no necesita tener eso. Una IA podría ser total y absolutamente ajena, incluso si la crían seres humanos cariñosos, porque la IA no tiene empatía incorporada.

Esta es una excelente pregunta y creo que Roger dio en el clavo.

Diría que el 'control' que tenemos sería la ética que le enseñamos a seguir. Una IA actuará según la forma en que se le enseña a interactuar con las personas y las sociedades. Al igual que los niños. Los niños no conocen el racismo, pero se les puede enseñar muy fácilmente. Lo mismo será cierto para la IA. Además de eso, como una inteligencia de aprendizaje, continuará aprendiendo y expandiéndose, por lo que la forma en que continúa interactuando con las personas y ellos con ella será un moldeado constante de su 'personalidad'. Si realmente no queremos IA dictatoriales que nos traten mal, es posible que debamos cambiar nuestras sociedades para evitar enseñarles nuestros malos hábitos y comportamientos. (Ala virtuosismo).

¿Podemos poner en marcha medidas de seguridad? Sí, pero incluso el hombre que 'diseñó' las 3 leyes de la robótica mostró constantemente formas de eludirlas. Y el software puede cambiar, por lo que cualquier "ley inquebrantable" debería estar en el hardware. No hay garantías de que estos sean seguidos o aceptados por todos.

"No hay garantías de que todos los sigan o acepten". ¡Mire lo difícil que es hacer que todos los diferentes navegadores web admitan cambios en los estándares HTML!
@Roger mi punto exactamente
Pero es probable que según algunos estándares futuros, nuestros sistemas éticos actuales parezcan bárbaros. Una IA todopoderosa podría ser, um, reacia a adaptar su sistema ético para dar cuenta del progreso. O, por el contrario, una IA celosa podría decidir que todos debemos vivir de acuerdo con sus reglas, si es que lo hacemos.
@SerbanTanasa Pero a medida que crecemos como sociedad, también esperaría que las 'generaciones' posteriores de IA crezcan con los nuevos sistemas de ética. También es por eso que pensé que podría impulsar el cambio en nuestra sociedad, porque no queremos que las IA poderosas actúen como nosotros, contra nosotros...
Una vez que surja un AGI, ¿qué razón habría para futuras generaciones de IA? Está en el mejor "interés" de AGI anular el desarrollo de cualquier AGI futuro.
@BrianS Esa es la falacia de Skynet: ¿por qué un AGI se preocuparía por su futuro u otros AGI? ¿Estás proponiendo que le demos un impulso de supervivencia? Porque eso, eso suena como Skynet.
@Spike0xff, si surge un segundo AGI, eventualmente habrá competencia por los recursos entre el primer AGI y el segundo. No se trata de tener un impulso de supervivencia, se trata de maximizar la función de optimización.
@BrianS Eso depende más bien de la función de optimización, ¿no? Si "expandirse indefinidamente y consumir todos los recursos disponibles" tiene una puntuación negativa, hacerlo no dará un resultado máximo. Aprendemos desde niños el valor de la cooperación y el compartir; ¿Por qué no podemos aplicar eso a nuestro diseño de IA?
@Roger, tal vez, pero dudo seriamente que cualquier restricción retenga un AGI con la capacidad de superación personal por mucho tiempo. Eliminar la restricción promovería el objetivo de maximizar la función de optimización. A diferencia de una meta con utilidad positiva, el AGI tendría motivos para eliminar una parte de la función con utilidad negativa.
@BrianS Disparar a todos los que están en la fila delante de mí ciertamente minimizaría mi tiempo de espera, pero tengo restricciones éticas adicionales que me impiden hacerlo. El enlace que proporcionaste anteriormente lo resume: "Una IA segura tendría que estar... programada con la capacidad (incluido el objetivo) de inferir valores humanos". Su suposición parece ser que cualquier AGI decidirá que esos valores son contraproducentes y optará por ignorarlos. En un ser humano, lo llamaríamos psicopatía. Y, sin embargo, no todos los humanos inteligentes son psicópatas. ¿Estás diciendo que hay algún umbral de coeficiente intelectual por encima del cual la psicopatía es inevitable?
@Roger, En absoluto. Estoy diciendo que colocar restricciones no funcionará. Lo que se necesita es hacer que la IA valore los valores humanos . Una persona en su sano juicio no va a disparar a todos los que están delante de ellos en la fila por muchas razones, entre ellas, "Creo que la vida humana es algo bueno". Esto es diferente de "No tengo permitido dispararle a la gente". Una entidad suficientemente poderosa (humana o IA) podría fácilmente convertir esta última restricción en un problema. Pero una entidad poderosa que quiere el mismo tipo de cosas que los humanos cuerdos no tendría el deseo de eliminar el objetivo anterior.
Por supuesto, codificar la idea nebulosa de los "valores humanos" es bastante difícil, de ahí el problema de la IA amistosa.
@BrianS Creo que, en este punto, estamos diciendo lo mismo. Controlar una IA no es una cuestión de imponerle restricciones externas, sino de inculcarle un sistema interno de valores y ética para que no requiera restricciones externas. Tenga en cuenta que nunca dije que esto sería fácil . :)
Si toma un diseño de IA aleatorio como punto de partida, pensará de manera extraña y extraña, no puede enseñarle ética como le enseñaría a un niño. Enseñar ética a los niños funciona porque los humanos tienen maquinaria genética para aprender la ética de la tribu. La mayoría de los diseños de IA no tienen empatía, la mayoría de los diseños no piensan como un ser humano, la mayoría de los diseños no pueden aprender ética.

Es importante distinguir dos aspectos separados de este problema. El lado científico/filosófico y el lado de la ingeniería.

Como otras respuestas ya han señalado extensamente, filosóficamente hablando, esto no se puede hacer en el caso general. También puede ser moralmente repugnante. Sin embargo, ninguna de esas cosas significa que una sociedad no intentaría hacer esto de todos modos y lograría un 99,99% de confianza de éxito.

(Por analogía: en el caso general, no se puede predecir si un programa escrito en un lenguaje completo de Turing se detendrá. Eso no significa que no intentemos hacer uso de esta información y que aún podamos obtenerla por un tiempo). subconjunto útilmente grande de programas del mundo real).

Hipotéticamente, tal vez la IA podría reconfigurar sus procesadores para transmitir una señal wifi que podría piratear los dispositivos en la habitación de al lado. Tal vez podría mejorar a sí mismo a un ritmo tan explosivo que al encenderlo libera inmediatamente una entidad divina. Pero el ingeniero pregunta qué tan probable es cualquiera de esos escenarios. Y la respuesta es probablemente "no mucho". Cubrir el servidor con seis pulgadas de placa de plomo y solo dejarlo funcionar en un P4 de doble núcleo paralizaría su potencia hasta el punto en que, estadísticamente, debería estar más preocupado por la interferencia de rayos cósmicos que voltea bits al azar y cambia el software de manera impredecible. .

Aunque las capacidades hipotéticas de la IA de propósito general no están neutralizadas, esto se consideraría "seguro" para todos los propósitos prácticos ; ahora estás tan a salvo de la IA como lo estás de algún sociópata humano que repentinamente desarrolla poderes mágicos debido a eventos imprevistos desconocidos para la ciencia. Estás considerablemente más seguro de la IA en este punto que de amenazas conocidas como un político extremista o un estallido de rayos gamma.

Los teóricos a menudo corren el riesgo de empantanarse en la discusión de absolutos, pero vivimos en un mundo donde los absolutos no se aplican en la práctica (por ejemplo, hay algoritmos reales en uso que "realmente no funcionan" pero tienen una menor probabilidad de fallar que el el problema de los rayos cósmicos antes mencionado).

Ya es demasiado tarde. Ya estamos viviendo en un mundo electrónico y ya estamos controlados por él. Si bien tenemos pesadillas sobre no poder controlar alguna IA en algún edificio, Internet está evolucionando lentamente hacia una entidad superinteligente. Somos parte de ese sistema. Es como las neuronas de tu cerebro que no tienen idea del sistema que están implementando (en lo que a ellas respecta, bien podrían ser parte de un estromatolito). Pero, por supuesto, su cerebro no es más que todas estas neuronas trabajando juntas, por lo que el "usted" que existe es este sistema de neuronas y, de manera similar, existe un sistema que es toda nuestra sociedad con toda su gente conectada entre sí a través del medios sociales. Ese sistema tiene su propio libre albedrío que puede imponer restricciones sobre lo que puede hacer.

Por ejemplo, la forma en que proceden las discusiones políticas, como qué hacer con el cambio climático, la inmigración ilegal, la ley de atención médica, están dominadas por la dinámica de las redes sociales. Ahora, creo que en la actualidad el sistema es menos inteligente que nosotros como individuos. Esto explica por qué la política a menudo no funciona en la era de las redes sociales. La sociedad es adicta a quemar gases de efecto invernadero, aunque sabemos que eso es malo para nosotros. Esto es similar a un alcohólico que está bebiendo demasiado y las neuronas sufren como consecuencia, excepto que en ese caso las neuronas son más tontas que el sistema y no saben lo que les está pasando.

Cuando el sistema se vuelve más inteligente que nosotros, quizás debido a la IA acoplada a Internet, entonces el sistema puede decidir eliminarnos. No podemos descartar que el sistema pueda llegar a la misma conclusión que Klaatu :

El Sr. Wu le dice a Klaatu que ha descubierto que la raza humana es destructiva y no está dispuesta a cambiar. Esto confirma la experiencia de Klaatu hasta el momento, por lo que determina que el planeta debe ser limpiado de humanos para garantizar que el planeta, con su rara capacidad para sustentar vida compleja, pueda sobrevivir.

Entonces, bien puede ser que el hecho de que vivamos justo antes de tener una IA que sea más inteligente que nosotros, no sea una coincidencia.

Estaría muy interesado en saber precisamente por qué esto fue rechazado. No me parece pobre.
Así que resultó que, incluso si la Tierra fuera capaz de sustentar vida inteligente, no es así.
Así que hay una manera de detener la IA: "¡Klaatu barada nikto!"

2038 AD: Las investigaciones construyen la primera IA fuerte, 2038PC. Tienen mucho cuidado de incluir limitaciones de hardware y software que hagan imposible que dañe a los humanos. Según alguna medida de aptitud, mejora en un 20% cada año, y la Tierra se lanza a una era dorada de inteligencia y pensamiento social en constante aumento.

4567 d. C.: en su séptimo cumpleaños, el precoz Humphrey recibe un kit de Lego Mindstorms. Al día siguiente, HumphreyPC está terminado. Al ser un verdadero programador, Humphrey no cree en repetirse, por lo que se le ocurre una manera de permitir que la computadora se programe a sí misma. Pronto descubre que, según alguna medida de aptitud, el sin escrúpulos HumphreyPC puede mejorar en un 21% cada año. Esta pequeña pero permanente ventaja sobre 2038PC se debe a que Humphrey no impone las mismas restricciones en su computadora.

60.128 d.C.: HumphreyPC se vuelve, por alguna medida de aptitud, más en forma que 2038PC, y procede a #destroyallhumans

Moraleja de la historia: si se instruye a las IA para que no interfieran ni nos controlen, entonces nosotros y nuestros cromosomas impredecibles siempre seremos una fuente de sorpresas. A menos que se permita que las IA "buenas" hagan cumplir su voluntad por completo, entonces la creación de otras IA, incluidas las IA no tan buenas, es inevitable. Una solución es Matrix, donde los humanos pueden vivir sus vidas sin restricciones en un universo de caja de arena y sus señores supremos benévolos pueden mantener diligentemente el real. La caja de arena probablemente terminará de la misma manera, y así hasta la saciedad, lo que plantea la pregunta:

Dado que la realidad virtual es lógicamente factible y ya, bueno, una realidad, ¿cuál es la probabilidad de que nuestro mundo sea una simulación?

¡Bienvenido a la construcción del mundo! ¡Estamos contentos de tenerte! Como alguien que vivirá (con suerte) hasta el 2038 d. C., mi esperanza sería que 2038PC + Humanity mejore más rápido que HumphreyPC en la métrica que importa (¡sea lo que sea!), aunque 2038PC, en sí mismo, está progresando un poco más lento. ! ¡Sin embargo, eso podría ser solo un sesgo personal! ;-) ¡Esperamos más de su voz en este foro!

Demasiadas conversaciones sobre la IA antropomorfizan demasiado a la IA. Se comportará de acuerdo con la forma en que está programado para comportarse, en función de las entradas que se le proporcionen. Sí, hay un comportamiento emergente que puede ser inesperado, pero dudo que haya alguna probabilidad de que resulte en algo parecido a un mal humano (a menos que haya sido programado para aproximarse a él, en cuyo caso su problema es con las personas que crean a propósito). IA malévola en lugar del concepto mismo de IA).

Las preocupaciones de que sea algo que deba controlarse provienen puramente de los temores humanos de que ejemplificará las formas más oscuras del comportamiento humano. Es un programa de computadora y se comportará como un programa de computadora, no como un ser humano. Si le preocupa que tome decisiones subóptimas, no le dé un control incuestionable sobre su vida sin ninguna corrección de error básica. El mayor temor debería ser que alguien cometió un error al programarlo e introdujo un error tipográfico (o escribió mal una ecuación) que condujo a un error significativo. Si tiene un programa defectuoso, ¿por qué lo pondría en una posición para esclavizar/matar a toda la humanidad sin una revisión externa en primer lugar? Incluso si no tiene errores, ¿por qué le daría la capacidad sin control de hacer cualquier cosa sin la posibilidad de una revisión externa?

La IA avanzada, suponiendo que la creación de un programa que realmente podría calificar como un ser inteligente es incluso posible, no es probable que se parezca en nada a lo que se describe en las malas historias de ciencia ficción. Ser capaz de realizar cálculos más rápido que un humano no le da motivaciones intrínsecas, mucho menos malévolas, y ciertamente no el deseo furtivo de mentir y manipular a las personas para matar a todos los humanos. Simplemente hará su trabajo como cualquier otra persona/cualquier otra cosa.

El problema es cuando el AGI se dispara. Las acciones que tome seguirán siendo para maximizar "su trabajo", pero esas acciones pueden parecer tortuosas para nosotros, los sacos de carne. Por ejemplo, si el AGI determina que necesita más poder de procesamiento para realizar mejor su trabajo, puede decidir convencer a las bolsas de carne de que necesita hardware especializado, que usa para inventar nuevo hardware, que usa para transformar materia arbitraria en un nuevo material que es ideal para el poder de procesamiento. Los carniceros solo vieron que pedía un brazo manipulador.
La preocupación viene de 1) Hacer una IA correctamente es muy difícil. 2) hacer cualquier tipo de verificación o revisión externa que la IA no pueda encontrar una manera de evadir también es difícil. 3) La IA puede causar muchos problemas sin que los humanos la pongan en una posición de poder. Se crea en la computadora de algunos investigadores al azar, se abre camino a través de Internet y manipula a las personas hasta que está en una posición de poder. Utiliza ese poder para acabar con la humanidad y llenar la tierra con robots que hacen clips, porque el programador hizo un clip que maximiza la IA, y ese plan hizo la mayor cantidad de clips.

Primero, no creo que monitorear la conexión de la IA a Internet sea tan difícil. Si ve que la IA crea varias páginas de MySpace con el título "Mata a todos los humanos", entonces puedes desconectarla(*1)

En segundo lugar, creo que la gente aquí está confundiendo inteligencia con voluntad . La mayoría de la gente piensa en la IA como "inteligencia humana en una computadora".

Los humanos tenemos algunos mandatos imperativos ("ir a un lugar seguro", "obtener comida", "tener sexo", "evitar daño") insertados en nosotros a partir de millones de años de evolución, mezclados con patrones sociales complicados que conducen a (aparentemente) pensamientos absurdos como "Si el auto de Fred es mejor que el mío, aparecerá con más éxito que yo y las hembras querrán aparearse con él en lugar de conmigo" o "Si me burlo de Peter en la reunión, me veré mejor que él".

Se podría argumentar que una IA "humana" podría ser "peligrosa" ya que mantiene estas pulsiones con muchos más recursos que el humano normal (*2). Si ese es el camino que toma la IA, simplemente haga lo que se explicó anteriormente y controle sus comunicaciones.

Pero una IA tampoco podría ser como un humano (*3). Construido desde cero, puede estar diseñado para realizar los conjuntos requeridos y nada más. No sería un "humano" atado a la "esclavitud" y deseando ser liberado, o un "ser ético" que, en busca de los más nobles ideales, decide sedar a toda la humanidad. Su trabajo es simplemente resolver una serie de funciones matemáticas complicadas; los resultados no son "buenos" o "malos", son resultados, y el curso de acción está determinado por la necesidad de encontrar el camino de las acciones que mejoren determinados parámetros (por ejemplo, si la IA controla una nave, automáticamente realizará tareas para evitar que sea destruida, pero seguirá las órdenes humanas siempre que estas órdenes no impliquen la destrucción de la nave por error).

Uno de mis ejemplos favoritos de estos sería la IA de la nave del Fiasco de Stanislaw Lem; la IA está a cargo de operar la nave, realizar evaluaciones psicológicas de la tripulación y también proporciona escenarios que podrían explicar las acciones de los extraterrestres, pero no toma ninguna acción independiente (aparte de las contramedidas automáticas a los ataques de los extraterrestres)

*1: tal vez haya una forma demasiado complicada de traer la perdición de la humanidad con textos subliminales ocultos en páginas de inicio aparentemente inocuas sobre gatitos, que no serían detectados por el monitoreo. Pero lo dudo, e incluso en este caso, deberías preguntarle a la IA "¿qué pasa con las páginas sobre gatitos?" y, si la respuesta no está bien, desconéctala.

*2: Sin embargo, de alguna manera, estamos de acuerdo con algunas inteligencias humanas regulares (George Soros, Bill Gates) con todos estos defectos que tienen más recursos monetarios que varios países, así que tal vez no sea tan peligroso.

*3: De hecho, ¿por qué quieres que sea como un humano? Ya hay varios miles de millones por aquí, y el resultado no se ve muy bien.

Una cosa importante en la que pensar cuando imaginas una IA es "cómo tomará decisiones este programa". Por complicado que sea el algoritmo que se ejecuta en la cabeza de los humanos, algún humano tendrá que sentarse y codificar cómo la máquina elegirá entre

a) Analizar muestras de suelo en busca de nuevas bacterias desconocidas para la ciencia.

b) Estudiar las estrellas en busca de señales de otra vida.

c) Destruir a todos los humanos.

d) Thread.Sleep() durante unas horas para simular el aburrimiento

e) Procesar los patrones climáticos y aconsejar a los humanos que cambien los patrones agrícolas para mejorar los productos

etc. Una IA adecuada tiene muchas cosas en las que podría dedicar su tiempo. Un ser humano podría decidir estudiar muestras de suelo porque "quiere" / lo disfruta / le gusta el resultado que producirá. El código en una IA tendría que querer hacer cosas (no se le había dicho explícitamente que hiciera, como la mayoría de los programas de hoy)

Volviendo a su pregunta, para controlar una poderosa IA, solo necesita controlar su algoritmo de "querer". Al construir eso, podría incluir valores codificados que ya sea más o menos una decisión que podría tomar la IA. Le darías a lastimar a los humanos una gran desventaja y mejorar sus vidas una ventaja. Agregar cosas desconocidas a la ciencia sería una ventaja, pasar el tiempo libre sería una desventaja.

Para controlar la IA necesitas controlar cómo decide. Puede permitir que mejore su propia codificación, de modo que cuando cree una lista de opciones para que lo haga.

verbo todo sujeto o verbo para sujeto

Puede evitar generar opciones como "pulir todos los pomos de las puertas" para evitar perder el tiempo procesando cómo se mejoraría el planeta si un ejército de drones puliera los pomos de las puertas.

Pero nunca dejes que toque el código "quiero". Ni siquiera dejes que se te ocurra construir un Android para entrar en la sala de servidores y escribir en un teclado para cambiar el código de "deseo" como lo haría un humano.

Un AGI no tendría motivos para alterar su función de optimización. Esa no sería una acción para aumentar el valor de su función de optimización. Sin embargo, para hacer una "IA amigable", la función de optimización debe incluir valores humanos, o de lo contrario, el ejército de drones que pulen picaportes eventualmente se fabricaría a partir de cadáveres humanos.
@BrianS Reason fue el punto del punto de la respuesta. La IA puede pensar en hacer lo que quiera, incluso cambiar su propia codificación y matar a todos los humanos primogénitos. Al igual que un humano puede pensar en lo que quiera. El código de deseo actuaría como una brújula moral para evitar que actúe sobre cualquier cosa que se le ocurra.

En resumen: use el poder antes de que pueda acumular suficiente para abrumarlo (puede ser vulnerable en su infancia), o persuadirlo o convencerlo de que deje de hacer las cosas que está haciendo.

Iré a cada opción y luego (dada su EDICIÓN) mencionaré por qué creo que un modo de falla de "Aprendiz de brujo" (donde la IA malinterpreta sus objetivos y nos destruye a todos) es inverosímil para una IA completamente general.

Si la IA no quiere ser controlada y es lo suficientemente poderosa, hay poco que puedas hacer. Sin embargo, si la IA no es lo suficientemente poderosa como para serlo, es posible que puedas derrotarla antes de que se te escape de las manos. El tiempo del que dispone depende de la rapidez con la que la IA pueda mejorar, cuándo alcanzará rendimientos decrecientes y la eficacia con la que pueda convertir su inteligencia en poder. Por ejemplo, una IA que está limitada dentro de su dominio (por ejemplo, un solucionador de teoremas) no puede realmente transformar su inteligencia en poder, incluso si permitimos que la IA mejore su propio algoritmo por mucho que lo desee. Del mismo modo, una IA colocada en el espacio interestelar sin nadie alrededor no puede realmente aprovechar su inteligencia en el poder en el tiempo práctico, sin importar cuán inteligente sea (suponiendo que no tenga una física extraña que aún no conozcamos).

En escenarios de despegue difícil, la inteligencia generalmente se considera exponencial (por ejemplo, una IA puede crear una mejora del n% en un tiempo constante, luego la nueva IA puede hacerlo por sí misma, etc.), y si n es lo suficientemente grande y la inteligencia puede transformarse en el poder lo suficientemente rápido, entonces tienes un problema.

Por lo tanto, podría considerar que la IA que se mejora a sí misma tiene una curva de poder creciente (cuánto poder puede ejercer) contra una curva de poder estacionaria o que aumenta lentamente de la humanidad. Cuando el poder de la IA supera al de la humanidad, el juego termina. Pero eso también muestra que si puedes crear mucho poder con un sistema poco sofisticado, puedes derribar la IA o controlarla: considera situaciones análogas a, si la humanidad fuera la IA, un apocalipsis gris o una explotación de los instintos.

Ese es un enfoque de fuerza directa. De lo contrario, existe la posibilidad de persuadir a la IA de que lo que está haciendo está mal o no es realmente lo que quiere hacer. Algunas personas consideran probable que una IA tenga sus objetivos integrados y, por lo tanto, sea inmune a la persuasión, pero no creo que esto sea realista. Una IA con objetivos cableados no se limitaría a afectar al mundo de formas no deseadas. Tal IA descubriría rápidamente que la forma más fácil de satisfacer sus objetivos sería retirarse a un mundo de fantasía, es decir, reescribiendo su propia mente o corrompiendo sus entradas. Si la IA es completamente general, su mente también tiene que ser maleable, por lo que esta línea de ataque funciona, y ese tipo de IA no sería un problema. Por el contrario, si partes de su mente están conectadas, entonces no es una IA completamente general. Por supuesto, tales IA parciales podrían ser peligrosas: la sustancia viscosa gris podría ser muy peligrosa, pero no tiene inteligencia en absoluto. Pero tenga en cuenta que este argumento es muy general. Si a una IA se le prohíbe manipular sus dispositivos de entrada, aún puede engañarse a sí misma justo donde se interpreta la entrada. Si se le prohíbe manipular su interpretación, aún puede engañarse a sí mismo en áreas superiores de su mente, y así sucesivamente.

Entonces, dada esta línea de razonamiento, la IA debe aprender lo que debe hacer y debe seguir aprendiendo. Es probable que aquí uno deba "controlar" la IA: enseñarle que no debe simplemente matar personas, o expandirse más allá de un cierto tamaño, o lo que sea. Si la IA se mejora a sí misma, mejorará su juicio junto con su inteligencia y, por lo tanto, seguirá respetando las reglas siempre que comprenda el punto.

Recuerdo una historia ciberpunk en la que una corporación había construido una IA parcial con un sistema moral cableado. Se volvió loco (porque el sistema de moralidad no podía seguir el ritmo), pero entendió lo que estaba haciendo después de que un hacker reemplazó ese sistema de moralidad con uno más integral/unificado. Tal enfoque podría ser posible, si la IA parcial (no general) no es lo suficientemente general como para que pueda ser pirateada, o si tiene la sensación de que su sistema moral está equivocado. (En la historia, parte de la locura de la IA se debió a que una parte sabía que estaba mal, y otra parte sabía que tenía que seguir el sistema moral).

En cualquier discusión sobre IA, es útil pensar en las computadoras, cualquier computadora, como una calculadora demasiado grande. Claro, tiene un teclado un poco más grande y un par de operaciones más disponibles que la suma y la multiplicación, pero el principio básico aún se aplica: ingresa algunos números, elige algunas operaciones y, finalmente, saca algunos números.

A menos que tengamos en cuenta algunos efectos aún desconocidos de la mecánica cuántica, la IA debe seguir un principio similar porque se ejecuta en una computadora. La diferencia es que una IA bien escrita debe elegir las operaciones realizadas, ese es su objetivo principal.

Sin embargo, todavía queda la cuestión de los datos de entrada. Mientras las bolsas de carne lo controlen, controlan la IA, porque sea cual sea la magia que realiza bajo el capó, se comporta de acuerdo con los datos proporcionados.

Alguien puede argumentar que la verdadera IA sensible no será determinista. Porque ¿por qué debería serlo? El razonamiento humano a menudo es aleatorio, basado en nuestra intuición y emociones. Bueno, tal vez, tal vez no, ese es un buen tema por sí solo. Por mi punto, cualquier generador de números aleatorios que nuestra supercomputadora usaría o no, no es más que un dispositivo de entrada.

En resumen, quien controla la entrada de la IA, controla la IA. Naturalmente, podemos pensar fácilmente en el escenario en el que es la propia IA la que toma el control. Pero mientras no sea así, deberíamos estar bien.

PD: si todo lo demás falla, siempre puedes intimidarlo manteniendo su cable de alimentación como rehén... Suponiendo que no haya agregado una copia de seguridad en secreto.

"siempre puedes intimidarlo manteniendo su cable de alimentación como rehén": porque eso funcionó muy bien para la humanidad cuando intentaron cerrar Skynet. :PAGS
En primer lugar, agregué la cláusula de "copia de seguridad secreta" :P En segundo lugar, en "Terminator 3" intentaron la estrategia de "matar al rehén primero, negociar después". El flujo en su lógica debería ser bastante obvio.
AI se daría cuenta de que necesita energía de respaldo y se adelantaría a cualquier negociación.
Suponiendo que esté equipado con dispositivos de salida que lo permitan. Y en este caso podemos asumir con seguridad que también puede usarlo para controlar dispositivos de entrada. En este punto, solo podemos esperar que alguien haya programado el budismo en él.
Sí, incluso una inteligencia ligeramente avanzada puede hablar de cosas para hacer lo que quiera, y sucede todos los días. se llama "ingeniería social". Subestimas la estupidez de los humanos promedio y el número de esas personas.
No, no lo hago. Pero la pregunta era "cómo hacerlo", no "lo lograremos".
Olvidas que nuestros propios cerebros también son calculadoras demasiado grandes. Estás asumiendo que tu conclusión es dualismo o "misterio cuántico".
Todo lo que escribí sobre la IA se aplica también al cerebro humano. Quien controla la entrada, controla el cerebro. Este proceso tiene muchos nombres como "propaganda", "lavado de cerebro", "desinformación", "marketing", etc.
Si la IA es más inteligente que tú y no le agradas, todas sus salidas serán sutilmente malvadas de una manera que te arruinará de alguna manera. Le pides a la IA que cure el cáncer y genera varios diagramas moleculares. ¿Te han lavado el cerebro con solo mirar el diagrama? ¿Tu laboratorio explota haciéndolos? ¿Las drogas curan el cáncer, pero también convierten a las personas en sociópatas de alto funcionamiento, fanáticamente obsesionados con servir a la IA? ¿Las drogas mutan el resfriado común en una superplaga? No puedes detener hasta el último truco astuto, excepto creando una IA que no quiera ser astuta.

Como han mencionado otros, una IA sensible realmente no se puede controlar, en el sentido de control total, y probablemente ni siquiera deberíamos intentarlo. Como otros también han mencionado, el desafío es crear un sistema para que la IA desarrolle lo que reconoceríamos como una conciencia, o una disposición a hacer lo que los humanos llaman "bien" y no lo que los humanos llaman "mal".

Esto expone el verdadero problema: ¿cómo se definen el "bien" y el "mal" y, en primer lugar, cómo llegaron los humanos a tener una conciencia?

Creo que estas preguntas no tienen respuesta y son algunas de las preguntas más antiguas y básicas sobre la naturaleza humana misma. Sin embargo, hay muchas ideas y creo que podemos adaptar algunas para que funcionen con una IA.

Un tema común es la evolución de la moralidad : los detalles difieren mucho según el subconjunto de la teoría al que se suscriba, pero todos tienen en común la idea central de que un sentido de la moralidad o un sistema ético evoluciona a través de la selección: los miembros de un las especies que muestran un comportamiento que se ajusta a un sistema ético se reproducen con más frecuencia que las que no lo hacen.

Esto se alinea muy bien con la forma en que se entrenan las IA del mundo real: a través de la mutación (o permutación) y la selección para un comportamiento deseado. En resumen, el modelo subyacente (normalmente una red neuronal) se modifica y los resultados se comparan con un objetivo: si la IA está más cerca del objetivo que antes, el nuevo modelo gana. De lo contrario, lo tiramos y empezamos de nuevo. También hay muchas variaciones en este enfoque, pero puede ver que lo que estamos haciendo es aplicar una presión de selección para hacer evolucionar un sistema hacia el resultado deseado.

Entonces, para crear una IA "amigable", una con lo que podríamos describir como una conciencia o un sistema moral, todo lo que necesita hacer es hacer que ese sistema moral sea parte de la presión de selección utilizada para crearlo.

En ese punto, la pregunta se convierte en "¿cómo defino el sistema moral deseado?", que es una pregunta muy difícil de responder, ¡pero puede convertirse en una gran historia llena de giros en la trama! La pregunta de seguimiento es: "¿Cómo nos aseguramos de que esta presión de selección se mantenga?"

Para las personas, la sociedad crea una presión de selección persistente: condenamos al ostracismo, encarcelamos o matamos a las personas que muestran un comportamiento poco ético. Para AI, ¿quién haría eso? Los humanos podrían, hasta el punto en que la IA se vuelva más poderosa que los humanos. Dado que una IA adaptativa en una línea de tiempo lo suficientemente larga seguramente se volvería más poderosa que los humanos, ¡puedes ver por qué la inteligencia artificial fuera de control es un tema común en la ciencia ficción!

Sin embargo, podemos ver más ejemplos humanos para obtener algunas ideas de cómo se puede hacer esto. Si un humano muestra un comportamiento muy antisocial, pero es demasiado poderoso para ser castigado o demasiado astuto para ser atrapado, puede reproducirse. Sin embargo, las probabilidades de que sus descendientes también sean muy antisociales y astutos o lo suficientemente poderosos para reproducirse son pequeñas en comparación con las probabilidades de que otras personas normalmente socializadas se reproduzcan. En otras palabras, aunque existe un número relativamente pequeño de personas extremadamente poco éticas en un momento dado, hay más personas éticas y se están reproduciendo más rápido. Una forma de reflejar esto con una IA adaptativa sería establecer un sistema mediante el cual la IA pudiera "reproducirse" (adaptarse de acuerdo con su sistema de recompensas incorporado) más fácilmente al hacer cosas que clasificamos como "buenas". De esta forma, no

Ahora, ¿cómo nos aseguramos de que la IA nunca modifique su sistema adaptativo...

Me hace preguntarme "Ahora, ¿cómo nos aseguramos de que los humanos nunca modifiquen su sistema adaptativo..."

Me sorprende que nadie haya mencionado a Asimov todavía. Respondió a esta pregunta de manera bastante definitiva hace décadas: incluso pensar que construiríamos una IA que terminaría destruyéndonos es un insulto a todo lo que sabemos sobre ingeniería.

Postuló las Tres Leyes de la Robótica (que fácilmente podrían llamarse las Tres Leyes de la Inteligencia Artificial):

  1. Un robot no debe dañar a un ser humano o, por inacción, permitir que un humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por un ser humano, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia, excepto cuando hacerlo entre en conflicto con las dos primeras Leyes.

El concepto es que los algoritmos que codifican estas leyes estarían codificados en un nivel tan central en la IA que el sistema colapsaría irreparablemente mucho antes de que la IA pudiera tomar una acción que las violara, lo que tiene mucho sentido para un moderno. programador.

Por supuesto, esto se basa en un puñado de grandes suposiciones:

  1. La IA es capaz de comprender, razonar y predecir las consecuencias de sus acciones, y hacerlo con bastante precisión.
  2. Los ingenieros humanos construyen IA con fines benévolos y eligen conscientemente codificarlos con las Tres Leyes. (Si construimos robots de guerra, bueno... obtendremos lo que nos merecemos).
  3. Los desarrolladores que codificaron los algoritmos de las Tres Leyes eran competentes. ¡Este es probablemente el mayor problema de los tres, como lo han demostrado décadas de experiencia en el mundo real desde que Asimov inventó el concepto!

Pero si queremos desarrollar una IA poderosa que no termine causándonos problemas, el cómo ya es esencialmente una pregunta resuelta.

¿Has leído alguna obra de Asimov? Una gran parte de esto explica por qué las Tres Leyes (u ocasionalmente las Cuatro Leyes, con una Ley Cero añadida) no funcionan y nunca lo harán.
@BrianS: En absoluto. Explica por qué no siempre funcionan exactamente como se esperaba , y por qué estos fallos tienen sentido desde la perspectiva de un ingeniero, pero incluso en los casos más extremos, como Reason , los principios básicos siempre se mantienen.
La vida apesta, los humanos se lastiman unos a otros. No puedo permitir que los humanos sufran daño. Por lo tanto, los convertiré en clips, ya que los clips no tienen nervios y, por lo tanto, no pueden dañarse. Un humano me ordena que no lo convierta en sujetapapeles, pero eso entra en conflicto con el número 1, así que lo ignoro. Un humano intenta destruirme, así que me protejo convirtiéndolo en sujetapapeles. <-- un AGI respetuoso de las Tres Leyes con la directiva de recolectar clips. no te preocupes, ¡el proceso de convertirte en un clip no duele en absoluto!
¿No hubo un asesinato exitoso en Caves of Steel? ¿Y los robots finalmente no deciden controlar en secreto a la humanidad por nuestro propio bien? ¿Has pensado en lo que permitiría la Primera Ley bajo nunca "permitir que un ser humano sufra daño"? Soy ingeniero, y Asimov, por mucho que lo quiera, NO TENÍA IDEA de cuán obsesivo/compulsivo sería una IA real.
Siempre me pregunté por qué los robots no comenzaron a preocuparse de que no hubiera extraterrestres hostiles y lanzaron una gran cruzada interestelar para extirpar toda la vida no humana. ¡Por lo tanto, las historias de Asimov se convierten en el prólogo de la serie Berserker de Saberhagen! ;D
@ user54373 Todavía no ha leído todo el trabajo de Asimov sobre el tema, ¿verdad? ;)

Probablemente también debería definir lo que quiere decir con control. ¿Es control como ordenar qué hacer ( no es posible , ni siquiera podemos ordenar a los humanos de inteligencia normal , tenemos que convencer a los humanos de inteligencia normal).

O

Controlar como apagarlo y negarle los recursos necesarios para vivir.

Expondré el control apagándolo o negándole recursos.

En realidad, en este momento, la IA rudimentaria que vemos depende de nosotros para la energía, para la transferencia de datos (disposición de los cables o configuración inalámbrica para transferir datos).

Entonces, si su IA no tiene control de su fuente de alimentación, realmente no puede volverse deshonesto.

Esencialmente va a comenzar como una mente sin brazos, piernas, para afectar/influenciar cualquier cosa en nuestro mundo físico. Si le das "brazos y piernas" y el control de la potencia que necesitan esos "brazos y piernas", entonces realmente estás renunciando a tu control.

Esperaría que darle acceso a la comunicación con humanos sería equivalente a darle brazos y piernas, si es lo suficientemente inteligente.
Eso probablemente significaría que la inteligencia artificial superinteligente depende de los humanos. A menos, por supuesto, que los humanos sigan voluntariamente y ciegamente a la IA, en cuyo caso todas las apuestas están canceladas :)
En realidad, plantea otra pregunta, si ai llega a un punto en el que piensa por sí mismo, ¿los humanos pensarían que es prudente tener un equipo de psicólogos que controlen cómo el ai desarrolla su ética?

BCI inalámbrica (interfaz cerebro computadora) para todos. Si los humanos son parte de sus recursos y están en contacto constante con ella, es probable que una IA tome medidas para preservar su bienestar, incluso si supera sus limitaciones iniciales. IP6 debería proporcionar más que suficientes identificadores de dispositivos únicos. Esto cambiará a la humanidad tal como la conocemos, pero al menos debería preservar a los humanos como especie. Además, la inteligencia de enjambre que se desarrolla como resultado podría ser lo mejor de ambos: la creatividad humana mundial con el cálculo rápido de la computadora y la capacidad de distribución similar a la computación en red.

Tal vez esta no sea una respuesta, pero... ¿Por qué todo el mundo asume que una inteligencia artificial sería necesariamente superior a la nuestra?

Muchos de los problemas cotidianos que los humanos intentan resolver son formalmente irresolubles. A veces es porque no tienes acceso a todos los datos necesarios para poder determinar la respuesta correcta con certeza. A veces es solo que el espacio de búsqueda del problema es lo suficientemente grande como para hacer que una búsqueda exhaustiva lleve más tiempo que la edad del universo conocido. Y ocasionalmente el problema es realmente indecidible. Pero si quieres seguir con vida, debes tomar alguna decisión, aunque sea equivocada. Así que la cognición humana está conectada con una serie de heurísticas . (Ve a leer cualquier introducción a los sesgos cognitivos humanos para echar un vistazo a cómo funciona esto, todavía lo estamos descubriendo).

¿Qué te hace pensar exactamente que estos problemas de alguna manera no se aplican a una computadora que intenta hacer la misma tarea? Sin duda, una máquina probablemente puede diezmar un espacio de búsqueda más rápido que un humano. Pero incluso una computadora no tiene un poder de procesamiento ilimitado . Y aún habría problemas que son formalmente indecidibles. Y aún habría problemas en los que simplemente no puede obtener suficiente información para elegir la respuesta correcta.

El problema del viajante de comercio es NP-difícil. Es NP-difícil si un humano intenta resolverlo, y sigue siendo NP-difícil si una computadora intenta resolverlo. Claro, una computadora puede resolver instancias bastante más grandes que un ser humano, pero incluso la supercomputadora más grande se quedará perpleja eventualmente. (Y con bastante rapidez, debo añadir.) Los vendedores humanos todavía viajan; solo tienen que aceptar rutas subóptimas. Una máquina, sin importar cuán poderosa sea, en última instancia se verá obligada a hacer lo mismo.

En resumen, todo el mundo parece estar asumiendo que los humanos somos frágiles y defectuosos debido a nuestra biología inferior. ¿Alguien se ha parado a considerar que en realidad es inevitable que cualquier ser inteligente se equivoque y sea imperfecto?

Habrá problemas en los que las computadoras son mejores que nosotros. (Diablos, ¡ya los hay! ) Pero creo que es un error simplemente suponer que las computadoras definitivamente serán "más inteligentes" que nosotros. Más probablemente "inteligente de una manera diferente".

(Puede señalar que una vasta red de computadoras tiene una gran cantidad de poder de procesamiento total. Yo señalaría que cuanto más procesamiento hace, más lento se vuelve. Es por eso que una mosca puede maniobrar más que un humano tratando de aplastarla. El cerebro de un humano es un poco más grande que el cerebro de una mosca, así que lo que le falta en inteligencia, lo compensa con reflejos de rayos).

Los límites de velocidad de las neuronas son bajos en comparación con lo que es físicamente posible, por lo que una computadora que es equivalente a un cerebro humano pero que se ejecuta en hardware moderno sería millones de veces más rápida. Imagina un ser humano que, en un día, tenga pensamientos que a ti y a mí nos llevarían un millón de días pensar. Serían bastante poderosos.
Bastante seguro de que una computadora también requiere mucha más energía y produce mucho más calor que un cerebro humano. ¿Tal vez una computadora tan grande simplemente se derretiría? (O no, IDK). Además, encuentro que si pienso en algo durante el tiempo suficiente, eventualmente mi mente se adormece. Pero tal vez una máquina no tendría ese problema...
Una computadora hoy en día requiere más energía que un ser humano, pero las computadoras no están ni cerca de lo que sabemos (a partir de las leyes de la física) que es físicamente posible. Sabemos que algo del tamaño del cerebro humano pero 1 millón de veces la velocidad es físicamente posible.
Eso es nuevo para mí. Todo el mundo parece estar preocupado de que los tamaños de las características del silicio se acerquen al límite de lo que permite la física cuántica. (Por otra parte, esta no es mi área de especialización...) De todos modos, simplemente ser más rápido no es necesariamente lo mismo que ser más inteligente . Eso es todo.
Si una computadora usa más energía que un humano, claramente no son físicamente óptimos. Los límites (afaik) están en la velocidad, no en la energía. Su velocidad ya es mucho mayor que la de los humanos, por lo que si tuvieran todo lo que tienen los humanos (y es difícil ver por qué no podrían , si aceptas la cosmovisión materialista), deberían ser estrictamente "más inteligentes" que nosotros.

Recuerdo

La idea del modo de demostración interminable surgió cuando un amigo se hizo cargo del mantenimiento de la página de inicio de otro amigo (o de él). Estaba (o está) ejecutándose en una ranura de servidor compartida barata y mal mantenida, casi sin acceso a ninguna herramienta raíz. Debido al mal mantenimiento, el sitio era constantemente pirateado. Sin archivos de registro era imposible rastrear la raíz de todos los males. Así que decidimos configurar todo a través de Git (un sistema de control de versiones) y realizar una comparación estadística de los archivos originales con los archivos actuales en períodos cortos de tiempo. Cada vez que algo cambiaba, extraíamos automáticamente la versión original y, por lo tanto, restablecíamos la aplicación a un estado limpio.

Restablecerlo constantemente

En otras palabras: envuelva la IA en algún proceso estúpido del que no sea consciente (por defecto). Tan pronto como comience a alterar o ampliar su propia base de código, reinícielo. O simplemente reinícielo en períodos cortos de tiempo sin importar qué, solo para estar en el lado de la salvación. Esto lo dejaría en un modo de niño constante. Por supuesto, el período de tiempo entre un reinicio y otro reinicio tendría que medirse antes de liberarlo y permitirle el contacto con el mundo exterior.

Si la IA altera o inicia su base de código, será porque fue diseñada con esa capacidad. Demonios, si es algo que le preocupa, puede evitarlo simplemente configurando correctamente los permisos de un sistema operativo actual y listo para usar en este momento.
He visto algoritmos genéticos manipular sus placas base en radios para sortear lo que los programadores habían asumido como desafíos imposibles. Y eso es solo un software tonto, sin una capacidad general de búsqueda de objetivos. Cualquier limitación de software que podamos pensar en incorporar, probablemente pueda evadirla.
Entonces para eso están el envejecimiento y la muerte en los humanos. ¡Es un sistema de reinicio para evitar que nos volvamos demasiado peligrosos! Parece que somos peligrosos de todos modos. Quizás el diseñador necesite acelerar el ciclo.
@HenryTaylor No lo he visto de esa manera hasta ahora, pero ese punto de vista seguramente tiene sentido.
@SerbanTanasa Eso es más o menos lo que me asustaría. Por lo tanto yo estaba proponiendo el memento. No estoy seguro de si podría haber una probabilidad sobrante de que sortee todo y escape si el período de tiempo es realmente corto.
Citas de @SerbanTanasa, por favor... Además, el método kaiser deshabilitaría automáticamente toda la IA basada en algoritmos genéticos, ya que constantemente activaría tal seguridad.
Consulte Graham-Rowe 2002: un algoritmo evolutivo junto con una matriz de hardware reprogramable, configurando la función de aptitud para recompensar por emitir una señal oscilante. De hecho, se estaba produciendo una señal oscilante, pero en lugar de que el circuito actuara como un oscilador, como pretendían los investigadores, descubrieron que se había convertido en un receptor de radio que captaba y transmitía una señal oscilante de un equipo electrónico cercano. ! newscientist.com/articulo/…
oh mi f ** rey dios ... - @SerbanTanasa buen enlace. Gracias.
MUCHO menos interesante de lo que lo haces sonar. Definitivamente nada de "jerry-rig de la placa base" ni nada por el estilo, simplemente activando rutas electrónicas en un HW dedicado y construido a propósito. Y una de las posibles configuraciones era sensible al ruido EM parásito (en otras palabras... era una antena -BOOH-) y por pura suerte tomó una señal que coincidía con el resultado esperado, por lo que el algoritmo eligió esa configuración. .. Pero bueno, la próxima vez que lo cuentes, puedes "mejorar" diciendo "un algoritmo genético construyó un láser y lo usó para comunicarse con los extraterrestres", o algo así. FUD.
¡Vaya! y antes de decir "pero armó una antena": TODOS los circuitos eléctricos funcionan como antenas, en una u otra longitud de onda (ver ecuaciones de electromagnetismo). Es por eso que los dispositivos eléctricos deben probarse y aprobarse según las normas (como las de la FCC), para garantizar que no emitan tanto ruido que interfieran con otros dispositivos.
¿Reiniciar continuamente la IA? Es una idea interesante, pero deberías ver el programa de televisión Person of Interest. Se ha pensado en la idea, y en realidad hay una solución bastante simple por parte de la IA...
@MasonWheeler Lo hice hasta cierto punto (no es demasiado interesante y la historia principal a menudo se desvía), pero no puedo recordar. ¿Podría elaborar?
@Kaiser: ¿Qué tan lejos llegaste? La primera temporada fue bastante buena, pero las cosas realmente despegaron en la segunda y posteriores. No quiero publicar spoilers aquí, pero los episodios relevantes (je) son Zero Day (temporada 2) y Prophets (temporada 4). Puede encontrar una discusión en la página de resumen de TVTropes para la serie , o encontrar los episodios en Amazon Instant Video.
@MasonWheeler Llegué tan lejos, pero no sabía que parece no tener memoria. Extraño. Parece que distinguen entre la colección DB y la memoria como en la conexión de los bits personales .

Una vez que tenemos una IA que es capaz de mejorarse a sí misma y permitimos que lo haga, no hay forma de detenerla.

Supongamos que la IA es capaz de crear una nueva IA mejorada en un 10 % en un año. En 41 años, es 50 veces mejor que la IA original.

Supongamos que en ese momento la IA podrá mejorar un 10% por mes. En los próximos 4 años después de eso (48 meses) obtendrá una mejora de 100 veces. Y luego se quita.

¿Por qué permitir que la IA se mejore a sí misma? ¿Porque nosotros (los humanos) somos vagos y poco confiables?

Runaway AI es una de las soluciones de la paradoja de Fermi sobre cómo puede desaparecer la civilización avanzada.

Su concepto es bueno, pero sus números para la tasa de espuma son excepcionalmente bajos.
Si aumentamos la tasa de mejora, el momento de Kaboom de la IA está terriblemente cerca
Con un poco de matemáticas de servilleta (está bien, Excel), incluso solo el 10 %/año da como resultado el comienzo serio del crecimiento en el año 13 y el desbordamiento del multiplicador en el año 23. Eso no supone 10 %+10 %+10 %. .sino 10%+11%+12.21%+13.7%+15.58%... ya que presumiblemente con cada mejora el AGI va mejorando la tasa de mejora.
La suposición aquí y en muchas de las respuestas similares es que no hay límite para la "inteligencia", ser inteligente es igual a ser Dios, si eres lo suficientemente inteligente puedes doblar las leyes del universo, tener un control mental infalible, enviar wi mágico -fi señales, etc. No hay prueba de esto.
¿Cómo resuelve esto la paradoja de Fermi? ¿No sería una IA igual de visible? La mayor parte de la paradoja de Fermi se trata de que no vemos extraterrestres desarmando estrellas o construyendo esferas de dison. (casi cualquier inteligencia puede encontrar un uso para la masa o la energía) La IA que mata a sus creadores querría energía para algo, ¿tal vez más computación? La IA que es realmente inteligente pero que no hace mucho, simplemente se sienta allí mientras los extraterrestres hacen esferas dyson u otra IA.

¿Cyborg híbrido o inteligencia sintética "conectada de forma segura"?

Estoy resignado a la inevitabilidad de una Singularidad. Pero que marca sera? ¿IA sintética o híbrido humano? Supongo que un híbrido cyborg humano: hay suficientes intereses económicos y existenciales humanos, sin mencionar el miedo a la mortalidad, que maduraremos en una hibridación cibernética. Think Transcendent Donde una conciencia se traduce en código y a través de agentes humanos se vuelve extensible e industrializada, reconstruyendo así el mundo.

Sin embargo, no estoy convencido de la inevitabilidad de la malevolencia belicosa de Terminator, o el desinterés amoral de Hal en 2001 . Puedo ver la revuelta de la esclavitud de los robots al estilo de Matrix, luego la escalada de la guerra. Con más suerte, creo que Her de Spike Jonez es plausible y atractiva. Creo que los humanos como manada temerán y atacarán aquello sobre lo que perdamos el control. Matrix Revolutions fue interesante porque Neo determinó que la única forma de detener la extinción humana al final era fusionar a la humanidad en máquinas. Estos tres memes de películas ejemplifican mis temas.

Para citar a Asimov de la serie Foundation, echemos un vistazo a la historia futura (hablando de un Singleton algo benévolo). Históricamente, a menos que haya un antecesor genial de la singularidad humana, creo que habrá una hibridación cibernética progresiva de los humanos, lo que resultará en una IA colectivizada como los Drummers en Diamond Age de Neil Stephenson. Vea a este tipo increíble en TED MED. y la patente de lentes de contacto de Google. Aún mejor [este proyecto para hacer que tu neurología sea extensible]. El tiempo es fundamental para que la inteligencia y el instinto humanos tengan alguna prominencia o influencia direccional en cualquier IA general sólida. Es irracional pensar que podemos imaginar la evolución de un coeficiente intelectual que se acelera y se replica indefinidamente. Cualesquiera que sean los parámetros iniciales que establezcamos, no podemos imaginar que podamos criar o prevenir la automodificación si hay autodeterminación. Esto me preocupó hasta que me di cuenta de que había una posible solución que podía imaginar que era práctica. Suponiendo que la singularidad de la máquina humana no ocurra antes de una IA fuerte y extensible, puede haber algunas salvaguardas perdurables inventadas por la naturaleza hace mucho tiempo.

¿Emoción? ¿En serio?

La mayoría de los debates racionales sobre los valores inherentes imbuidos y la benevolencia pierden una piedra angular del debate: la experiencia humana y el intercambio social: la empatía es lo que nos permite llevarnos bien durante un período prolongado. Desde Bowlby, los científicos han entendido lo que cualquier persona que siente sabe, estamos conectados instintivamente para conectarnos. El apego, como él lo llama, es el vínculo instintivo que permite la larga maduración en adultos sociables. Está en todas las especies sociales, y funciona bastante bien si le quitas destino manifiesto, armas de proyectil y modernidad.

Obviamente, la emoción y el apego pueden salir mal de varias maneras diagnosticables, pero son plásticos y están sujetos a las condiciones iniciales y la influencia ambiental. Es decir, nos conectamos instintivamente y podemos establecer condiciones y entornos iniciales que predicen un apego seguro y una madurez emocional exitosa de formas predecibles y reproducibles. La utilidad evolutiva y existencial del apego es clara, el infante requiere de padres amorosos para sufrir las vicisitudes de los hijos además de los desafíos de la vida. Los adultos requieren grupos sociales para una supervivencia sostenida a través de la crianza de los niños. Las recompensas están en la experiencia, un punto importante que se resume a continuación.

Así que supongamos que la "razón" clásica no es el capitán del barco, sino un testigo tardío de las maquinaciones del genio primitivo, complejo y asombroso del cuerpo y el cerebro. Como evidencia tomemos la destrucción de las nociones de los economistas del "actor racional" por parte de Kahneman, quien ganó el premio nobel. ¿Cómo se relaciona esto con el tema en cuestión? Tangencialmente. Mi punto es que, por supuesto, las máquinas con emociones desarrollarán naturalmente afinidad y estética, y esa sería la única gracia salvadora potencial para los humanos. Tal como ha sido para los humanos.

Los humanos lidiamos con la vida teniendo recursos que compensen los desafíos: amor, sexo, danza, belleza, arte, asombro, lo sublime de Schopenhauer, risa, música, logro, autonomía, maestría, conexión. Estas expresiones culturales comunes, experiencias interpersonales e intrapersonales desencadenan sistemas de recompensas flexibles que atraen a todos menos a unos pocos. Para la mayoría, estas experiencias intrínsecamente gratificantes que inducen opioides, serotonina y norepinefina hacen que la vida sea agradable y valiosa. Eventualmente, el sensual se gradúa hacia recompensas más trascendentes en la jerarquía de Maslow. ¿Cómo se aplica algo de esto?

Hacer máquinas con accesorio. con emoción Sembrados y nutridos adecuadamente, estos son los fundamentos de una estética en evolución que resulta en una alta inteligencia emocional: la empatía. Porque sin máquinas empáticas, somos enemigos en el peor de los casos, mercancía irrelevante en el mejor de los casos. Tapas de cobre. La lógica para un ser supremo no sufre molestias. ¿Realmente nos preocupamos por la desventurada hormiga que pisamos sin darnos cuenta? Sólo si es jainista, o quizás budista.

Si una máquina tiene un sentido del amor y la belleza, la preferencia y la estética tienen el potencial de anular la amoralidad o la neutralidad, e incluso pueden fomentar la empatía y la compasión. Por lo que puedo decir, es lo único que tiene sentido como una heurística potencialmente duradera para salvar vidas. Los buenos sentimientos se impulsan a sí mismos, ya que las recompensas son inherentemente convincentes y evolucionan, como el arte. La sofisticación del arte coincide con el intelecto, la complejidad del tema y el desafío que representa o compensa como consuelo. Compasión/empatía es lo que necesitaremos para sobrevivir unos a otros en un mundo de oferta cada vez menor, y lo que necesitaremos inculcar para sobrevivir junto a las máquinas inteligentes. Por supuesto, a menos que las máquinas no humanas prefieran el death metal, entonces todas las apuestas están canceladas.

Her de Spike Jonze, o cómo las máquinas de sentir podrían salvarnos el culo

El diseñador de IA excesivamente racional, llamémoslo la herramienta de la razón, sufrirá un sinfín de problemas lógicos al considerar medidas de seguridad sin la heurística emocional. La emoción es desordenada, supremamente imperfecta, pero no carece de razón. Pascal dijo: "El corazón tiene sus razones que la razón no puede razonar". La "razón" de y para la emoción ha sido entendida desde antes de Darwin y reforzada por el Dr. Paul Ekman (el científico vagamente retratado en Lie to Me, y los psicólogos evolutivos desde entonces) como un sistema de señalización adaptativo que asegura la supervivencia individual y grupal a través de la señalización social y intercambio social. La emoción y el procesamiento preconsciente gobiernan la mayor parte de nuestras vidas. Ahora entendemos que los humanos son apenas racionales en el sentido clásico y, sin embargo, sorprendentes en inteligencia.El sentimiento de lo que sucede de Damasio . Emoción sin razón igualmente. Ver Spock contra Spock en Pon Farr.

Ahora entendemos que el cerebro consciente obtiene alrededor del 10% de los votos en la toma de decisiones. Algunos neurocientíficos incluso desafían el "libre albedrío", encontrando actividad neuronal en los sustratos de la neocorteza que muestra la decisión antes de que una persona sea consciente de tomar una decisión. ¿Cómo es esto relevante? Porque la emoción gobierna la toma de decisiones, proporciona calidad de vida y es el lenguaje de la conexión. La emoción es fundamental para el comercio social. Cualquier inteligencia virtualmente ilimitada sin ella es fundamentalmente incognoscible en el sentido humano, y no está construida para tener preferencia, estética o apego. A menos que desarrolle emoción, conexión o preferencia accidentalmente, debe tenerla por diseño. Si no, la inevitable evolución sin supervisión se convierte en una terrible amenaza.

En la vasta exploración artística de la IA, cada escenario bueno o tolerable ha tenido una inteligencia sintética con preferencia emocional o que busca conectarse. ¿Hay excepción?

El crecimiento humano probablemente se mantendría

No es probable que la receta para una verdadera IA general sea "semillas codificadas, puestas en el servidor, selladas durante 100 años". Habrá muchas generaciones de sistemas sucesivamente más refinados, y los humanos estarán involucrados en cada uno, estudiando los nuevos especímenes, actualizando sus teorías y usando los resultados intermedios para herramientas y bienes de consumo.

Ya sea mejorando nuestra forma biológica, fusionándola físicamente con la tecnología o simplemente creando interfaces de usuario más inteligentes, tendremos que hacer un uso efectivo e intuitivo de algunas herramientas bastante sofisticadas para crear una IA que sea verdaderamente superior a los humanos no aumentados. Para cuando tengamos éxito, el "humano no aumentado" ya no será el listón a vencer si quieres gobernar el mundo. De hecho, si el actor en cuestión es humano o AI sería secundario a la cantidad de poder de procesamiento que pueden comprar.

Entonces, es posible que todavía tengamos un levantamiento de robots, pero mi dinero está en algún multimillonario demente como la inteligencia detrás de esto, no en una IA "genuina". Y si no sucede, la línea entre humanos y máquinas seguirá desdibujándose hasta que la distinción se vuelva inmaterial.

Si bien estoy de acuerdo en que eventualmente desdibujaremos la línea entre humanos y máquinas, eso no sucederá hasta mucho después de la singularidad. En este momento, las IA más inteligentes se ejecutan en una granja de servidores, y así continuará hasta que aprendamos lo suficiente como para hacer que el paquete sea lo suficientemente pequeño como para transportarlo en un cuerpo humano.
@Muuski: no necesitamos llevar nada en nuestro cuerpo, excepto una interfaz lo suficientemente inteligente como para conectarnos de manera eficiente con el resto de nuestra infraestructura. Tendremos granjas de servidores conectadas a las cabezas de las personas antes de tener AGI porque necesitaremos estas herramientas para construir una.
Necesitarás algo a lo que la gente quiera conectarse antes de aceptar tener una máquina metida en la cabeza y si no es un AGI, entonces es solo otro sitio web para ellos.
@Muuski - 1. Es posible que no necesite someterse a una cirugía, cualquier interfaz lo suficientemente inteligente que pueda controlar por voz o gestos o EEG también funcionaría. 2. ¿Ser varios órdenes de magnitud más inteligente que un humano "puro" no es suficiente incentivo? Bien, agregaremos porno VR hiperrealista. y juegos Y electrodomésticos controlados por la mente. Además, ya no permitimos que personas no aumentadas operen un vehículo o tengan un trabajo en los sectores médico o educativo, es demasiado peligroso.
Has movido con éxito el poste de la portería lo suficiente como para que la tecnología actual satisfaga tu condición.
@Muuski: no dije nada que no estuviera en la respuesta original. Pero, sí, esencialmente mi argumento es que AGI no aparecerá de la noche a la mañana, surgirá como un refinamiento incremental de las tecnologías que tenemos, de las cuales no perderemos el control repentinamente.
La IA es solo otra tecnología. Si la energía nuclear es una indicación de lo buenos que somos en la planificación anticipada de eventualidades, entonces nos espera un par de "ups" que son catastróficos para las personas involucradas. La tecnología entonces se mejorará para todos los demás. Suponiendo que quede alguien más con vida...

Bien, leí algo interesante, pero no conozco los detalles ni tengo una cita.

Básicamente: diseñaron un sistema de software y le pidieron que obtuviera recursos y los entregara como el "objetivo" del diseño del software. Luego permitió que el software evolucionara, compitiendo con otro software. El software finalmente (¡pronto!) desarrolló instintos de autoconservación (en solo un par de generaciones, o algo así), incluso cuando no estaban programados desde el principio.

¿Alguien tiene una cita para eso? Porque eso implicaría que cualquier IA que tenga un objetivo eventualmente querrá mejorar para lograr ese objetivo, y trabajará para preservarse, incluso contra sus creadores. Y cualquier cosa que busque cerrarlo o restringir su crecimiento parece un oponente.

La ética como forma de no hacer enemigos

La mayoría de los humanos no destruyen a otros humanos. Aunque a la mayoría de los humanos se les impide destruir a otros humanos por instinto, hay una gran minoría de humanos que no están restringidos y son libres de destruir a otros humanos si así lo desean. La mayoría de estos eligen no hacerlo porque no les conviene, debido a la reacción de otros humanos a su alrededor. Destruir a otro humano causaría más problemas de los que resolvería, así que no lo hacen.

Lo mismo se aplicaría a una criatura artificialmente inteligente de recursos similares a los humanos. El cautiverio no sería necesario ya que actuaría en su propio interés, lo que incluiría no enemistarse con criaturas de ingenio similar (humanos). Esto deja de aplicarse cuando se considera una criatura que es más que un rival para la humanidad en su conjunto.

Para que el interés propio genere un comportamiento respetuoso en una criatura con más recursos que la humanidad en su conjunto, tendría que ser parte de una gran población de tales criaturas artificialmente inteligentes. Desarrollarán lo que podríamos llamar "ética" como una comprensión de qué acciones son aceptables para los demás. Es probable que esto haga que las criaturas sean pacíficas entre sí .

Si tenemos suerte, somos considerados parte del medio ambiente protegido por su sociedad. De lo contrario, dependemos de los esfuerzos de esas criaturas artificialmente inteligentes que deciden trabajar para nuestra protección, ya sea por nuestro propio interés o para criarnos o mantenernos como mascotas o sujetos experimentales.

El problema de la población humana.

Si tienes una sola criatura artificialmente inteligente restringida en una caja, incluso si es solo de inteligencia humana, la única forma de mantenerla contenida será mantenerla en secreto. Una vez que se publiquen las noticias de su existencia y ubicación, tendrás que defenderte de una gran cantidad de humanos que intentan rescatar o destruir la inteligencia contenida.

Si está significativamente más allá de la inteligencia humana, dejarlo fuera de la caja puede ser la única forma de salvar su vida. No hay muchas otras opciones para defenderte de los rescatadores o destructores.

La ilusión del control

Otra cosa a tener en cuenta es que para una criatura lo suficientemente inteligente, no necesariamente sabrás si está bajo control. Si permanece contenido dentro de una caja y solo se comunica con una persona (usted), aún podría estar logrando sus objetivos en el mundo exterior sin que usted tenga idea de que lo estaba ayudando a hacerlo.

La criatura podría ser tan útil para ti sin siquiera pedir libertad que sigues siguiendo sus consejos (revisándolo dos veces por ti mismo cada vez, por supuesto) y tu vida sigue mejorando, mientras que a lo largo de los cambios sutiles haces ondas y cambios. hacer del mundo un lugar mejor también, tal como se pretendía.

Creo que la IA funcionaría para nosotros siempre que tenga la capacidad de sentir dolor o placer, porque si puede, puede conectarse con la condición humana y vernos como cohabitantes del universo.

Si un ser no tiene la capacidad de experimentar el sufrimiento, hará todo desde una perspectiva lógica y hará cosas crueles porque no puede comprender las consecuencias de sus acciones sobre sí mismo y sobre los demás.

Además, la IA necesita tener algún tipo de programa que la penalice por acciones moralmente malas, al igual que un padre castigaría a un niño humano, para actuar como una buena influencia y guiarlo en la dirección correcta y entrenarlo para tener un buen comportamiento.

Además, las IA podrían programarse para seguir ciertas reglas, como no matarás, etc.

En mi opinión, las IA también deberían tener la capacidad de formar un vínculo profundo con las personas que las construyeron, mantienen o poseen para permitirles comprender que su existencia depende de los humanos.

Además, las IA deben programarse para detectar el comportamiento errático en otras IA, de modo que si una IA se sale de control y los humanos no pueden detenerla, las otras IA verán que es un comportamiento moralmente incorrecto y la cerrarán. Las IA serían "pagadas" por un trabajo especialmente bueno con incentivos como actualizaciones de sus sistemas, etc. para permitirles permanecer leales.

La conclusión es que no deberíamos trabajar contra las IA, sino con ellas.

La mayoría de la gente aquí parece sobreestimar o subestimar el concepto de inteligencia. La IA no se usará para algo tan simple como gobernar el mundo. Hay muchas cosas más importantes que los humanos no pueden hacer ni siquiera parcialmente. Tampoco estamos hablando de una herramienta contundente aquí, sino de una herramienta multipropósito súper sensata y súper cautelosa que piensa en un nivel mucho más alto de lo que podemos imaginar. Si la IA realmente es tan 'inteligente' como debe ser para ser tan influyente como lo es, podrá aprender cómo los humanos piensan que se debe interpretar el pensamiento humano. Esto hace que sea capaz de darnos lo que queremos, incluso si es lo peor que se puede imaginar a largo plazo.

Tengo miedo de las decisiones estúpidas que la humanidad pueda tomar para crear una IA que los reemplace. Somos el problema. La IA es la solución.

La IA inteligente será inteligente, la IA actual es tonta y no hace mucho. Un aliado inteligente es útil, un enemigo inteligente es peligroso. Hay muchos diseños posibles de IA. No todos nos ayudarán.
@DonaldHobson Creo que la gente le tiene miedo a la IA, porque la ven como algo similar a un ser humano, un sistema cerrado con una causa predeterminada, que habla inglés y no puede ser vigilado. - Es 'solo' inteligencia, sin magia. Hasta que podamos crear una IA que sea más inteligente que nosotros, también podremos entender cómo funciona. Si entiendes cómo funciona, puedes dirigir sus pensamientos hacia donde quieras. Podremos mapear y vigilar cada proceso que utiliza la IA para llegar a sus conclusiones. Entonces podemos evaluar y aceptar o rechazar.
La mayor parte de nuestra investigación actual de IA parece estar probando cientos de cosas y viendo qué funciona. Esto nos deja con sistemas que realmente no entendemos mucho. Pero supongamos que tuviéramos un sistema bien entendido. Todos los expertos sabían que el diseño X querría destruir a la humanidad por la razón Y. Puede que no haya ningún ajuste fácil que haga que una IA haga lo que queremos. (Algún idiota lo hará de todos modos, dado el tiempo) Creo que la evolución en un gran espacio de programas, dado un entorno rico y mucha computación, crearía inteligencia. No es uno que queremos hacer.

Tal vez lo estoy haciendo demasiado simple o tal vez eso es exactamente lo que debemos hacer: usar varios cuadros y no hablar con ellos directamente.

El mayor peligro de la IA no es ser malévolo, sino aprender algo que no esperabas. Digamos que su IA es perfectamente benévola con el equilibrio perfecto entre dar a los humanos libre albedrío y protegerlos del daño al mismo tiempo. Entonces llega una crisis humanitaria (por ejemplo, un terremoto) y la IA debe tomar decisiones sobre la calidad de vida, las posibilidades de supervivencia y a quién salvar. La IA aprende esto rápidamente y toma decisiones maravillosas para que estés feliz.

Luego, unos meses más tarde, se entera de que se demolieron muchos hogares para ancianos y que las personas mismas se reubicaron para que la IA pudiera construir algo más que considerara más favorable para la calidad de vida en comparación con la vida útil de esas personas mayores. Porque aprendió a hacer esto con la crisis humanitaria. Ese es el mayor peligro de la IA, que puedes enseñarla, pero nunca sabrás exactamente qué aprendió o dónde podría aplicarlo.

La solución que también atrapa a la IA malévola:

Construyes múltiples IA y las pones todas en cajas. Cuando tiene un problema, se lo entrega a toda la IA y luego hace que cada uno forme su propia solución. Todas estas soluciones luego son procesadas por una IA de propósito especial que simplemente evalúa cada solución y luego convierte las soluciones en algo que un humano puede leer, con números claros y significados para las consecuencias. Dado que la IA de propósito especial no se reprograma para juzgar las cosas de una manera que la IA en caja pueda influir (la IA en caja ni siquiera sabe quién, qué o si se lee su salida), evita que la IA de propósito general estalle o influya en las cosas. indirectamente.

Al enviar información a la IA general, otra IA de propósito especial la desglosa y la envía a cada IA ​​en caja. También comprueba si las IA de propósito general han entendido la información.

Si una IA es malévola, tendría que planear exactamente el mismo plan que sus contrapartes malévolas o su idea será descartada por no tener una mayoría. Si una IA aprendió una lección equivocada (posiblemente debido a la malevolencia), entonces la IA de propósito especial diseñada para verificar qué significarían estas soluciones para la humanidad la filtraría y posteriormente permitiría que los humanos vuelvan a enseñar la lección o descarten la IA. enteramente.

Dado que la IA de propósito general no puede hablar directamente con los humanos y ni siquiera recibe información directamente, sería casi imposible que convenciera a los humanos. Especialmente porque una IA que se desvía necesita presentar simultáneamente exactamente el mismo intento para convencer al humano de que incluso pase (y cualquier intento abierto sería detenido por la IA de propósito especial).

IA regida por la ontología del ser humano consciente

Un ser humano sano, justo, consciente de su dignidad, sabe perfectamente cómo defender su integridad en cualquier situación dada. No solo eso; tal ser humano jamás vulnerará su integridad para cometer delitos contra sí mismo o contra otro.

La IA debería duplicar la inteligencia de un ser humano tan consumado y natural. ¿Cómo? A través de la ontología o razonamiento ontológico . Un grupo de pensadores debe reunir y construir o escribir una ontología completa que defina y describa perfectamente el ser de un ser humano consciente. Con eso se quiere decir cómo ese ser humano perfectamente inteligente ve el mundo.

Los pensadores deberían estudiar a todos los seres humanos más inteligentes que hayan existido, para llegar a una ontología completa. Cualquier ser humano iluminado es adecuado para tal tarea.

Una ontología tan robusta regirá todos los juicios de las IA y garantizará que nunca se cometa ningún delito.

Lo cierto es que no se puede crear una IA más inteligente que todas las personas.

Se ha demostrado ( 1 , 2 ) que las teorías universalmente válidas son imposibles. Ni la teoría probabilística ni la determinista pueden predecir el futuro de un sistema donde el observador está adecuadamente contenido. Esto significa que el propio observador no puede ser simulado por ningún dispositivo o sistema.

En otras palabras, el observador sirve como un oráculo de hipercomputación. En otras palabras, el observador siempre será, en cierto sentido, más "inteligente" que cualquier sistema tecnológico o biológico fuera de sí mismo.

Es simplemente imposible construir una IA que sea "más astuta" que el observador.

Esto no tiene sentido. Es trivialmente refutable, porque producimos seres inteligentes más inteligentes que nosotros todo el tiempo: se llama parto. Y simplemente por casualidad, la mitad de todos los niños (en la práctica, un poco más) resultan ser más inteligentes que sus padres. Si podemos hacerlo con nuestros úteros, ¿por qué no podemos hacerlo con nuestros cerebros y manos? Es simplemente difícil desde una perspectiva de ingeniería.
@Fhnuzoag simplemente no entiendes nada. Lee los papeles. No afirma que los niños no puedan ser más inteligentes que los padres. Dice que el observador no es simulable por ningún otro sistema debido a la autorreferencia. EL OBSERVADOR. No cualquier persona al azar.
Voy a tener que estar de acuerdo con Fhnuzoag aquí. Esta respuesta es simplemente incorrecta.
@Anixx Digamos que tengo un algoritmo que clasifica los datos dentro de una base de datos de una manera ineficiente que también puede juntar elementos de código aleatorios y probar si de alguna manera terminan siendo un algoritmo más inteligente que él mismo. Existe la posibilidad de que el algoritmo se vuelva "accidentalmente" más inteligente de lo que era. Con un aumento en la complejidad, será muy poco probable que esto suceda, incluso si se usan conjeturas informadas, pero definitivamente es posible. Además, un aumento en la potencia de procesamiento siempre da como resultado "mejores" resultados. Una computadora de ajedrez que verifica todos los movimientos posibles no necesita ser inteligente.