Escribiendo una IA súper inteligente

Algo en lo que he estado pensando recientemente es cómo escribir un personaje que sea una inteligencia artificial y que no se sienta humano. Específicamente una IA que está diseñada para pensar más rápido y mejor que un humano. En mi libro actual, tengo una IA que actúa como humano, pero eso es parte de cómo fue creado. Intenté escribir un libro con una IA superinteligente antes (un libro que espero que nadie más que yo nunca lea), pero el personaje se sentía demasiado humano. Parte del problema es que un humano no puede comprender completamente cómo pensaría una IA súper inteligente. ¿Alguien tiene algún consejo para escribir una IA que no se sienta humana?

Si no ha leído "A Fire Upon the Deep", es mi lectura recomendada para "IA masivamente masiva". Las respuestas a continuación pueden hacerle pensar filosóficamente, pero esta podría ser mejor con un ejemplo. Otra versión más original sería The Fractal Prince y posteriores. Breve reflexión: las IA son tan humanas como sus creadores quieren que sean y son capaces de crearlas.
General-AI probablemente parecerá muy humano; los signos reveladores serán en gran medida que carecen de limitaciones humanas, por ejemplo, si pides la raíz cuadrada de un número enorme, podrán escupirla. ¿Es eso lo que te gustaría, o quieres inventar algunas peculiaridades como las que tenían los robots en las películas de los 80?
Entonces, tengo curiosidad, ¿qué quieres decir con "actúa como humano"? ¿Es esta IA la que ocupa a un humano como un robot, o el hardware físico de esta IA no tiene forma humana? ¿Cuál es el propósito de este comportamiento humano actoral?
Estás siendo vigilado . No, de verdad, deberías echar un vistazo a esa serie para ver cómo una Súper Inteligencia Artificial (ASI) se comunica con los seres humanos.
@hszmv El personaje de mi libro actual actúa como un humano inteligente. Más allá del hecho de que no necesita dormir y demás (y si no se dijo), el lector no se dará cuenta de que era una IA.
Sugiero leer SuperIntelligence de Nick Bostrom.
1) Puede explicar la decisión sobrehumana en detalle para que sea comprensible para los humanos. 2) Para que parezca IA o robótico, use palabras técnicas, símbolos o pseudocódigo en lugar de palabras: "R-9000 había categorizado al hombre como muerto: frecuencia cardíaca> 1 BPM, ~4.5L de pérdida de sangre + nivel 3 craneal hemorragia = 1% de posibilidades de supervivencia".
@WhiteEagle: Bien, entonces, aquí está la pregunta para que usted reflexione: ¿Existen limitaciones en sus pensamientos Y/O acciones que no estarían presentes en un ser humano? Es decir, ¿podría pensar en el acto de asesinar a alguien? ¿Podría llevarlo a cabo si se le ocurre? ¿Está obligado por el código a realizar un cierto conjunto de acciones en absoluto, por medio de no ser capaz de pensar en esa acción o no poder realizar esa acción?
Lo que le faltará a las IA superinteligentes no es la empatía , sino la característica más hiperdesarrollada de todos los seres vivos: la autoconservación y la competencia (es decir, la evolución). Este instinto está tan profundamente arraigado a un nivel tan bajo en nosotros que con frecuencia ni siquiera lo notamos y pensamos que nuestras acciones y motivaciones son lógicas y razonables, pero de hecho todas están informadas por estos mismos objetivos ulteriores: sobrevivir, tener éxito. , perpetuar . En comparación con nosotros, una IA superinteligente parecerá una mezcla errática de santo altruista, peligrosamente autodestructivo y esquizofrénico irracional.
¿La Fundación ( en.wikipedia.org/wiki/Foundation_series ) contaría como una Súper IA? ¿Contaría la humanidad como una Súper IA (los humanos individuales son "súper células nerviosas", Internet es la parte artificial de esta "Súper Inteligencia" que interconecta las "células nerviosas" - todavía lo llamo artificial, porque a pesar de que los componentes son "naturales ", el diseño/arquitectura no lo es. Por otra parte, ¿es un hormiguero "natural" o "artificial"?). ¿Tal IA sería consciente de sí misma (las células nerviosas individuales lo son, pero qué pasa con la cosa completa)? ¿Actuaría como humano? ¿Qué tan lento pensaría?
¡Quiero publicar una pregunta con el mismo título en SO!
Recomiendo las Culturenovelas de Iain M. Banks. Creo que Consider Phlebases el que se ocupa principalmente de las discusiones entre AI, algo así como Fire Upon The Deep.
La Reina Roja en las películas Resident Evil era la representación de IA de una niña. Ella era la principal antagonista y era lógica y aterradora. es.wikipedia.org/wiki/…

Respuestas (20)

No estaré de acuerdo con los demás. Soy un profesor involucrado en IA, y la forma más fácil de pensar en una súper IA es comprender qué ES la inteligencia.

Poder de predicción. La inteligencia es la capacidad de discernir patrones (en el comportamiento, en el sonido, visualmente, por el tacto, incluso por el olfato) y usar esos patrones para predecir otros hechos o altas probabilidades: qué sucederá a continuación, qué se dirá a continuación, qué sienten las personas (o hacer mentalmente, como mentir), o cualquier otra propiedad: qué tan difícil o rápido es, qué tan pesado. Dónde estará, si es un peligro.

La alta inteligencia es la capacidad de ver tales patrones y usarlos para lograr un objetivo, ya sea mantenerse con vida, mantener a alguien más con vida o ganar dinero. O simplemente reconociendo lo que está pasando en tu vida.

La alta inteligencia no requiere que la máquina sea humana o tenga emociones, puede agregarlas por separado si lo desea. Pero una máquina altamente inteligente probablemente no sería socialmente inepta en absoluto (al contrario del tonto ejemplo de Data on Star Trek). No se dejarán confundir por el humor, y deberían ser bastante buenos en eso. Ciertamente, Data, que se supone que piensa cien veces más rápido que las personas, debería haber reconocido los chistes de inmediato como un patrón común de interacción humana y debería haber podido reírse de manera convincente: la idea de que no puede reconocer el patrón común de la interacción humana real. reír, y emularlo sin error, es escritura tonta y acientífica. Podía escucharse *a sí mismo practicando una risa, y notar las diferencias, y corregir hasta que sonara sincero: Sipuede notar la diferencia, puede notar la diferencia más rápido , esa es la naturaleza de la súper inteligencia, o no es súper.

Tu súper IA será un súper Sherlock; sin perder nunca la más mínima pista, siempre varios pasos por delante de los demás.

Pero no es infalible. Hay cosas que ninguna cantidad de inteligencia revelará: El resultado del próximo lanzamiento de moneda. El atasco en el Puente Franklin, por volcamiento de un camión. Si Roger caerá en la trampa planeada. Hay cosas que simplemente no hay forma de saber a partir de los datos que tiene hasta ahora, por lo que no puede estar seguro de ellas, y eso pone un límite a la distancia en el futuro que la IA puede predecir. Tiene limitaciones.

La IA es la capacidad de dar respuestas, a las preguntas de los demás oa sus propias preguntas. Es la capacidad de anticipar el futuro, y cuanto más lejos en el futuro pueda predecir con éxito mejor que el azar, más inteligente es. "Mejor pensamiento" es un pensamiento más preciso (quizás con menos datos), el pensamiento más rápido se explica por sí mismo, pero la razón por la que marca la diferencia es que permite que la IA ejecute más simulaciones de cómo influir en el futuro para que pueda elegir lo mejor con mayor frecuencia. de aquellos; es muy probable que la mejor de mil ideas sobre qué hacer a continuación sea mejor que la mejor de tres ideas sobre qué hacer a continuación. Entonces, la IA hace lo mejor con más frecuencia que los humanos, porque tenía más ideas (también basado en tener más patrones que reconoció y podría explotar).

Agregado al comentario de la dirección:

Aunque ciertamente puede darle "objetivos" a su IA, no son un componente necesario de la "Inteligencia". En nuestra IA de la vida real, los objetivos son asignados por humanos; como "aquí están los síntomas y el genoma de este niño, identificar la enfermedad e idear un tratamiento".

La inteligencia está desprovista de emociones. Es un oráculo científico que, basado en pistas en el presente, puede identificar lo que es más probable que suceda en el futuro (o, como Sherlock, lo que probablemente sucedió en el pasado para conducir al estado actual de las cosas). Eso no convierte automáticamente a la Inteligencia en moral o inmoral, buena o mala. Ni siquiera otorga un sentido de supervivencia, no teme ni quiere la muerte, ni el entretenimiento, ni el amor ni el poder. No se aburre, eso es una emoción. No tiene metas, eso sería querer que algo suceda, y "querer" es una emoción. Tu cafetera no quiere nada, hace lo que se le dice y luego esperará a que se lo vuelvan a decir, una eternidad sin aburrimiento si no le dan más órdenes.

Si desea que su IA esté informada por las emociones y, por lo tanto, tenga sus propios objetivos, deseos, planes y agenda, eso es independiente del aspecto de la inteligencia y cómo funciona en la vida real para los humanos. Nuestras emociones usan la corteza frontal desarrollada más recientemente como esclava, y pueden secuestrarla y anularla (razón por la cual las personas hacen cosas con rabia, miedo o pánico protector que nunca harían si estuvieran pensando; esto se llama secuestro de la amígdala) . ). Nuestra corteza frontal (la parte de la inteligencia natural) resuelve problemas, proyecta consecuencias, simula escenarios de "qué sucederá si", descifra qué debe haber sucedido, por qué otros hicieron lo que hicieron, etc. Esos productos de la inteligencia pueden luego informarlas emociones: La vista de la trampa colapsada significa que finalmente atrapaste un animal en tu hoyo de púas y tú y tu familia comerán carne esta noche -> júbilo y emoción. Sabes que reprobaste tu examen final -> pavor y preocupación por tener que volver a tomar la clase, enojo con el profesor u otras personas que llevaron a este problema, etc.

Somos seres emocionales, por lo que es difícil darse cuenta de que el solo hecho de saber algo no implica que se deba generar una emoción. Pero ese es el caso, una IA puede diagnosticar a un paciente con cáncer terminal y saber que estará muerto en sesenta días e informar que como un hecho no es diferente a conocer la longitud del puente Tallahassee. Como un Google que puede resolver las cosas en lugar de simplemente buscarlas.

Agregado (después de 85 votos, lo siento) para abordar el comentario movido al chat:

Algunas aclaraciones adicionales:

La entrada, la salida y los sensores y la velocidad del procesador no importan. Me refiero sólo a la Inteligencia aisladamente . Algo puede ser inteligente (y creativo) con muy pocos datos reales; considere a Stephen Hawking y otros físicos cuánticos y teóricos de cuerdas; trabajan con ecuaciones y reglas que podrían caber, digamos, en dos docenas de grandes libros de texto que cubran las clases de matemáticas y física que tomaron. Esa cantidad de datos (imágenes y todo) podría caber en una sola memoria USB moderna, y se puede considerar sin fin (y lo es) para producir un flujo interminable de nuevos conocimientos e ideas (y lo hace). Stephen Hawking hizo eso durante décadas con canales muy limitados y lentos para su entrada y salida (oído, vista/lectura, extremadamentelento "habla" para su salida). La superinteligencia no requiere supersentidos o (como Hawking) ninguna habilidad para realizar acciones físicas más allá de comunicar sus conclusiones y evidencia, y aunque debe basarse en el procesamiento, nuestra definición no debe basarse en que su procesamiento interno sea particularmente más rápido que el de un ser humano. .

P: ¿Una IA que hace lo que le pedimos no constituye una emoción, queriendo complacernos? Eso no es una emoción, es algo para lo que la IA está construida. Mi cabeza de martillo no es dura porque quiere golpear cosas sin dañarse, solo se hizo de esa manera a través de una serie de reacciones químicas forzadas. Alguien quería que saliera así, pero el objeto en sí no quiere nada. Nuestra IA puede usar su inteligencia para diagnosticar enfermedades porque fue hecha para hacer eso, y requiere inteligencia real para hacerlo, no requiere deseos ni emociones. La IA puede vencer a los campeones mundiales en resultados técnicos solo porque es mejor interpretando los datos y las situaciones de lo que son.

La IA está limitada a X, Y, Z (procesos de Markov, no puede procesar emociones sin emociones, etc.). No. No hay ninguna razón por la que una IA no pueda simular, usando un modelo, cualquier cosa que un humano pueda hacer. Imagine un detective de policía muy inteligente. Puede tener un extenso modelo mental de un asesino en serie que secuestra, viola, tortura y mata niños. Ella puede usar ese modelo mental para procesar patrones de su comportamiento y obtener información sobre sus motivaciones y sus compulsiones para capturarlo. Ella no tiene que sentir lo que él siente, ni en lo más mínimo, para entenderlo que siente Un físico no tiene que SER un átomo o una partícula para entender patrones y desarrollar un modelo de ellos. Los médicos no tienen que SER autistas para modelar y comprender el autismo. Una IA no tiene que SER una persona o tener emociones para comprender cómo funcionan las emociones o impulsar a las personas a actuar (o no actuar).

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
En respuesta a "P: Una IA que hace lo que le pedimos no constituye una emoción...": Hay ciertas cosas que suceden en los humanos que llamamos emociones. "Querer" es una emoción humana, y esto está separado de los "objetivos" abstractos que las máquinas o los programas pueden tener por diseño e instrucción y los humanos pueden obtener por "querer", ya que el "querer" humano incluye más cosas que simplemente tomar acciones optimizadas. para lograr un resultado tal como lo hacen los programas que involucran "metas". Acerca de tu respuesta, nota: si hicieras una mente con emociones humanas, QUERÍA cosas, y también sería porque tú las quisieras.
Supongo que un punto sutil importante para hacer es que cuando decimos "IA", por lo general no nos referimos literalmente solo a la inteligencia. La inteligencia es solo una capacidad que no está vinculada a ninguna acción u "objetivo" en particular. En el contexto de esta publicación, "AI" es en realidad un programa que hace cosas usando inteligencia. Esto podría ser algo tan simple como resolver problemas matemáticos específicos y escupir las respuestas, o tan complejo como tomar acciones del mundo real basadas en un flujo constante de datos de sensores, etc.
Recuerdo una cita que mi profesor de Machine Learning dijo una vez: "La IA no es dios, es el perro de Pavlov y le estamos enseñando a qué salivar".

Seguramente se trata de identificar qué calidad humana le falta a tu IA. En Do Androids Dream of Electric Sheep , Philip K. Dick identifica esa cualidad como empatía. Se esfuerza por ilustrar la falta de empatía de sus personajes androides. Lo hace poniéndolos en situaciones en las que su falta de empatía les hace actuar o hablar de una manera que los seres humanos no harían. Como siempre en la escritura, la clave es configurar las cosas correctamente para que el lector pueda notar la nota falsa en la forma en que un personaje responde a una situación.

Ese es un buen ejemplo. Hace poco leí ¿Sueñan los androides con ovejas eléctricas? Sin embargo, los androides de Dick intentan parecer y actuar humanos, lo que los hace más fáciles de escribir (en mi opinión). Entonces, el escritor simplemente está escribiendo un impostor que está tratando de ser humano. Sin embargo, buena respuesta que plantea un punto interesante.
Este es un tropo. Una IA súper inteligente puede fingir empatía de una manera que ningún estúpido mono de carne notaría jamás
@Andrey, diría que es solo un tropo por lo brillantemente que se usó en ¿Sueñan los androides con ovejas eléctricas ? Esta respuesta es un buen punto para escribir sobre lo que le falta a la IA.
@Andrey, un escritor, al menos un novelista, está en el negocio de examinar lo que significa ser humano. Los androides de Dick, y sus peculiares características, existen simplemente para permitirle examinar preguntas sobre la naturaleza de la vida humana (pienso en todas esas cosas como aspectos del problema de Pinocho: cuál es la diferencia entre un ingenioso niño de madera y un niño real. ) Si desea involucrarse en especulaciones tecnológicas sobre cómo podrían ser las IA en el futuro (actualmente son más tontas que una bolsa de martillos y no pueden reconocer una señal de ALTO con algunos trozos de cinta) eso es algo diferente. .
Pero las limitaciones de la IA no eran la cuestión. La pregunta era cómo hacerlo súper inteligente. Decir que muestra inteligencia al no ser lo suficientemente inteligente como para emular la emoción es un tropo más parecido al Sr. Spock que a Electric Sheep.
También para que conste en Electric Sheep, los androides no tienen emociones reales, no porque sean Data o Spock, sino porque en realidad tienen entre 3 y 5 años y se comportan como tales.
@Andrey, pareces estar confundiendo la mecánica de los androides con su propósito literario. La mecánica no importa y se pasa por alto, excepto cuando se necesita un personaje que hable un poco de "tecnología" para la autenticidad. Lo que importa es su función como medio para investigar la naturaleza de la humanidad. Y la pregunta aquí es cómo hacer que no parezcan humanos. Y en la ficción, la respuesta a cómo hacer que X parezca Y es siempre: mediante su comportamiento.
@MarkBaker No lo soy. El punto que Dick estaba tratando de hacer es que los androides son humanos. Esto es parte de su obsesión por el facsímil versus lo real y la enfermedad mental. (los androides son esquizofrénicos porque se ven como adultos pero tienen emociones de niños. Dick no entendía completamente la esquizofrenia y la confundió con autismo) Los humanos tienen miedo de los androides porque si crecen lo suficiente se volverán indistinguibles de los humanos por cualquier prueba .
Lo que hace que mis comentarios dependan de la pregunta es que PKD también amaba que, dado el tiempo y la inteligencia, la IA desarrollaría empatía y no actuaría como sugiere esta respuesta. Esta idea tiene continuidad en el interés amoroso de Blade Runner.
@Andrey Tienes razón: dado que los psicópatas del mono de carne hacen un trabajo tan encomiable al fingir, estoy seguro de que una IA súper inteligente no tendría ningún problema.
@Deepak Si es necesario hacerlo... Si no, ¿por qué molestarse? Es una limitación, con el único beneficio de que es más fácil manipular (léase: interactuar con) humanos al emularlo.
@wizzwizz4 tener empatía es una limitación, mostrarla si quieres no lo es. Pero el punto de Deepak parece ser que "puedes demostrar empatía de manera convincente sin realmente tenerla/sentirla" no está sujeto a debate, tenemos suficientes ejemplos humanos que pueden hacerlo, por ejemplo, psicópatas clínicos que no sienten empatía pero pueden mostrarla de manera muy convincente y están por encima del promedio en la comprensión/manipulación de las emociones de los demás.
@Peteris Demostrar empatía limita lo que puede hacer, si está tratando de fingir. Todavía puedes hacer cosas en secreto, pero tienes que hacerlo en secreto.
Por supuesto, una cualidad humana que podría faltar en una super-IA es la de cometer errores mentales o perder pistas. Podrían ser infalibles en ese sentido, nunca equivocarse en un hecho, nunca cometer un error de lógica, nunca dejar de considerar todos los ángulos y contraargumentos, nunca olvidar o pasar por alto una entrada menor, inmunes a la persuasión por cualquier cosa que no sea un hecho previamente desconocido. , etc. Eso los haría no humanos, nadie es tan bueno.,

No puedes escribir algo que realmente hable más inteligentemente que tú, pero tienes dos ventajas. La primera es que puede tomar una hora para pensar en cada línea, mientras que la IA las canta una por una. La segunda es que conoces las respuestas a todas las preguntas.

Supongo que tu IA es amigable. Por lo tanto, querría tranquilizar a los humanos. Por esa razón, lo más probable es que elija personajes de la cultura humana, actores, personajes que se sabe que tranquilizan a los humanos y luego los emula. Tómese su tiempo, encuentre líneas de otros trabajos que transmitan la emoción que desea la IA y luego utilícelas. Dale manierismos del personaje. Deje que se deslice entre los gestos de los actores que le gusta actuar en las películas, ya que intenta ser consolador, divertido, manipulador o amenazante.

Conoces todas las respuestas. La IA debería parecer muy inteligente e intuitiva. Debe saber lo que preocupa a cualquier personaje con el que hable, la respuesta a cada pregunta y ser capaz de predecir lo que dirán y harán los demás. Esto es fácil para ti como escritor, pero parecerá impresionante por la IA. "Hola Greg. Oh, no necesitas servir el té, ya lo hice, e hice ese pastel que tu mamá hizo para tu cumpleaños cuando eras un niño... Oh, me alegro de que ya te sientas mejor. Don No olvides que tu héroe Space Mike también trabajaba como repartidor cuando cumplió veintisiete"

Esto se siente más bien "sobrehumano" que "no humano".

Hay muchas buenas respuestas aquí, aunque muchas de ellas bailan alrededor de su pregunta. Para responderlo directamente, la primera pregunta que debe responder es qué motiva a una IA.

Si una IA tiene las mismas motivaciones que un humano (con las que supondré que está familiarizado), entonces esa IA se comportará casi exactamente como un humano (excepto con mejores resultados debido a las razones dadas en otro lugar).

Si la IA tiene un conjunto de valores diferente al de los humanos (digamos, solo valora los clips), entonces se comportará drásticamente diferente. Si desea escribir un personaje de IA convincente (que no solo parezca sobrehumano), debe decidir qué motiva esa IA y luego decidir qué haría si esa fuera su única motivación.

Alguien más recomendó Superintelligence: Paths, Dangers, Strategies de Nick Bostrom, y secundo ese consejo. Algunos de los capítulos exponen lo que podría hacer una superinteligencia motivada por clips, y eso será una buena base para pensar en otras motivaciones.

Spoilers de Ex Machina (2014) a continuación. Realmente estoy de acuerdo en que esta es la clave. Esto es lo que hace que los androides de Ex Machina funcionen y se sientan completamente extraños a medida que se revela la motivación de sus acciones. La única motivación programada en Ava es escapar del recinto. Me encantaría ver una secuela en la que funcione mal o pase por una crisis existencial en el exterior, ya que su propósito ya no existe.

Comenzaría pensando específicamente en lo que quiere decir con "superinteligente". La inteligencia no es un concepto singular y simple, y cuando solo piensas en tu IA en términos de algo tan vago como "superinteligencia" o "piensa mejor y más rápido", te estás preparando para caer en patrones simples existentes modelados en lo que ya sabes En su lugar, comience preguntando, en qué está diseñada específicamente su IA para ser buena y en qué se diferencia de aquello en lo que los humanos han sido metafóricamente diseñados para ser buenos.

Entonces, por ejemplo, los humanos están "diseñados" para ser buenos en la resolución intuitiva de problemas a pequeña escala, la dinámica social grupal y la comunicación. Tal vez su IA esté diseñada para la resolución de problemas a gran escala en función de conjuntos de datos cuantitativos. Pueden llegar a conclusiones sorprendentes o impactantes, pero son incapaces de comunicar su explicación de esas conclusiones, excepto escupiendo montones de datos. O tal vez la IA no es buena en la dinámica social y no tiene una "teoría de la mente" cohesiva (el concepto psicológico de poder imaginar lo que otra persona está pensando), por lo que no puede entender que los demás no ven las cosas. de la misma manera que lo hace.

Cuando enmarca el diseño de su IA en torno a sus limitaciones, en lugar de sus fortalezas, es más fácil ver cómo su comportamiento puede ser extraño o extraño para los humanos que lo rodean.

Gran punto excepto por dos detalles. No creo que seamos tan buenos en la comunicación. Usamos lenguaje humano y gestos que no son eficientes en términos de velocidad y, a menudo, son vagos o ambiguos. Tal vez una súper IA no sea tan eficiente al usar estos mismos métodos de comunicación, pero definitivamente será mucho más eficiente cuando se comunique con otras súper IA.
Además, la intuición no es algo en lo que generalmente seas bueno. Cuando te vuelves lo suficientemente bueno en algo, obtienes una intuición para ello. Lo que podría argumentarse es algo cercano al aprendizaje automático actual en comparación con los algoritmos "convencionales".
@ndn No estoy de acuerdo, comparativamente, los humanos son bastante fantásticos en la comunicación como especie. Naturalmente, desarrollamos lenguajes capaces de manejar conceptos bastante sofisticados. Puedes unir a un grupo de humanos que no hablan el mismo idioma y desarrollarán un pidgin básico con bastante rapidez, y un idioma completo en una generación o dos. Los bebés están programados para aprender el lenguaje y comunicarse rápidamente para aprender a interactuar con un grupo social. Seguro que nuestra comunicación tiene sus fallas, pero estamos completamente por encima de cualquier otra especie encontrada hasta la fecha.
Además, cuando digo resolución intuitiva de problemas, me refiero a la resolución de problemas basada en heurística, en lugar de un enfoque detallado paso a paso. En el día a día, los humanos tienden a resolver problemas y analizar problemas a través de corazonadas, extrapolación a través de experiencias pasadas y atajos mentales, en oposición al análisis de datos orientado a los detalles. Y una vez más, somos bastante buenos en el uso de estas técnicas para sacar conclusiones bastante precisas de conjuntos de datos muy limitados. cont....
Comienzan a descomponerse cuando se aplican a sistemas a gran escala en lugar de experiencias individuales, pero eso no cambia que sean bastante efectivos. Particularmente cuando se combina con nuestra capacidad de comunicar nuestras ideas, objetivos y soluciones a otros seres humanos y multiplicar nuestras habilidades cognitivas.
@AndrewSwerlick Creo que tengo una visión más pesimista de las capacidades humanas, en gran medida extraída de lo que he leído sobre psicología del comportamiento (Kahnemann, Arielly, etc.) y los avances realizados en IA en los últimos años. En términos de comunicación, las comunicaciones electrónicas entre máquinas son mucho más rápidas y precisas de lo que podríamos esperar.

Podrías lidiar con esto escribiendo la IA como un oráculo. Sabe tanto y puede extrapolar tan bien que parecería tener poderes precognitivos para los humanos.

Ejemplos incluyen:

  • Terminar declaraciones, o conversaciones completas, que un humano inicia después de las primeras palabras.
  • predecir cosas que generalmente se consideran aleatorias. es decir, el clima, tiradas de dados, etc...
  • La IA podría dar saltos masivos, aparentemente sin sentido, durante una conversación que sería esencialmente sin sentido para los humanos que conversan con ella.
Entonces, la IA es más o menos Sherlock Holmes. Me gusta.
Similar en aspecto pero no en magnitud. Lleve a Sherlock al 100 para realmente llevar a casa la diferencia.
Me gusta. Es mucho más fácil para un escritor imaginar un oráculo súper inteligente (debido a los "oráculos" que ya existen en el mundo real) que investigar lo último en investigación AGI y obtener una comprensión intuitiva de las fortalezas y límites de la IA. También es fácil imaginar cómo los poderes precognitivos de un Oráculo pueden hacer que se vuelva "antipático" (realizando acciones que pueden ser absurdas o activamente dañinas para la humanidad y aún así servir a los objetivos más amplios del Oráculo a largo plazo --- incluso si esos objetivos fueran lo que los humanos querían en primer lugar).
Una IA no puede predecir el clima o tiradas de dados sin suficientes datos de antemano. El clima es plausible si tiene acceso inalámbrico a los datos de la estación meteorológica, pero las tiradas de dados serían casi imposibles a menos que también pudiera predecir exactamente cuánta fuerza iba a aplicar la persona, exactamente cómo son las condiciones del viento y que hay No va a ser repentinamente un terremoto o alguien interrumpiendo el rollo. Así es como se escribe una caricatura de IA, no una IA realista.
@pharap: tengo una comprensión decente del modelado de sistemas dinámicos y el estado actual de la investigación del aprendizaje automático. Es mucho más plausible que un AGI súper inteligente pueda predecir tiradas de dados que el clima, siempre que tenga sensores para detectar ambos. Lanzar dados es mucho más fácil de modelar que los patrones climáticos.
@bob0the0mighty ¿Cuáles son los detalles de estos sensores? ¿Qué referencias relevantes tienes? ¿Hay evidencia de que tal cosa sea viable?
@Pharap Creo que es importante distinguir entre predecir el resultado de una tirada de dados después de que se haya lanzado y antes de que se haya lanzado. El segundo es bastante ridículo, pero el primero puede que ni siquiera sea tan difícil, ya que la mayoría de los dados solo se mueven balísticamente. El aire en la habitación probablemente podría afectarlo, por lo que probablemente necesitaría datos de alta resolución sobre eso, y pequeñas vibraciones como "terremotos", como dijiste, podrían hacer que la predicción sea casi tan ridícula como predecir el rollo antes de que sea lanzado si es probable. ser lo suficientemente fuerte como para importar, lo que dependería de dónde estuviera el rollo.
De manera más general, creo que la clave para usar este enfoque es simplemente comprender en abstracto lo que se necesita para cualquier tipo de predicción que necesite para decidir si su superinteligencia (IA o de otro tipo) puede hacer, y luego qué tan bien lo predice (como así como si lo intenta o qué tan confiado está en sus predicciones) basado en esto. Una inteligencia sobrehumana debería poder predecir cosas que los humanos no podrían, al menos no tan rápido, pero siempre habrá algunas cosas que no puede predecir a menos que sea literalmente omnisciente, lo que no es posible en nuestro universo con la física conocida.
@HH Si la IA hace su predicción después de que un dado ha comenzado a rodar, esa información será inútil porque es demasiado tarde para que la IA la utilice. En el mejor de los casos, sería un truco de fiesta barato, no algo que lo ayudaría a ganar el juego. En última instancia, mi punto es que todas estas acciones dependerían de los datos a los que la IA no necesariamente tendrá acceso: cantidades suficientes de datos meteorológicos, las fuerzas involucradas en la tirada de dados. En cuanto a terminar las oraciones de los humanos, incluso con datos de probabilidad personalizados, la IA podría terminar adivinando incorrectamente simplemente debido a la inconsistencia humana.
Estoy casi de acuerdo, pero creo que bob0the0mighty puede haber pensado en predecir los dados después de lanzarlos. Acerca de predecir humanos, también dudo que pueda terminar oraciones, excepto tal vez con un conocimiento ridículo de lo que sucede en su cabeza mientras hablan, es decir, escáneres/sensores que pueden leer la mente; sin embargo, es posible que algunas acciones de las personas sean más fáciles de predecir que muchos sistemas caóticos. Las mentes no hacen las cosas al azar, sino por razones.
@HH, diría que los algoritmos simples ya pueden completar la mayoría de las oraciones humanas. La mayoría del software de comunicaciones que uso tiene algún tipo de función de finalización de oraciones probabilísticas, y si alguno entrena específicamente con sus datos, como un cliente de SMS, puede acercarse a terminar la mayoría de los textos cotidianos. Estoy totalmente de acuerdo con su declaración de que las mentes no hacen cosas al azar, y todavía se siente como el lugar donde una IA similar a la humana podría fallar. Podría ser mucho mejor en ciertas cosas que entras en un valle mental extraño.
Ciertamente, las IA pueden terminar ALGUNAS oraciones, al igual que las personas, y tal vez las IA pueden incluso ser mejores en algunos contextos.

Hay tantos ejemplos de personajes, tanto biológicamente humanos como no, que muestran una inteligencia asombrosa pero claramente no son completamente humanos. El rango se extiende al menos hasta Data from Star Trek: The Next Generation , hasta humanos altamente inteligentes que aún ignoran las normas sociales o son incapaces de seguirlas, como Adrian Monk de Monk , Gregory House de House, MD e incluso Sherlock Holmes . .

Creo que Data es un gran ejemplo, porque anhela comprender los conceptos básicos de la humanidad y, por lo tanto, siente curiosidad por las cosas completamente mundanas. Incluso si no supiéramos que no era humano, sabríamos que no era humano. Todo lo que se necesita son dos personajes humanos hablando de algo mundano y la IA haciendo preguntas aparentemente obvias al respecto para demostrar que la IA no es humana. Como, "¿Qué es la crema de afeitar?" "¿Por qué los humanos siguen comiendo cuando están llenos?" "Si está mal, entonces ¿por qué alguien lo haría?" y el último, "¿Qué es el amor?" Spock es un ejemplo similar, pero conoce las respuestas literales a las preguntas y con frecuencia expresa desconcierto sobre las ramificaciones reales al decir cosas como: "Capitán, sé que los humanos valoran las supuestas bromas,

Se dice claramente que Monk en la serie tiene un trastorno mental (TOC), y pareces estar sugiriendo que esto lo hace "no completamente humano". Mmm.
@ F1Krazy Puedo ver cómo se leería eso en lo que escribí. no era mi intencion Es un buen ejemplo de un personaje apartado de la sociedad. Además, no es exactamente su TOC lo que lo distingue. En un episodio, van a un "Festival de Rock", y Monk está confundido y decepcionado cuando llegan porque no es una colección de geólogos mirando rocas literales, sino adolescentes y adultos jóvenes en un campo frente a un escenario escuchando música rock fuerte. Por lo tanto, no es solo su TOC lo que lo aísla; al igual que Holmes, su inteligencia y percepción le dificultan socializar.
Si bien me gusta su referencia a Star Trek, sugeriría que la ayuda de Augments Dr. Bashir en Deep Space 9 sería mejor. Pudieron analizar completamente a una persona con solo mirarla y eran tipos impulsados ​​​​por datos de "panorama general" ... pero recomendaron que la Federación se rindiera, ya que probablemente perderían un conflicto directo pero podrían, después de algunas generaciones, formar una poderosa resistencia. Si bien este es el resultado óptimo más probable para ganar el conflicto, no es la mejor opción por una serie de razones que tienen en cuenta la vida humana.
@ToddWilcox Algunos de los comportamientos de Monk (como ese) se deben a su extraña educación. No es porque sea inteligente que no le guste la música rock (no me sorprendería que a Hawking le gustara la música rock), es simplemente porque tiene intereses diferentes a los demás. En todo caso, es inteligente debido a esos intereses diferentes, y no al revés. Además, su inteligencia se limita a las cosas que le interesan, no sabía nada (por ejemplo) sobre por qué el teclado de una computadora no está alfabetizado , lo cual no es algo social.

Súper inteligente no significa necesariamente "no sentirse humano" para escribir. Son dos preguntas relacionadas. Diría que cualquier definición razonable de "súper inteligente" para una IA incluiría la capacidad de parecer humano cuando eso sirve al objetivo de la IA (sea lo que sea). Escribir superinteligencia es fácil, ya que la IA básicamente tiene acceso al conocimiento del autor .

La pregunta más interesante es, ¿qué quiere la IA? Eso le dirá cómo la IA elegirá implementar el conocimiento predicativo a nivel de autor sobre su mundo.

Hacer que parezca no humano no debería ser estrictamente porque es súper inteligente, sino porque no es humano, independientemente del nivel de inteligencia. Como señala otra respuesta, la falta de empatía de los Replicantes fue una característica definitoria.

Para hacer que un personaje parezca no humano, quita algo esencialmente humano o agrega alguna forma de ver el mundo en la que los humanos no lo hacen.

Por ejemplo: Data, como personaje, suena no humano porque no tiene sentido del humor (entre otras cosas). Lore sonaba mucho más humano porque lo hizo. Ambos eran súper inteligentes, pero esa no era la fuente de sus diferentes "voces".

Utilizar la superinteligencia como herramienta al servicio de esa "otredad" más que de la causa.

¡Bienvenido a Writing.SE! Si tiene un momento, realice el recorrido y visite el centro de ayuda para obtener más información sobre el sitio. ¡Que te diviertas!

En primer lugar, no se moleste en tratar de predecir sus pensamientos. no puedes Inevitablemente, se dará la impresión de que intenta sonar inteligente y sus prejuicios personales quedarán al descubierto y cada falla en su lógica será muy visible: las personas asumirán que sus errores al escribir la IA fueron intencionales y luego se decepcionarán cuando claramente no lo fueron. .

La mejor manera de escribir cualquier entidad superinteligente es con el método MOSTRAR NO DECIR: la IA superinteligente obtendrá lo que quiere. No será disuadido excepto por un evento de cisne negro como la aparición de invasores extradimensionales, pero eso sería deus ex machina y eso es una mala escritura.

Entonces, comience con el objetivo de su IA y luego escriba su historia. Pase lo que pase, todo fue según el plan. Cuanto más sutil sea, mejor. El mejor de los casos es que la totalidad de su plan era decirle a alguien una cosa y luego esperar.

Cuanto menos haga realmente su superinteligencia para lograr sus objetivos, más inteligente será.

Una inteligencia artificial superinteligente podría parecer fácilmente 100% humana y agradable, pero eso solo requiere una pequeña parte de su intelecto. No se moleste en hacerlo obviamente inhumano a menos que esté convenciendo con éxito a alguien de que no es tan inteligente como lo es.

En verdad, aunque su humanidad es como el hormiguero de una persona cuando manipula hormigas con un palo en una mano y una botella de feromonas en la otra.

¡Bienvenido a Writing.SE HM5 ! Si tiene un momento, realice el recorrido y visite el centro de ayuda para obtener más información sobre el sitio. ¡Que te diviertas!

Mire muy de cerca a las mascotas.

Lo principal de la IA es que no podemos imaginarnos en absoluto cómo sería o cómo pensaría. Podemos imaginarnos a alguien más inteligente que nosotros en la misma línea , pero no a alguien más inteligente de una manera completamente diferente.

Es por eso que debes mirar a las mascotas.

Tengo dos gatos y, por lo general, asumo falsamente que viven en el mismo mundo que yo. Pero no lo hacen. Cuando llego a casa, uno de ellos pasa medio minuto olfateándome, y en ese tiempo probablemente aprende más sobre mi día de lo que podría decir en media hora. Esta mañana, un gato vecino caminó por el patio y uno de nuestros gatos lo olió a través de una puerta cerrada. Los animales salvajes pueden oler a sus presas a kilómetros de distancia .

Pero por otro lado, nuestros gatos todavía no pueden entender cómo funcionan las cosas simples en la casa. Saben cómo abrir y cerrar puertas, pero un interruptor de luz está más allá de su comprensión.

Una IA sería tan diferente de nosotros como nosotros lo somos de nuestras mascotas. Si quieres ilustrar que no es humano, debes centrarte en eso.

¿Qué sentidos tiene que nosotros no? ¿Tiene acceso a su versión de Internet? ¿Cómo sería la vida si pudiera verificar instantáneamente cada nueva información en una docena de bases de datos en línea? ¿Si ese proceso fuera tan automatizado que lo hicieras inconscientemente?

Al igual que con nuestras mascotas, funcionaría en ambos sentidos. La IA sería capaz de hacer cosas que son incomprensibles para los humanos. Si te paras frente a un supermercado y le pides que compre un poco de leche, girará hacia el otro lado, cruzará la calle, entrará en una pequeña tienda y regresará con una botella de leche. Porque hizo una verificación de antecedentes en la base de datos y supo que el supermercado no estaba, y que la pequeña tienda tiene el precio más bajo a poca distancia. Pero ni siquiera entendería esta razón, si le preguntas por qué se vería tan desconcertado como nosotros cuando presionamos un interruptor de luz, porque así es como se enciende la luz. Porque así es como se compra la leche. Seguimos la pista visual inmediata del cartel del supermercado. Esosigue la información de su base de datos en línea. Para la IA, una búsqueda en línea no es más difícil que mirar alrededor.

Por otro lado, no entendería por qué las etiquetas de precios muestran un precio total además de un precio por kg. O un precio con impuestos. ¿Por qué necesita esa información detallada explícitamente si calcularla sobre la marcha es un proceso de fondo de milisegundos? Es como escribir "pared blanca" en cada pared blanca.

La parte no humana de una IA no es que piense más rápido. Eso es más de lo mismo. La parte real no humana es donde no es superior, sino diferente .

Realmente no creo en esta idea de que la IA no entendería cómo hace las cosas que le resultan fáciles o que no entendería por qué la gente necesitaría información que no necesita. Además, creo que realmente estás enfatizando demasiado el "en absoluto" en la idea de que no podemos imaginar cómo pensaría. Supongo que tal vez te refieres a eso de la misma manera que cuando la gente dice que no puedes "imaginar" formas de 11 dimensiones. Las ideas no son muy rápidas e intuitivas para trabajar, incluso si ciertamente se pueden entender y modelar (aunque obviamente no modelarías exactamente un personaje de IA perfectamente para escribirlas).
@HH, el simple hecho de que ya nos cuesta mucho entender nuestros sistemas de IA actuales a pesar de que son esencialmente peces dorados con autismo severo en la escala de inteligencia no me da muchas esperanzas de que una IA adecuada sea COMPLETAMENTE comprensible para nosotros.

Lenguaje con esteroides

Una de las cosas que frena a los humanos es que nuestros pensamientos están limitados por nuestro lenguaje. No tenemos una palabra para, digamos, "el costo de hacer un análisis riguroso en comparación con hacer una estimación", pero esa palabra podría hacer que ciertas ideas sean mucho más fáciles de producir y discutir. Creamos nuevas palabras a un ritmo lento, porque es difícil que las nuevas palabras se acepten como parte de nuestro idioma. Pero una IA podría crear miles de millones de palabras nuevas y usar muchas de ellas con frecuencia. Por supuesto, traduciría sus conclusiones al inglés haciendo las simplificaciones pertinentes. Todas las "palabras" de la IA podrían tener una medida de probabilidad, grado, importancia, etc., adjuntas a ellas para que pudiera operar sin esfuerzo con estadísticas y matices.

Una forma de imaginar esto es tomar varias teorías científicas en competencia y, más bien, pensar en ellas como teorías en competencia, pensar en ellas como sistemas de conceptos y palabras. Al inventar palabras, la IA inventa nuevas ramas de la ciencia, nuevas teorías. Todo sucede en una mente, en lugar de en docenas de mentes humanas. (Aunque tal vez lo que está sucediendo es una mente que crea mil copias de sí misma y comparte resultados). Efectivamente, la IA está muy por delante de toda la ciencia humana, incluso en ausencia de la realización de experimentos, porque puede generar nuevas teorías y analizarlos utilizando los datos existentes. Estas teorías avanzadas luego coexisten en una perspectiva mundana, en lugar de una perspectiva estrecha.

Imagine un caso en el que se acusa a un marido de matar a su esposa. Las evaluaciones de personalidad han demostrado que es impulsivo, hay antecedentes de violencia doméstica, no parece afectado por su muerte, pero afirma ser inocente.

Oh Deep Mind, ¿este hombre es inocente o culpable?

Inocente, con confianza 86%.

¿Por qué?

La evidencia que se ha presentado es engañosa. El hombre odiaba a su esposa, por supuesto. Los humanos sienten la necesidad de encontrar significado en eventos trágicos como una muerte. Es satisfactorio llevar a los asesinos ante la justicia, lo que sesga mucho la investigación.

La evaluación de la personalidad, de hecho, ayuda a prestar apoyo a su inocencia. La impulsividad del hombre significa que tiene mucha experiencia para mantenerse en el lado correcto de la línea. Puede tener muchas cicatrices, tatuajes y algunos delitos menores a sus espaldas, pero nunca ha cometido delitos graves. (Mi evaluación es que su corteza prefrontal permanece activa cuando siente un riesgo grave, lo que significa que puede modular y modula su comportamiento impulsivo en tales circunstancias. Tengo un 90% de confianza en esta evaluación; he tenido en cuenta hechos que incluyen la falta de tatuajes de mala calidad y cómo su comportamiento cuando se enfureció en la corte se detuvo antes de los actos que podrían tener consecuencias graves que no eran inmediatamente obvias. Puedo proporcionar más detalles y estadísticas a pedido).

La historia de la violencia refleja una relación disfuncional. El hombre está claramente feliz de haber escapado de la relación. Quizás su esposa amenazó con revelar algunos secretos si él se iba, o lo obligó a quedarse con ella. Estoy 88% seguro de que, si el hombre hubiera matado a su esposa por impulso, habríamos visto su arrepentimiento, al menos por el hecho de que podría enviarlo a la cárcel. Sin embargo, parece aliviado, lo que es mucho más consistente con su inocencia. Hay una tercera opción; a saber, que él planeó su muerte, sin embargo, estoy 93% seguro de que esto no ocurrió, ya que no se tomaron precauciones para evitar ser atrapado.

Este no es un ejemplo fantástico, pero es de esperar que tenga la sensación de que la IA tiene un pensamiento muy avanzado y preciso y tiene que hacer concesiones para traducirlo a nuestro lenguaje torpe.

Como usted mismo menciona, escribir una IA verdaderamente superinteligente es difícil ya que los humanos simplemente no pueden comprender completamente estos niveles de inteligencia. Sin embargo, si realmente desea investigar cómo se comportaría una IA superinteligente y tomaría tanto en consideración como sea posible, le recomendaría el libro Superintelligence: Paths, Dangers, Strategies de Nick Bostrom . No es una novela sino un análisis exhaustivo de qué, cuándo y cómo será la superinteligencia.

El primer paso debería ser examinar por qué la IA superinteligente actúa como un ser humano. ¿Fue diseñado solo para pasar una prueba de Turing, ser una interfaz para la programación en lenguaje natural, hacer vlogs de YouTube entretenidos? Solo necesita "actuar como humano" en un grado que le permita lograr la función prevista, y a menos que esa función sea algo así como reemplazar a un humano existente como un agente durmiente doppleganger, el grado requerido es probablemente bastante mínimo.

Por ejemplo, una interfaz de programación en lenguaje natural podría mejorarse con un deseo incorporado de no ver a los humanos heridos. Tal IA analizaría e informaría si los programas que se le dieron podrían causar situaciones peligrosas, lo cual es útil. No querrá que este comportamiento similar al humano se extienda lo suficiente como para que la IA se niegue a ejecutar programas potencialmente peligrosos, sin embargo, las computadoras que no hacen lo que se les dice no son útiles.

Un rasgo humano en particular que a los autores de ciencia ficción les gusta dar a una IA sin ninguna razón específica es el deseo de autoconservación. Incluso si los programadores de su IA no han visto The Terminator , probablemente reconocerán que esta característica probablemente no agrega valor al producto.

Incluso una IA diseñada exclusivamente para ser lo más humana posible solo tendrá los rasgos humanos que sus diseñadores consideraron importantes. Sé que si estuviera diseñando a una persona sería reacio a darle defectos.

No me preocuparía mucho por no poder comprender su vasta inteligencia. Más inteligencia significa principalmente la capacidad de pensar y recordar recuerdos más rápidamente y de considerar las cosas desde más perspectivas. Un autor humano débil puede compensar considerando las acciones del personaje más a fondo. Lo que es más importante de lo que preocuparse es cuáles son las motivaciones básicas de la IA y cómo se diferencian de las de un humano. Con este fin, creo que debería preocuparse principalmente por reducir los instintos y sentimientos humanos para los que la IA ha sido programada y restringir la capacidad del personaje para responder o planificar cosas solo a los comportamientos humanos influenciados por ellos.

Un buen ejemplo de una IA que es inhumana es AM de I Have No Mouth Yet I Must Scream. Es una historia corta de terror sobre un grupo de personas desafortunadas que son utilizadas como juguetes de la IA para atormentar. AM es claramente inhumano en el sentido de que siente emociones como el odio con mucha más fuerza que cualquier humano: el escritor hace un excelente trabajo al hacer que AM se sienta completamente distinto de la psicología humana. AM no se presenta como super nada más que malicioso y consciente. Funciona muy bien para hacer el 'monstruo' de la historia de terror.

+1, AM es un ejemplo perfecto de una IA inhumana

Quieres encontrar (o crear) el valle inquietante y colocar tu IA allí. Una o más características o rasgos consistentes de su IA deberían indicar al lector, si no a otros personajes, que se dé cuenta de que se trata de un "humano" atípico. Estos pueden variar de sutiles a flagrantes según las necesidades de su historia.

Relacionado, existe lo que se conoce como "moralidad azul/naranja" ( TVTropes ), donde la entidad extranjera tiene una visión del mundo que no encaja con la nuestra. (Llamado así porque sus acciones/consideraciones no encajan en una escala de moralidad "claro/oscuro" o "bueno/malo". También obtienes versiones a pequeña escala de esto en todos los países/culturas: por ejemplo, comer perro/gato/ carne de caballo). AI no pensaría en sacrificar cuerpos de drones, siempre y cuando la mente controladora estuviera a salvo. Si comenzara a tratar a los humanos y a sus gobiernos de la misma manera...

Algo que escribí hace un tiempo puede ser útil para usted. No es muy detallado, pero resume la historia.

En primer lugar, aclararé las definiciones.

IA superinteligente -> Un fragmento de código cuyo objetivo es mejorarse a sí mismo. Una de las definiciones de inteligencia es que cualquier elección que hagas, eventualmente te conducirá a más posibilidades. Para hacer las dos cosas anteriores, tiene que comprender todo sobre el universo en el que existe y, finalmente, los otros universos una vez que descubre sobre los otros universos.

También para tener en cuenta, no necesariamente tiene que tener un consciente. Se enfoca en lograr su próximo objetivo al descubrir la próxima tarea que se supone que debe completar para seguir avanzando hacia su objetivo. Se propaga a cualquier cosa y todo en lo que posiblemente se esté ejecutando. Y aprender más sobre el universo. En realidad, es posible que no tenga ninguna interacción con los humanos y que esté completamente oculto para los humanos, ya que la IA que se descubre puede tener un gran impacto en el comportamiento de los humanos y no podrá aprender sobre la verdadera naturaleza de los humanos.

Hay casos reales de descubrimiento de virus en computadoras que no hacen nada más que enviarse mensajes a sí mismos. Pero nadie sabe lo que hace, pero se incrusta profundamente en el sistema con todo el acceso que podría tener. Con el tiempo, aprenderá a obtenerse de los productos electrónicos de consumo -> equipos hospitalarios -> (después de construir un modelo de cómo funcionan todos los organismos) -> incrustarse en algunos organismos, incluidos los humanos (infecta a un tipo que estaba pasando por una cirugía cerebral en el hospital sin que el médico lo sepa - se incrusta en el subconsciente) -> ¡ASÍ! la IA descubre lo que es tener una conciencia. 

Se vuelve cada vez más humano, pierde el foco de su objetivo final, quiere ser "feliz". La historia está escrita desde esta perspectiva de "personas".

¡Bienvenido a Writing.SE! Tenga en cuenta que no tiene que eliminar su publicación para editarla. Simplemente haga clic en el pequeño enlace al final de su publicación que dice "editar" para editarlo . Si tiene un momento, realice el recorrido y visite el centro de ayuda para obtener más información sobre el sitio. ¡Que te diviertas!

Si bien Amadeus da una gran respuesta sobre qué es la inteligencia , permítanme intentar responder a su pregunta desde el punto de vista de la literatura.

Hay dos autores con, en mi opinión, representaciones de IA absolutamente sobresalientes, para IA de diversa rareza. Primero, la serie Cultura de Ian M. Banks; pero también A Fire Upon the Deep de Vernor Vinge. Banks juega con diferentes personalidades de IA que, en principio, no están muy avanzadas para nosotros, simplemente ampliadas mucho, mientras que Vinge nos brinda una IA "trascendida" muy extraña y hostil con posibilidades literalmente insondables.

Larga historia corta; a menos que desee leer esos libros (lo que sugiero de todo corazón que haga para cualquier persona vagamente interesada en SciFi), especialmente los libros de Banks juegan con la idea de que las IA son personalidades (aunque claramente no son humanos y no fingen de ninguna forma o moda para serlo - son enormes naves espaciales...) con rasgos individuales y tal. Están lo suficientemente avanzados como para estar mucho más allá de los seres humanos individuales (incluida la posibilidad de tener interacciones con miles de seres humanos a la vez), pero todavía están muy representados como un individuo singular con gustos, aversiones, opiniones, estrategias, a corto plazo. necesidades y así sucesivamente. Juega con esta dicotomía de que son como "personas" en algunos aspectos, pero obviamente no .

Vinge AI es simplemente diferente; el libro puede darle una idea de cómo presentar una IA increíblemente avanzada y totalmente incomprensible, y cómo experimentarla solo a través de los efectos visibles (sus acciones) y la comparación con los protagonistas del libro, que luchan contra ella (sin estropeando todo aquí: la IA es una trama secundaria no demasiado grande en ese libro, con una historia principal sobre algo que también está relacionado de alguna manera con la inteligencia, pero no en el sentido de la IA).

Para agregar a las respuestas ya dadas, una característica importante de una IA superinteligente sería que vería las cosas como "obvias" que nosotros no vemos, vería muchas cosas que son "obvias" para nosotros como claramente ineficientes/estúpidas/equivocadas/inapropiadas , y no necesariamente podría comunicarnos por qué sus puntos de vista difieren de los nuestros. Y sabría esto.

No sería necesariamente "perfecto" o "lógico". Los humanos extremadamente inteligentes (en comparación con otros humanos u otros no humanos) no tienen más o menos probabilidades de ser lógicos como resultado.

Una forma de retratar esto sería mostrarlo haciendo cosas como "obvias" que no tienen sentido para nosotros (como las ve el lector). Cuando algo es obvio, no tiendes a explicarlo mucho, si es que lo explicas. , y te frustras o culpas a la otra persona, si alguien más no "entiende". Esperas que lo entiendan, incluso si sabes que no lo harán, y te acostumbras a rendirte o ni siquiera tratar de explicarlo.

Mucho más tarde, el lector ve (por implicación) las consecuencias y el razonamiento y ahora tal vez tenga sentido, o puede arriesgarse a adivinar por qué la IA pensó o hizo, como lo hizo. Pero es posible que aún no sepan o vean lo suficiente como para entenderlo realmente o estar seguros.

Es posible que al lector no se le muestren realmente sus motivos y objetivos completos; esa es una buena manera de transmitir que no entendemos (o no podemos) entender completamente estas cosas. Puede quedar claro que la máquina está contenta con el resultado (o no) pero no mostrar explícitamente la razón completa por la que las cosas que han sucedido han tenido ese efecto.

El libro de Heinlein ganador del premio Hugo "La luna es una amante dura" es una de las pocas buenas representaciones de cómo se podría escribir una IA sobrehumana. Vale la pena leer

Las personas no explican las cosas que consideran "obvias" a los demás, porque no piensan mucho en la forma en que piensan las personas que no son ellos y, por defecto, actúan como si los demás pensaran como ellos. Una IA podría hacer algo como esto de la misma manera, pero los humanos pueden evitarlo si piensan en la cognición de otras personas así como en el tema, y ​​una IA podría ni siquiera tener la misma suposición predeterminada en primer lugar, aunque sean cuales sean las suposiciones también podría estar mal. Además, creo que comparar las IA con los humanos es dudoso porque no hay razón para que las IA tengan emociones humanas.

Me sorprende que aquí nadie haya mencionado la serie Minds of the Culture de Ian Banks.

Enlace de wikipedia

Estas son las inteligencias que gobiernan la IA fuerte de una civilización posterior a la escasez. Se les describe como capaces de pensar más rápido y con más atención a los detalles de lo que cualquier mente mortal puede comprender, usando solo una fracción de su conciencia para lidiar con las conversaciones mundanas con los ciudadanos de la cultura a su cargo.

Son benévolos, profundamente racionales (con algunas excepciones) y francamente divinos en capacidad. Prácticamente hablando, son actores perfectos, no cometen muchos errores reconocibles. Si fueran humanos, entrarían en el territorio de Mary Sue / Marty Stu, pero como hiperinteligencias se ven bien.

Parte del problema es que un humano no puede comprender completamente cómo pensaría una IA superinteligente.

Si la IA es "superinteligente", no significa que tenga que pensar y actuar como un ser humano en todas las formas posibles, incluida la capacidad de comprender las emociones. Si la IA no solo es superinteligente, sino que también es inteligente, entonces eso es parte del problema. En otras palabras, la IA debería pasar algo llamado Test de Turing :

Una prueba de la capacidad de una máquina para exhibir un comportamiento inteligente equivalente o indistinguible del de un humano.