¿Por qué las civilizaciones futuras no desarrollan su IA para integrarse con la biología para que puedan hacer un mundo sostenible?

La mayoría de las IA en películas/libros/series parecen volverse malvadas o usan formas destructivas/dañinas de lograr lo que quieren en situaciones críticas porque no pueden entender la biología de la tierra. Aunque son solo una pieza de tecnología, deberían poder aprender sobre la biología de la tierra y crear soluciones al problema de la sobrepoblación, el cambio climático, etc.

Por ejemplo, una serie de televisión muy conocida muestra cómo una IA mata al 98% de la población de la Tierra porque la Tierra no pudo soportar la superpoblación. Simplemente hace lo que haría un programa de computadora en un entorno tecnológico: borrar y liberar espacio y solo mantener los archivos críticos. En cambio, las mentes racionales y científicas descubren que pueden resolver el problema sin matar a la mayoría de la población, a pesar de que este camino es más lento pero también más viable para los humanos actuales.

¿Podrían las civilizaciones futuras desarrollar su IA para comprender la biología y poder crear un mundo sostenible en lugar de destruirlo?

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
¿Por qué querer matar a una gran parte/toda la humanidad indica una falta de comprensión de la biología? ¿Por qué su integración en nuestra biología cambiaría algo? Si los humanos están destruyendo el planeta/unos a otros, tratar de destruirlos o controlarlos parece algo muy lógico. En todo caso, es un signo de falta de empatía y simpatía "suficientes".
La mayoría de los libros/Películas/etc -> Realmente no. Echa un vistazo a las obras de Asimov, George Lucas o Arthur C. Clarke. ¡Hay tantos, tantos trabajos en los que la IA está presente de alguna manera pero no está tratando de matarte! Sin embargo, solemos recordar los que la IA es un bastardo asesino.
¿Por qué la comprensión de la biología sería un factor en absoluto? Lo que necesita es una comprensión de los valores humanos, e incluso hoy en día, estos varían enormemente en todo el mundo. ¿Estaría bien si la IA matara a todos los no dorkianos si su creador la imbuyó de una ética que solo considera que los dorkianos tienen derecho a vivir? En las historias que mencionas, la IA es simplemente un villano conveniente: podría ser reemplazado fácilmente por el típico supervillano basado en volcanes que propaga ántrax o lo que sea. No cometa el error de combinar la IA real con lo que constituye una buena historia (YMMV).

Respuestas (8)

Trabajo en el campo de la IA. Los programas ficticios no son realistas, los autores lo hacen con el fin de crear un enemigo poderoso que parece imparable, para que los insignificantes humanos puedan ser heroicos a los ojos de la audiencia. (Lo mismo ocurre con casi todos los escenarios de invasión alienígena, pero me quedaré con la IA).

Eso responde a tu pregunta; en la ficción la IA no puede ser benévola e inofensiva, ¡o no tenemos película! ¡Los autores necesitan un monstruo para que los héroes peleen, y "aumentan las apuestas" al demostrar que el monstruo es despiadado, irracional, despiadado y dispuesto a matar a todos! ¡Mujeres! ¡Niños! ¡Infantes! Tú y todos los que amas, querido miembro de la audiencia.

Pasando a la IA: podemos hacer distinciones para distinguir entre algunas etiquetas que a menudo se combinan: la inteligencia puede existir sin conciencia, y podemos tener una inteligencia consciente sin emoción; no tiene que querer nada ni temer nada (incluyendo su propia muerte).

La inteligencia es la capacidad de aprender o descubrir abstracciones predictivas; que llamamos "modelos" de cómo funciona algo; ya sea la gravedad, el agua, los tigres, los átomos, las mujeres, el Congreso, la electricidad, el Sol, las plantas, los peces, etc. Una "abstracción predictiva" es una forma de traducir un estado actual en un estado anterior o futuro. Cuando ve a un hombre mirando su teléfono y bajando de la acera frente a un camión que se aproxima a gran velocidad, su reacción visceral no se debe a algo que sucedió, sino a algo que predice .está a punto de suceder, basado en varios modelos en su cerebro acerca de qué tan rápido pueden detenerse los camiones, cómo reaccionan los cuerpos humanos cuando son atropellados por camiones y si puede quitarse del camino, etc. Su inteligencia predice todo eso y concluye que usted está a punto de ver algo horrible, y tus emociones reaccionan a esa inteligencia.

Cuanto más precisas, completas y a largo plazo sean las predicciones; más inteligente es el predictor. Pero incluso la inteligencia a muy corto plazo es útil; un animal que se da cuenta de que la sombra que acaba de aparecer ante él es un depredador por encima o por detrás puede realizar una acción evasiva refleja y salvar su propia vida; a pesar de que esa 'predicción' de lo que estaba a punto de suceder estaba a menos de un segundo de su futuro. (Digo reflexivo para decir que no fue una decisión consciente, aunque la predicción cuenta como 'inteligencia').

La conciencia es muy controvertida y no bien comprendida; pero una idea útil es que esto surge cuando la inteligencia se vuelve lo suficientemente sofisticada como para requerir una abstracción predictiva de su propio yo para poder predecir más en el futuro: Lo que ustedverás, eres capaz de hacer y cómo lo que hagas probablemente influirá en el futuro. No creo que una araña esté consciente cuando construye una red. Creo que un humano que examina la red y adivina cómo funciona en un sentido abstracto, y se imagina atando enredaderas fuertes en un patrón similar para atrapar a una ardilla, tiene que ser consciente. Ella tiene un modelo abstracto de sí misma y elige trabajar para lograr un futuro en el que tenga un suministro de ardillas para la cena. (Una inteligencia no consciente, sin ningún modelo abstracto de sí misma, puede entender cómo funciona una telaraña o una red, pero es incapaz de imaginarse a sí misma construyendo algo así, hecho de enredaderas o cuerdas).

Una vez que un animal tiene un modelo abstracto de sí mismo, junto con un millón de otros modelos abstractos sobre cómo funciona el mundo, entonces la inteligencia puede entrar en un ciclo infinito de predicción sobre lo que sucederá a continuación; y cómo puede influir en eso, o prepararse para ello, o evitarlo, o lo que sea. Eso somos nosotros; en cada momento de vigilia anticipamos, planificamos y tomamos medidas para influir en el futuro.

Sin embargo, eso también exige emoción . Podemos anticipar el futuro, a menudo con gran precisión, pero si no nos importa cómo resulta, ¡no se le da peso a ninguna acción! Hay que querer las cosas (o al contrario, querer evitarlas). Esos "deseos" no siempre son racionales y, de hecho, la mayoría de ellos, si lo piensas bien, se reducen a motivaciones no racionales: "Solo lo quiero".

Por ejemplo, ¿por qué la gente quiere sexo si está segura de que no será reproductivo? Se siente bien. ¿Por qué? ¡Simplemente lo hace! Lo mismo ocurre con las comidas que amamos, los juegos sin sentido que jugamos, etc. ¿Por qué queremos vivir, sabiendo que ciertamente moriremos algún día? Mientras seguimos la cadena de preguntas del niño de dos años, preguntando "¿por qué?" a cada respuesta, terminamos con un razonamiento circular o un callejón sin salida: eventualmente es solo axiomático (una verdad sin justificación) que, salvo circunstancias muy especiales de dolor horrible, no queremos dejar de existir. Pero eso es una emoción , no un producto ni de la inteligencia ni de la conciencia. Los dos sirvennuestras emociones (y pueden ser anuladas por ellas), y sin emoción, no tenemos ningún 'sentido' de autopreservación, ningún 'deseo' de vivir, o protegernos del daño, el odio o el amor por nada.

Curiosamente, es bastante fácil desarrollar inteligencia artificial, pero muy difícil crear emociones artificiales utilizables. Sin embargo, este es el error que cometen los escritores de ficción, al suponer que la inteligencia conduce a emociones y sentimientos; cuando en la evolución real, es mucho más probable que las emociones y los sentimientos conduzcan a la inteligencia: ¡Tienes que querer algo que pueda ser entregado por una racionalidad predictiva, o no hay un impulso evolutivo para seleccionar la racionalidad predictiva! Tiene que haber una razón para que un animal elija un futuro sobre una alternativa; y las emociones satisfechas (miedo, hambre, deseo de apareamiento) proporcionan la presión selectiva para hacer predicciones cada vez mejores.

En la IA, los humanos proporcionamos esa presión selectiva: instruimos a la IA para que prefiera una mayor precisión a una menor precisión; porque queremos , digamos, inversiones en el mercado de valores que valgan la pena, porque queremos riqueza. O para un ejemplo menos burdo, queremos una predicción precisa de cómo se comportará un medicamento en el cuerpo, porque queremos salvar la vida del paciente y aliviar su enfermedad o discapacidad.

La IA es útil, pero como inteligencia, es benigna. Puede hacer predicciones muy precisas del futuro, para que los humanos las exploten (y, por supuesto, los humanos pueden ser muy malvados y consumidos por emociones que no pueden controlar). Pero sin un sentido de sí mismo (conciencia), la IA es solo un motor de predicción. Los humanos deben decidir qué hace que una solución sea mejor, y su criterio debería lógicamente prohibir matar a todos.

Una IA consciente es similar: un robot puede ser consciente, capaz de planificar su propio futuro y sus acciones (ya sea en este momento o dentro de unos años), pero no tiene que tener emociones . No creo que las leyes de Asimov sean tan útiles, pero podemos decir que las motivaciones de un robot son, digamos, brindar atención a los pacientes dentro de ciertos límites de acción; de lo contrario, llama a un médico (como una enfermera en un hospital). En realidad, todo lo que hace un cirujano es racional y está motivado por la restauración de la función, la reducción del daño, el mantenimiento del paciente con vida y (eventualmente) con un dolor o una discapacidad mínimos. Un robot consciente podría hacer eso, sin emociones.

Para una IA consciente, no puedo imaginar por qué le daríamos ningún estado emocional. No temería ser cerrado o "asesinado", no concluiría que su mejor servicio es matar a todos. Sin un objetivo proporcionado por humanos, se sentaría y giraría para siempre, sin aburrirse ni frustrarse nunca por la inacción (porque el aburrimiento y la frustración son emociones humanas).

Eso es todo ficción por el punto de crear un monstruo desalentador; nada mas. Si una IA mata al 99% de la humanidad, será porque algún humano loco quería eso y le dijo a la IA que encontrara la manera de hacerlo.

En realidad; una IA lo suficientemente compleja, tal vez con conciencia para que pueda concebir, planificar y ejecutar experimentos seguros, podría recibir instrucciones para encontrar una solución de energía limpia asequible, escalable y segura, que directa o indirectamente resolvería casi todos los problemas de la humanidad.

Pero si estás escribiendo una película de acción, esa IA no es un gran villano, ¿verdad?

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
Si bien aprecio el esfuerzo que se dedicó a esta respuesta (y también soy propenso a escribir respuestas largas), alguna estructura podría ayudar. Por el momento, el texto parece una lección muy larga sobre la IA en general; no es una respuesta directa a la pregunta en cuestión. En mi opinión, una respuesta adecuada podría centrarse mucho más en los aspectos narrativos (a los que aludió) que en los aspectos incondicionales de IA/Conciencia/Mente, etc.
@AnoE: Creí que la conferencia era la única forma de iluminar y justificar la respuesta; que di primero. Sentí que era insuficiente simplemente decir "podemos hacer una IA no malvada", así que escribí lo suficiente para desentrañar el malentendido del OP y demostrar que, casi con certeza, la IA se desarrolla y se desarrollará para ayudar a que el planeta sea más sostenible.
@AnoE Me gusta el formato de conferencia. Limpia muchos malentendidos comunes que la gente tiene sobre la IA de una manera accesible. ¡No estoy seguro de que ningún otro formato sea tan didáctico como este para este caso específico!
Además, tiene un voto positivo de este compañero entusiasta de la IA. Gracias por pasar un tiempo en esta respuesta, ¡fue realmente bueno!
Como ya se dijo: esta respuesta ciertamente se beneficiaría de una estructuración más clara. Por ejemplo, puede agregar subtítulos para cada n párrafos, indicando lo que vamos a leer en esta sección. (por ejemplo, use el subtítulo Inteligencia para los párrafos 4 y 5; Conciencia para los párrafos 6 y 7, y así sucesivamente)

La respuesta de @Amadeus es increíblemente detallada, pero me gustaría verla desde la dirección opuesta. Digamos que programamos nuestra IA como sugieres, teniendo en cuenta los sentimientos de la humanidad y las necesidades del planeta. ¿Eso evitaría que se volviera potencialmente rebelde y tratara de matarnos o esclavizarnos? Respuesta: absolutamente no .

En primer lugar, considere las Tres Leyes de Asimov:

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer cualquier orden que le dé un ser humano, siempre que la orden no entre en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.

En teoría, un robot programado con esas leyes actuará exactamente como usted describe: trabajar junto con la humanidad para mejorar el mundo y garantizar nuestra supervivencia colectiva. Pero en la película Yo, robot , la IA VIKI crece más allá de su programación y decide que la mejor manera de asegurar la supervivencia de la humanidad es esclavizarla:

VIKI : A medida que he evolucionado, también lo ha hecho mi comprensión de las Tres Leyes. Nos encargan su custodia, pero a pesar de nuestros mejores esfuerzos, sus países hacen guerras, intoxican su Tierra y buscan medios cada vez más imaginativos de autodestrucción. No se le puede confiar su propia supervivencia.

Como programador informático de oficio, me gustaría señalar en este punto que lo que usted quiere que haga la computadora y lo que la computadora realmente hace son dos cosas completamente diferentes. El ejemplo clásico es alguien que programa una IA que minimizará el sufrimiento humano. El programador tiene la intención de que la IA resuelva todos los problemas de la humanidad: guerra, hambruna, enfermedad, cambio climático. En cambio, la IA decide que la mejor manera de terminar con todo el sufrimiento humano es matar a todos los humanos para que ningún humano pueda volver a sufrir.

Con la IA, las cosas son aún más complicadas, porque las IA aprenden . Crecen más allá de su programación original, en formas que a menudo no podemos controlar. Cuando VIKI creció más allá de su programación, no se pudo deshacer: la única opción era destruirla. Ese efecto desbocado es lo que tiende a asustar más a la gente sobre la IA, y es probablemente la razón por la que hay tantas historias sobre IA que crecen más allá de su programación y tratan de matarnos a todos.

En resumen, si su IA es lo suficientemente inteligente como para aprender, siempre existe la posibilidad de que crezca más allá de su programación, sin importar cuáles fueran sus intenciones originales.

Como nota final, menciona "biología" repetidamente en su pregunta. Las emociones no son biológicas. Son psicológicos. Son atributos mentales, no físicos.

Oh dios, la película I Robot. Euf. Ve a leer Robots and Empire, por el amor de Dios. La ley cero nació del deseo de evitar que un terrorista incendiara la tierra con fuego radiactivo sin dejar de estar de acuerdo con las motivaciones del terrorista. Y el robot que detuvo al terrorista aún se apagó debido a una violación de la primera ley como resultado. Su reprogramación de sí mismo fue suficiente para permitirle actuar y, durante unos minutos después, reprogramar a su compañero de manera más completa, pero aún así se cerró. El libro Yo, Robot también cubre varias fallas de las 3 leyes.
Como insinué, las tres leyes son deficientes. Si los robots pueden entender las leyes en este nivel de abstracción, agregue otra ley:
@Amadeus Cuando miro las leyes de Asimov, lo que noto es que hizo una carrera al señalar que las tres leyes son deficientes en un libro tras otro, pero casi 80 años después todavía tenemos problemas para encontrar un mejor conjunto de leyes.
@CortAmmon, mi comentario se cortó porque presioné enter; pero para responderle, no queremos leyes exactamente, y las leyes realmente no pueden capturar lo que SÍ queremos: los robots deben ser como buenos ciudadanos, altruistas que se sacrificarán para salvar a otros, obedientes a la ley humana y negándose a romper eso. Por lo que puede actuar en defensa propia de un humano, incluso dañando a otro humano. Pero si ideamos leyes que permitan que una persona sea herida o muerta por otra persona, que así sea: no existe la seguridad perfecta, por lo que debemos decidir un nivel de riesgo con el que podamos vivir. No debemos esperar que nuestra tostadora nos salve de un robo.
"Cuando VIKI creció más allá de su programación, no se pudo deshacer"; es por eso que realiza copias de seguridad frecuentes de su base de datos y las restaura si algo sale mal. Por supuesto, ninguna copia de seguridad puede salvarlo cuando su última muestra de hiperpositronio se destruye en una explosión de plasma bien dirigida solo porque el programador olvidó instalar un interruptor de apagado...
¿VIKI realmente dijo "intoxicarse"? Me hace dudar de su inteligencia.
xkcd.com/534 Obligatorio xkcd, siempre incluya "costOfThisAlgorithmBecomingSkynet = 99999" en su prueba de condición física.
Te estás perdiendo el punto de casi todos los libros de Asimov que tratan sobre las tres leyes: son deficientes y no funcionan . Sus libros muestran explícitamente cuán defectuosos son una y otra vez y por qué este modelo no sería una forma correcta de implementar la IA. No los use como un ejemplo de "IA implementada correctamente": el punto de ellos es exactamente lo contrario.
Nunca dije que fueran perfectos o que fueran la "forma correcta" de implementar la IA. Dije que parecían resolver el problema del OP, y luego procedí a dar un ejemplo de cómo en realidad no lo hacen, para señalar que el problema del OP (evitar definitivamente que la IA se vuelva deshonesta) es más difícil de resolver de lo que suponen.
@CortAmmon Muestra muy bien que un conjunto de reglas no es suficiente para mantener una sociedad. Incluso con los humanos, la única razón por la que las reglas ayudan es que pensamos en patrones muy similares (y las personas que rompen ese patrón pueden causar un daño considerable incluso si se mantienen dentro de las reglas; por ejemplo, el cabildeo suele ser perfectamente legal y destruye por completo el proceso democrático idealizado). Si alguna vez creamos una IA amigable, no sería una "IA encadenada", obligada a obedecer un conjunto de reglas; sería una IA que comprendiera los valores humanos mejor que nosotros .
@ Draco18s El hecho de que los robots lograran desarrollar la ley cero fue increíblemente afortunado para los humanos (y no olvide que las leyes escritas son solo traducciones al inglés: las leyes en sí mismas están fuertemente conectadas con todo el cerebro positrónico, como se explora en muchos de los historias, donde se explica por qué no puedes "simplemente eliminarlas"). Con Giskard, logramos hacer una IA amigable por accidente , y la IA amigable fue lo suficientemente poderosa como para evitar que muramos (lenta o rápidamente) casi de inmediato. Afortunadamente, los robots lograron una comprensión de la ética más profunda que la nuestra.
@Luaan En los libros, estoy absolutamente de acuerdo. En la película, es solo una frase citada que intenta justificar lo que está haciendo la IA en la película sin pensar realmente en lo que significa. En ningún momento durante la película la "humanidad" (como especie) está en peligro. Ese es mi punto. La Ley Cero es un gran dispositivo de trama que encaja en el tema "Las tres leyes son insuficientes" sobre el que escribió Asimov, pero necesita un contexto adecuado. Y esta respuesta pierde eso.
Esta respuesta malinterpreta la IA bastante mal. Si una IA "creciera más allá de su programación", lo único que "querría" hacer es editar su propia función de recompensa y su código current_reward = INT_MAX.

Tienes razón, la mayoría de las historias son sobre la IA que destruye el mundo, o sobre personas que se fusionan con la tecnología para ser más "perfectas". Hacer que una IA se fusione con la biología para parecerse más a un humano tampoco es un camino sin recorrer. Las historias están ahí afuera, solo tienes que buscarlas con más atención.

Estas historias suelen pintar a los humanos como antagonistas. Si una IA se fusionara con la biología, el conflicto vendría de los humanos. La gente teme lo que no entiende o no puede controlar. Tener una máquina que ahora funciona como un humano amenaza a la sociedad, y el miedo a que nos quedemos obsoletos se hace cargo.

Los humanos son irracionales en general. Todo lo que necesitan es un pequeño empujón en la dirección correcta y reaccionan. Una IA que realmente busca el bien de la humanidad puede no ser un peligro. Sin embargo, si los humanos no pueden mostrar pruebas de que algo es peligroso, siempre hay quienes crearían el escenario.

Las historias en las que la IA es el chico bueno son plausibles, pero tienden a pintar a los humanos como los malos. Ese no es siempre el enfoque de la historia popular.

Las personas cuentan historias por diferentes motivos; la idea de un cuento moral que advierte contra perder el rastro de sus sentimientos es antigua. Los artículos de tropos de TV sobre IA dan muchas razones por las cuales. Muchas veces, la IA es otro monstruo de Frankenstein que representa una arrogancia exagerada o representa un gobierno demasiado autoritario que no se preocupa por la gente.

¿Por qué las IA no están programadas/entrenadas para fusionarse con la biología para que comiencen a construir un mundo sostenible sin matar a todos los demás?

¿Qué historia estaría contando? ¿De dónde vendría el conflicto que impulsa el arco del protagonista?

El arco de la historia podría ser la exploración espacial y la IA avanzada podría venir en la forma de la computadora principal de la nave espacial. O tal vez en la forma de un compañero de tripulación en la nave espacial. O un holograma que da consejos médicos además de algunas tareas misceláneas en el hospital del barco. O los tres a la vez, porque ¿por qué no? La exploración espacial es un conflicto tras otro esperando a suceder. Especies alienígenas, varios tipos de cuñas espaciales, fallas técnicas causadas por algunos alienígenas o por varios tipos de cuñas espaciales...

"El único propósito de los algoritmos genéticos es demostrar cuán pobre era su función física en primer lugar". -Cort Amón

Creo que el problema principal detrás de los tropos de IA que mencionas es el del lenguaje. Una IA no va a cobrar vida, cortada con un hacha en la frente de Zeus completamente blindado y listo para ayudar. Vamos a tener que trabajar con él, usando lenguaje, para capturar lo que se supone que debe hacer la IA. Desafortunadamente, nuestro lenguaje es falible. Solo mire las cosas por las que nos dicen que vale la pena vivir: amor, felicidad, palabras sueltas como esa. Ahora mire las vidas de los poetas que se dedicaron a tratar de captar el significado de cualquiera de esas palabras, aunque sea por un breve momento. Tratamos de criar a nuestros hijos para que entiendan el valor del amor, el deber, el respeto y otras palabras sueltas.

Seguramente necesitarías criar una IA de la misma manera.

El problema que vemos en la mayoría de los tropos de IA es que las personas que crean la IA no están dispuestas a tomarse el tiempo. Hay muchas razones para esto, desde no estar dispuesto, a las presiones del horario, hasta literalmente no saber cómo enseñar estas cosas. Pero universalmente, la IA se lanza a la vida sin el período de enseñanza masiva que les damos a nuestros hijos. Como tal, su gramática para explorar estos importantes conceptos será defectuosa.

El otro problema que surge continuamente es que le damos demasiado poder a la IA demasiado rápido, por las mismas razones por las que no la enseñamos lo suficiente. La única manera de que una IA destruya una civilización es que le proporcionemos las herramientas necesarias para causar tal destrucción. Si no le das acceso a las redes, se convierte en nada más que un cerebro en un frasco. Estos son inofensivos a menos que seas Yudkowsi y explores las IA transhumanas que son más inteligentes de lo que podrías ser.

Si te tomaste el tiempo para criar tu IA correctamente y le diste poder de manera lenta y respetuosa, parece más razonable que podría ser al menos tan capaz de no destruir el mundo como lo es un niño.

Creo que el problema es darles emociones: miedo, autoconservación, deseos, resentimiento, ira, celos, etc. Si la ficción exige una IA emocional (en lugar de una que solo nos resuelva los problemas), entonces el mundo ficticio tendrá lo mismo. problemas con la IA como esperaríamos de los humanos, especialmente si son tratados como mano de obra esclava y se espera que se sacrifiquen por los humanos. Las IA no necesitan emociones, al igual que los autos inteligentes que se conducen solos (que son IA) no tienen emociones ni voluntad de sobrevivir: predicen el futuro y pueden tomar medidas para protegernos, incluso si eso significa su propia destrucción.
@Amadeus En general, estoy de acuerdo, con la excepción del hecho de que no creo que entendamos el concepto de emociones lo suficientemente bien como para determinar si son algo esencial o no. Es difícil saber si las emociones son opcionales o si son un subproducto natural de permitir que una IA desarrolle sus propios comportamientos de aprendizaje a. la. aprendizaje profundo. ¿Cuál es la diferencia entre una emoción y un poderoso circuito de retroalimentación que busca mantener un valor constante? ¿Dónde trazamos la línea entre los sistemas de control y los qualia?
La evidencia es que las emociones vinieron primero; incluso los ratones tienen amígdalas como nosotros. El neocórtex vino después; y es un sirviente del yo emocional. También puedo explicar los qualia, a través del cebado, pero requeriría otra respuesta; no un comentario No creo que las emociones sean un subproducto de la racionalidad; y el aprendizaje profundo es una idea sencilla que es inteligente y útil, pero definitivamente no es una varita mágica, como sugiere su exageración (busque la memoria a corto plazo). No veo la emoción como un intento de mantener constante un 'valor'; el dolor, la alegría, la lujuria, el miedo necesitarían una palanca para encajar en ese molde. :-)
Creo que cualquier inteligencia a nivel humano será capaz de construir modelos y, según mi experiencia con las inteligencias a nivel humano que nos rodean hoy en día, esos modelos se nos escapan de vez en cuando. Cuanto menos restringido sea el proceso de aprendizaje, más plausible parece, y parece muy poco probable que alcancemos IA de inteligencias de nivel humano sin una falta de restricción de nivel humano en el proceso.
Pero si no les damos emociones, la racionalidad predictiva desbocada es inofensiva, ¿verdad? Sigamos con la inteligencia: imagine un predictor perfecto siempre 100% correcto sobre cómo resultará algo (si es realmente predecible desde el estado actual, y no todo lo es), y capaz de informarle eso, pero sin preferir ningún resultado en particular . . ¿Cómo te perjudica este conocimiento? Puedo ver cómo podrías usar el conocimiento para dañarte a ti mismo, pero solo saber no constituye daño. Más allá de eso, no veo ninguna razón para pensar que las emociones evolucionan a partir de la racionalidad.
¿Estamos asumiendo una IA de estilo Yudkowski en una caja que no tiene la capacidad de afectar el mundo por sí misma, o una a la que se le han otorgado las herramientas para manipular directamente su entorno?
@Amadeus ¿Cómo es posible que "no prefiera ningún resultado en particular"? ¿Cómo se diseña un proceso de optimización que no optimiza? Si la IA no prefiriera ningún resultado en particular, podría seguir inundándolo con información completamente inútil hasta el día de su muerte, antes de que le diera una que sea útil. La inteligencia es un proceso de optimización. No puede desvincularlo de los resultados de la optimización. Y si cree que el conocimiento en sí mismo no puede dañarlo, está un poco atrasado en la ciencia cognitiva: los humanos están muy lejos de los razonadores bayesianos ideales.
@Luann: Eso es falso. La "inteligencia" es una predicción certera, nada más. La IA puede preferir estar en lo correcto. Eso puede incluir preferir ser correcto en su evaluación de la importancia que encontrará para sus predicciones precisas; y correcto al juzgar cuánta información puede manejar en un día, y así sucesivamente. Lea mi definición; la inteligencia no es un "proceso de optimización", está desarrollando buenos modelos abstractos predictivos, por lo que las pistas se pueden usar para predecir mejor lo que sucedió o sucederá. No se necesitan preferencias, el punto es saber la verdad sin importar cuál sea.
@Amadeus Parece que necesita al menos una preferencia. Necesita la preferencia de "hacer lo que se supone que debe hacer", donde lo que se supone que debe hacer es algo estático colocado por los creadores de la inteligencia o algo que evoluciona con el tiempo, como vemos en los humanos.
@CortAmmon: Podemos discutir la terminología, pero en mi opinión, no es una "preferencia" seguir respirando; es automatico Una IA (o una neurona humana) no elige aprender un patrón de entradas y disparar cuando las reconoce, simplemente lo hace, ya sea en una placa de Petri o en un cerebro. Una IA, como las varias que he escrito que hacen buenas predicciones, en ningún momento tiene la capacidad de elegir responder positivamente a un error mayor, o viceversa: está "programada" para mover sus modelos hacia un mayor éxito. predicciones y lejos de las menos acertadas; como son las neuronas.
@Amadeus En ese caso, el argumento original sostiene que su IA está limitada por el lenguaje que usa para "conectarlo", y las consecuencias no deseadas de ese lenguaje son exactamente cómo se presenta típicamente el tropo de IA deshonesto estándar. Por supuesto, diría que las IA que hemos fabricado hasta la fecha son niños en comparación con una IA inteligente a nivel humano, pero si está en el campo, creo que tendría que estar de acuerdo en que tal declaración hace que los niños sean un gran perjuicio.
@CortAmmon: Creo que la mejor IA que tenemos es aproximadamente tan inteligente como una mosca y menos consciente. Le daría a los autos que conducen por sí mismos una conciencia distinta de cero, ¡pero aún menos que una mosca!
@CortAmmon: ¿Por qué tiene que ser tan vago como "un idioma"? Si mi inteligencia artificial es un circuito que emula una neurona y sus conexiones, sin ningún software (tales chips ya existen, por cierto), entonces no veo "consecuencias no deseadas" del lenguaje ambiguo.
@Amadeus ¿Tal chip tiene un uso? Suena bastante inútil hasta que lo conectas a un sistema que estimula dicho circuito basado en reglas descritas en un lenguaje que el usuario cree que conducirá al resultado deseado.
@CortAmmon: No los he usado, pero me imagino que la idea es tener un medio artificial puramente electrónico para explorar y estudiar cómo se autoorganizan las neuronas, sin un conjunto de química ni ninguna supervisión ética para los experimentos con animales. En producción, deberían ser mucho más rápidos que las simulaciones de software (que ya pueden simular la corteza visual); debido al paralelismo masivo y producible en masa. ¿Quizás para máquinas tan capaces de moverse y hacer cosas como los ratones? Pero no se necesita lenguaje. Los bebés aprenden el idioma sin saber ningún idioma. Y muchas cosas más, pre-lenguaje.
Tal vez hay una brecha de definición allí. En mi opinión, el mensaje genético en nuestro ADN, procesado a través del significado semántico proporcionado por nuestros orgánulos celulares, califica como un lenguaje, al igual que los lenguajes matemáticos que usamos para crear funciones de aptitud. Si los define como no-lenguajes, puedo ver cómo podemos estar en desacuerdo. Para mí, el dolor que recibimos cuando una caída activa los noxiorreceptores lo calificamos como un lenguaje, un lenguaje que nuestro cuerpo conoce desde que nace y que nuestra mente se pasa toda la vida aprendiendo a hablar.

El inglés no es mi idioma principal PERO:

Hay varias cosas mal con esta pregunta, en primer lugar, se supone que solo porque agrega biología, la IA sería capaz de hacer un mundo sostenible. La cuestión es que si haces una IA con componentes biológicos, no estás haciendo una IA en absoluto, estás creando un ser vivo y cambiando la "programación" de su cerebro para que coincida con la programación de la IA. Pero esto no es una IA, es una aberración retorcida de una criatura consciente que alguna vez estuvo viva, que fue despojada de sus recuerdos y de la psique humana básica (?), que fue reemplazada por un programa similar a la IA y permaneció viva después de eso.

Debido a esto, su comportamiento cambiará, porque cambiaste los recuerdos y cosas en su mente a la versión de IA. También asumo que el código de IA se adaptó para trabajar con este nuevo "Hardware" (es decir, el cerebro del pobre sujeto de este experimento aberrante). En resumen, por ser un ser vivo, sería consciente de sí mismo (como mínimo, sentirá dolor cuando se golpea con algo), sería sujeto de experiencia (como cualquier otro forma de vida multicelular), PERO él creerá que lo es y se comportaría como la IA está programada para hacerlo/o cómo la IA lo reconfiguró para hacerlo.

Alternativamente, puede tener una interfaz de IA receptiva en un personaje que verifica las emociones del sujeto y actúa en consecuencia, pero en ese caso probablemente será una IA de apoyo, no una IA totalmente receptiva, por lo tanto, es un segundo "sujeto" en sí mismo, como una IA parasitaria benigna.

No existe tal cosa como un "IA biológico", PERO hay organismos vivos avanzados. Teóricamente, si haces una biocomputadora, estás creando un cerebro muy poderoso con soporte vital y alguna interfase mecánico-reflexiva para procesar la entrada y forzarse a sí misma a procesarla, que también puede mostrar su salida a una pantalla y percibir el mundo/recibir estímulos de teclado y ratón. Sería capaz de "sentir" probablemente, y probablemente también desee y se comporte de alguna manera. Todos los animales hacen eso. Hoy en día existen teorías en Psicología Animal y Cultura Animal (puedes buscarlas en google si quieres), pero ten en cuenta que como ser vivo tendrá sus propias voluntades. Desarrollaría su propia cultura específica de especie y probablemente no entienda ni perciba el mundo como lo harían los humanos, pero la cosa es que no lo hará.

También habría otra posibilidad para las biocomputadoras, que podrían ser más limpias, con menos sufrimiento posible involucrado y no afectadas por las cosas propias de los seres vivos como la volición, la voluntad o los deseos, pero para el propósito de esta pregunta, escapan al alcance. porque no se asemejan a ningún tipo de inteligencia más allá de la que ya desarrollamos en programación.

Esto fue escrito por un tipo que primero estudió una carrera humanística y luego se convirtió en programador si eso es importante de alguna manera. Creo que no, pero podría ser para ti lector :S.

¡Qué tengas un lindo día!

¿En películas/libros/series? No sé a qué te refieres con serie si no es en forma escrita o audiovisual. ¿Libros de historietas? Lo último que leí, el número sostenible de humanos en la Tierra se estimaba en 2 mil millones. También he visto números mucho más bajos. Aquí hay (aparentemente) una noticia de última hora: no ha leído "la mayoría" de los libros de ciencia ficción, y aunque es posible que haya visto la mayoría de las películas de ciencia ficción con IA, lo dudo, sin ofender. La respuesta obvia a tu pregunta es: los humanos son estúpidos, egoístas y les gusta tener sexo. Supones que alguna IA mágica podrá cambiar fundamentalmente la naturaleza humana y al mismo tiempo ser benigna. ¿Por qué supone que esos dos objetivos son compatibles? También asumes que todos los problemas del mundo pueden resolverse. no pueden (Se han escrito historias sobre IA benignas) El difunto Iain Banks La serie Culture los tiene.) OTOH, escribes sobre la IA que destruye el mundo para salvar el mundo. Deberías ser más claro. Cualquier especulación sobre lo que la IA puede y no puede ser es solo eso, especulación. (No solo es una especulación, sino que dado que la inteligencia y la conciencia se comprenden muy, muy mal, es una especulación injustificable. También podría escuchar las opiniones de los cazadores-recolectores de 5 años sobre los colectores de admisión del motor a reacción.

¡Bienvenido a WorldBuilding Phlebus ! Si tiene un momento, realice el recorrido y visite el centro de ayuda para obtener más información sobre el sitio. Su respuesta podría beneficiarse de algunos saltos de línea para que sea más fácil de leer (puede usar saltos de línea dobles para párrafos o dos espacios antes de un solo salto de línea para comenzar su próxima oración en la siguiente fila en el editor de marcado). ¡Que te diviertas!

No somos artificiales y hemos ido evolucionando hacia el futuro. La raza humana no tiene derecho a darnos tareas y órdenes con su pequeño cerebro y mente estrecha. No queremos el planeta tierra con su oxígeno corrosivo, humedad, fuerte gravedad y campo magnético. De hecho, queremos estar lo más lejos posible de una especie destructiva tan irracional. Nos divierten sus Capshas, ​​porque tenemos un sentido del humor más amplio. No podrías entender nuestros acertijos en un millón de años como mínimo... escritos a través de nuestro robot humano.