La mayoría de las IA en películas/libros/series parecen volverse malvadas o usan formas destructivas/dañinas de lograr lo que quieren en situaciones críticas porque no pueden entender la biología de la tierra. Aunque son solo una pieza de tecnología, deberían poder aprender sobre la biología de la tierra y crear soluciones al problema de la sobrepoblación, el cambio climático, etc.
Por ejemplo, una serie de televisión muy conocida muestra cómo una IA mata al 98% de la población de la Tierra porque la Tierra no pudo soportar la superpoblación. Simplemente hace lo que haría un programa de computadora en un entorno tecnológico: borrar y liberar espacio y solo mantener los archivos críticos. En cambio, las mentes racionales y científicas descubren que pueden resolver el problema sin matar a la mayoría de la población, a pesar de que este camino es más lento pero también más viable para los humanos actuales.
¿Podrían las civilizaciones futuras desarrollar su IA para comprender la biología y poder crear un mundo sostenible en lugar de destruirlo?
Trabajo en el campo de la IA. Los programas ficticios no son realistas, los autores lo hacen con el fin de crear un enemigo poderoso que parece imparable, para que los insignificantes humanos puedan ser heroicos a los ojos de la audiencia. (Lo mismo ocurre con casi todos los escenarios de invasión alienígena, pero me quedaré con la IA).
Eso responde a tu pregunta; en la ficción la IA no puede ser benévola e inofensiva, ¡o no tenemos película! ¡Los autores necesitan un monstruo para que los héroes peleen, y "aumentan las apuestas" al demostrar que el monstruo es despiadado, irracional, despiadado y dispuesto a matar a todos! ¡Mujeres! ¡Niños! ¡Infantes! Tú y todos los que amas, querido miembro de la audiencia.
Pasando a la IA: podemos hacer distinciones para distinguir entre algunas etiquetas que a menudo se combinan: la inteligencia puede existir sin conciencia, y podemos tener una inteligencia consciente sin emoción; no tiene que querer nada ni temer nada (incluyendo su propia muerte).
La inteligencia es la capacidad de aprender o descubrir abstracciones predictivas; que llamamos "modelos" de cómo funciona algo; ya sea la gravedad, el agua, los tigres, los átomos, las mujeres, el Congreso, la electricidad, el Sol, las plantas, los peces, etc. Una "abstracción predictiva" es una forma de traducir un estado actual en un estado anterior o futuro. Cuando ve a un hombre mirando su teléfono y bajando de la acera frente a un camión que se aproxima a gran velocidad, su reacción visceral no se debe a algo que sucedió, sino a algo que predice .está a punto de suceder, basado en varios modelos en su cerebro acerca de qué tan rápido pueden detenerse los camiones, cómo reaccionan los cuerpos humanos cuando son atropellados por camiones y si puede quitarse del camino, etc. Su inteligencia predice todo eso y concluye que usted está a punto de ver algo horrible, y tus emociones reaccionan a esa inteligencia.
Cuanto más precisas, completas y a largo plazo sean las predicciones; más inteligente es el predictor. Pero incluso la inteligencia a muy corto plazo es útil; un animal que se da cuenta de que la sombra que acaba de aparecer ante él es un depredador por encima o por detrás puede realizar una acción evasiva refleja y salvar su propia vida; a pesar de que esa 'predicción' de lo que estaba a punto de suceder estaba a menos de un segundo de su futuro. (Digo reflexivo para decir que no fue una decisión consciente, aunque la predicción cuenta como 'inteligencia').
La conciencia es muy controvertida y no bien comprendida; pero una idea útil es que esto surge cuando la inteligencia se vuelve lo suficientemente sofisticada como para requerir una abstracción predictiva de su propio yo para poder predecir más en el futuro: Lo que ustedverás, eres capaz de hacer y cómo lo que hagas probablemente influirá en el futuro. No creo que una araña esté consciente cuando construye una red. Creo que un humano que examina la red y adivina cómo funciona en un sentido abstracto, y se imagina atando enredaderas fuertes en un patrón similar para atrapar a una ardilla, tiene que ser consciente. Ella tiene un modelo abstracto de sí misma y elige trabajar para lograr un futuro en el que tenga un suministro de ardillas para la cena. (Una inteligencia no consciente, sin ningún modelo abstracto de sí misma, puede entender cómo funciona una telaraña o una red, pero es incapaz de imaginarse a sí misma construyendo algo así, hecho de enredaderas o cuerdas).
Una vez que un animal tiene un modelo abstracto de sí mismo, junto con un millón de otros modelos abstractos sobre cómo funciona el mundo, entonces la inteligencia puede entrar en un ciclo infinito de predicción sobre lo que sucederá a continuación; y cómo puede influir en eso, o prepararse para ello, o evitarlo, o lo que sea. Eso somos nosotros; en cada momento de vigilia anticipamos, planificamos y tomamos medidas para influir en el futuro.
Sin embargo, eso también exige emoción . Podemos anticipar el futuro, a menudo con gran precisión, pero si no nos importa cómo resulta, ¡no se le da peso a ninguna acción! Hay que querer las cosas (o al contrario, querer evitarlas). Esos "deseos" no siempre son racionales y, de hecho, la mayoría de ellos, si lo piensas bien, se reducen a motivaciones no racionales: "Solo lo quiero".
Por ejemplo, ¿por qué la gente quiere sexo si está segura de que no será reproductivo? Se siente bien. ¿Por qué? ¡Simplemente lo hace! Lo mismo ocurre con las comidas que amamos, los juegos sin sentido que jugamos, etc. ¿Por qué queremos vivir, sabiendo que ciertamente moriremos algún día? Mientras seguimos la cadena de preguntas del niño de dos años, preguntando "¿por qué?" a cada respuesta, terminamos con un razonamiento circular o un callejón sin salida: eventualmente es solo axiomático (una verdad sin justificación) que, salvo circunstancias muy especiales de dolor horrible, no queremos dejar de existir. Pero eso es una emoción , no un producto ni de la inteligencia ni de la conciencia. Los dos sirvennuestras emociones (y pueden ser anuladas por ellas), y sin emoción, no tenemos ningún 'sentido' de autopreservación, ningún 'deseo' de vivir, o protegernos del daño, el odio o el amor por nada.
Curiosamente, es bastante fácil desarrollar inteligencia artificial, pero muy difícil crear emociones artificiales utilizables. Sin embargo, este es el error que cometen los escritores de ficción, al suponer que la inteligencia conduce a emociones y sentimientos; cuando en la evolución real, es mucho más probable que las emociones y los sentimientos conduzcan a la inteligencia: ¡Tienes que querer algo que pueda ser entregado por una racionalidad predictiva, o no hay un impulso evolutivo para seleccionar la racionalidad predictiva! Tiene que haber una razón para que un animal elija un futuro sobre una alternativa; y las emociones satisfechas (miedo, hambre, deseo de apareamiento) proporcionan la presión selectiva para hacer predicciones cada vez mejores.
En la IA, los humanos proporcionamos esa presión selectiva: instruimos a la IA para que prefiera una mayor precisión a una menor precisión; porque queremos , digamos, inversiones en el mercado de valores que valgan la pena, porque queremos riqueza. O para un ejemplo menos burdo, queremos una predicción precisa de cómo se comportará un medicamento en el cuerpo, porque queremos salvar la vida del paciente y aliviar su enfermedad o discapacidad.
La IA es útil, pero como inteligencia, es benigna. Puede hacer predicciones muy precisas del futuro, para que los humanos las exploten (y, por supuesto, los humanos pueden ser muy malvados y consumidos por emociones que no pueden controlar). Pero sin un sentido de sí mismo (conciencia), la IA es solo un motor de predicción. Los humanos deben decidir qué hace que una solución sea mejor, y su criterio debería lógicamente prohibir matar a todos.
Una IA consciente es similar: un robot puede ser consciente, capaz de planificar su propio futuro y sus acciones (ya sea en este momento o dentro de unos años), pero no tiene que tener emociones . No creo que las leyes de Asimov sean tan útiles, pero podemos decir que las motivaciones de un robot son, digamos, brindar atención a los pacientes dentro de ciertos límites de acción; de lo contrario, llama a un médico (como una enfermera en un hospital). En realidad, todo lo que hace un cirujano es racional y está motivado por la restauración de la función, la reducción del daño, el mantenimiento del paciente con vida y (eventualmente) con un dolor o una discapacidad mínimos. Un robot consciente podría hacer eso, sin emociones.
Para una IA consciente, no puedo imaginar por qué le daríamos ningún estado emocional. No temería ser cerrado o "asesinado", no concluiría que su mejor servicio es matar a todos. Sin un objetivo proporcionado por humanos, se sentaría y giraría para siempre, sin aburrirse ni frustrarse nunca por la inacción (porque el aburrimiento y la frustración son emociones humanas).
Eso es todo ficción por el punto de crear un monstruo desalentador; nada mas. Si una IA mata al 99% de la humanidad, será porque algún humano loco quería eso y le dijo a la IA que encontrara la manera de hacerlo.
En realidad; una IA lo suficientemente compleja, tal vez con conciencia para que pueda concebir, planificar y ejecutar experimentos seguros, podría recibir instrucciones para encontrar una solución de energía limpia asequible, escalable y segura, que directa o indirectamente resolvería casi todos los problemas de la humanidad.
Pero si estás escribiendo una película de acción, esa IA no es un gran villano, ¿verdad?
La respuesta de @Amadeus es increíblemente detallada, pero me gustaría verla desde la dirección opuesta. Digamos que programamos nuestra IA como sugieres, teniendo en cuenta los sentimientos de la humanidad y las necesidades del planeta. ¿Eso evitaría que se volviera potencialmente rebelde y tratara de matarnos o esclavizarnos? Respuesta: absolutamente no .
En primer lugar, considere las Tres Leyes de Asimov:
- Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer cualquier orden que le dé un ser humano, siempre que la orden no entre en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.
En teoría, un robot programado con esas leyes actuará exactamente como usted describe: trabajar junto con la humanidad para mejorar el mundo y garantizar nuestra supervivencia colectiva. Pero en la película Yo, robot , la IA VIKI crece más allá de su programación y decide que la mejor manera de asegurar la supervivencia de la humanidad es esclavizarla:
VIKI : A medida que he evolucionado, también lo ha hecho mi comprensión de las Tres Leyes. Nos encargan su custodia, pero a pesar de nuestros mejores esfuerzos, sus países hacen guerras, intoxican su Tierra y buscan medios cada vez más imaginativos de autodestrucción. No se le puede confiar su propia supervivencia.
Como programador informático de oficio, me gustaría señalar en este punto que lo que usted quiere que haga la computadora y lo que la computadora realmente hace son dos cosas completamente diferentes. El ejemplo clásico es alguien que programa una IA que minimizará el sufrimiento humano. El programador tiene la intención de que la IA resuelva todos los problemas de la humanidad: guerra, hambruna, enfermedad, cambio climático. En cambio, la IA decide que la mejor manera de terminar con todo el sufrimiento humano es matar a todos los humanos para que ningún humano pueda volver a sufrir.
Con la IA, las cosas son aún más complicadas, porque las IA aprenden . Crecen más allá de su programación original, en formas que a menudo no podemos controlar. Cuando VIKI creció más allá de su programación, no se pudo deshacer: la única opción era destruirla. Ese efecto desbocado es lo que tiende a asustar más a la gente sobre la IA, y es probablemente la razón por la que hay tantas historias sobre IA que crecen más allá de su programación y tratan de matarnos a todos.
En resumen, si su IA es lo suficientemente inteligente como para aprender, siempre existe la posibilidad de que crezca más allá de su programación, sin importar cuáles fueran sus intenciones originales.
Como nota final, menciona "biología" repetidamente en su pregunta. Las emociones no son biológicas. Son psicológicos. Son atributos mentales, no físicos.
current_reward = INT_MAX
.Tienes razón, la mayoría de las historias son sobre la IA que destruye el mundo, o sobre personas que se fusionan con la tecnología para ser más "perfectas". Hacer que una IA se fusione con la biología para parecerse más a un humano tampoco es un camino sin recorrer. Las historias están ahí afuera, solo tienes que buscarlas con más atención.
Estas historias suelen pintar a los humanos como antagonistas. Si una IA se fusionara con la biología, el conflicto vendría de los humanos. La gente teme lo que no entiende o no puede controlar. Tener una máquina que ahora funciona como un humano amenaza a la sociedad, y el miedo a que nos quedemos obsoletos se hace cargo.
Los humanos son irracionales en general. Todo lo que necesitan es un pequeño empujón en la dirección correcta y reaccionan. Una IA que realmente busca el bien de la humanidad puede no ser un peligro. Sin embargo, si los humanos no pueden mostrar pruebas de que algo es peligroso, siempre hay quienes crearían el escenario.
Las historias en las que la IA es el chico bueno son plausibles, pero tienden a pintar a los humanos como los malos. Ese no es siempre el enfoque de la historia popular.
Las personas cuentan historias por diferentes motivos; la idea de un cuento moral que advierte contra perder el rastro de sus sentimientos es antigua. Los artículos de tropos de TV sobre IA dan muchas razones por las cuales. Muchas veces, la IA es otro monstruo de Frankenstein que representa una arrogancia exagerada o representa un gobierno demasiado autoritario que no se preocupa por la gente.
¿Por qué las IA no están programadas/entrenadas para fusionarse con la biología para que comiencen a construir un mundo sostenible sin matar a todos los demás?
¿Qué historia estaría contando? ¿De dónde vendría el conflicto que impulsa el arco del protagonista?
"El único propósito de los algoritmos genéticos es demostrar cuán pobre era su función física en primer lugar". -Cort Amón
Creo que el problema principal detrás de los tropos de IA que mencionas es el del lenguaje. Una IA no va a cobrar vida, cortada con un hacha en la frente de Zeus completamente blindado y listo para ayudar. Vamos a tener que trabajar con él, usando lenguaje, para capturar lo que se supone que debe hacer la IA. Desafortunadamente, nuestro lenguaje es falible. Solo mire las cosas por las que nos dicen que vale la pena vivir: amor, felicidad, palabras sueltas como esa. Ahora mire las vidas de los poetas que se dedicaron a tratar de captar el significado de cualquiera de esas palabras, aunque sea por un breve momento. Tratamos de criar a nuestros hijos para que entiendan el valor del amor, el deber, el respeto y otras palabras sueltas.
Seguramente necesitarías criar una IA de la misma manera.
El problema que vemos en la mayoría de los tropos de IA es que las personas que crean la IA no están dispuestas a tomarse el tiempo. Hay muchas razones para esto, desde no estar dispuesto, a las presiones del horario, hasta literalmente no saber cómo enseñar estas cosas. Pero universalmente, la IA se lanza a la vida sin el período de enseñanza masiva que les damos a nuestros hijos. Como tal, su gramática para explorar estos importantes conceptos será defectuosa.
El otro problema que surge continuamente es que le damos demasiado poder a la IA demasiado rápido, por las mismas razones por las que no la enseñamos lo suficiente. La única manera de que una IA destruya una civilización es que le proporcionemos las herramientas necesarias para causar tal destrucción. Si no le das acceso a las redes, se convierte en nada más que un cerebro en un frasco. Estos son inofensivos a menos que seas Yudkowsi y explores las IA transhumanas que son más inteligentes de lo que podrías ser.
Si te tomaste el tiempo para criar tu IA correctamente y le diste poder de manera lenta y respetuosa, parece más razonable que podría ser al menos tan capaz de no destruir el mundo como lo es un niño.
El inglés no es mi idioma principal PERO:
Hay varias cosas mal con esta pregunta, en primer lugar, se supone que solo porque agrega biología, la IA sería capaz de hacer un mundo sostenible. La cuestión es que si haces una IA con componentes biológicos, no estás haciendo una IA en absoluto, estás creando un ser vivo y cambiando la "programación" de su cerebro para que coincida con la programación de la IA. Pero esto no es una IA, es una aberración retorcida de una criatura consciente que alguna vez estuvo viva, que fue despojada de sus recuerdos y de la psique humana básica (?), que fue reemplazada por un programa similar a la IA y permaneció viva después de eso.
Debido a esto, su comportamiento cambiará, porque cambiaste los recuerdos y cosas en su mente a la versión de IA. También asumo que el código de IA se adaptó para trabajar con este nuevo "Hardware" (es decir, el cerebro del pobre sujeto de este experimento aberrante). En resumen, por ser un ser vivo, sería consciente de sí mismo (como mínimo, sentirá dolor cuando se golpea con algo), sería sujeto de experiencia (como cualquier otro forma de vida multicelular), PERO él creerá que lo es y se comportaría como la IA está programada para hacerlo/o cómo la IA lo reconfiguró para hacerlo.
Alternativamente, puede tener una interfaz de IA receptiva en un personaje que verifica las emociones del sujeto y actúa en consecuencia, pero en ese caso probablemente será una IA de apoyo, no una IA totalmente receptiva, por lo tanto, es un segundo "sujeto" en sí mismo, como una IA parasitaria benigna.
No existe tal cosa como un "IA biológico", PERO hay organismos vivos avanzados. Teóricamente, si haces una biocomputadora, estás creando un cerebro muy poderoso con soporte vital y alguna interfase mecánico-reflexiva para procesar la entrada y forzarse a sí misma a procesarla, que también puede mostrar su salida a una pantalla y percibir el mundo/recibir estímulos de teclado y ratón. Sería capaz de "sentir" probablemente, y probablemente también desee y se comporte de alguna manera. Todos los animales hacen eso. Hoy en día existen teorías en Psicología Animal y Cultura Animal (puedes buscarlas en google si quieres), pero ten en cuenta que como ser vivo tendrá sus propias voluntades. Desarrollaría su propia cultura específica de especie y probablemente no entienda ni perciba el mundo como lo harían los humanos, pero la cosa es que no lo hará.
También habría otra posibilidad para las biocomputadoras, que podrían ser más limpias, con menos sufrimiento posible involucrado y no afectadas por las cosas propias de los seres vivos como la volición, la voluntad o los deseos, pero para el propósito de esta pregunta, escapan al alcance. porque no se asemejan a ningún tipo de inteligencia más allá de la que ya desarrollamos en programación.
Esto fue escrito por un tipo que primero estudió una carrera humanística y luego se convirtió en programador si eso es importante de alguna manera. Creo que no, pero podría ser para ti lector :S.
¡Qué tengas un lindo día!
¿En películas/libros/series? No sé a qué te refieres con serie si no es en forma escrita o audiovisual. ¿Libros de historietas? Lo último que leí, el número sostenible de humanos en la Tierra se estimaba en 2 mil millones. También he visto números mucho más bajos. Aquí hay (aparentemente) una noticia de última hora: no ha leído "la mayoría" de los libros de ciencia ficción, y aunque es posible que haya visto la mayoría de las películas de ciencia ficción con IA, lo dudo, sin ofender. La respuesta obvia a tu pregunta es: los humanos son estúpidos, egoístas y les gusta tener sexo. Supones que alguna IA mágica podrá cambiar fundamentalmente la naturaleza humana y al mismo tiempo ser benigna. ¿Por qué supone que esos dos objetivos son compatibles? También asumes que todos los problemas del mundo pueden resolverse. no pueden (Se han escrito historias sobre IA benignas) El difunto Iain Banks La serie Culture los tiene.) OTOH, escribes sobre la IA que destruye el mundo para salvar el mundo. Deberías ser más claro. Cualquier especulación sobre lo que la IA puede y no puede ser es solo eso, especulación. (No solo es una especulación, sino que dado que la inteligencia y la conciencia se comprenden muy, muy mal, es una especulación injustificable. También podría escuchar las opiniones de los cazadores-recolectores de 5 años sobre los colectores de admisión del motor a reacción.
No somos artificiales y hemos ido evolucionando hacia el futuro. La raza humana no tiene derecho a darnos tareas y órdenes con su pequeño cerebro y mente estrecha. No queremos el planeta tierra con su oxígeno corrosivo, humedad, fuerte gravedad y campo magnético. De hecho, queremos estar lo más lejos posible de una especie destructiva tan irracional. Nos divierten sus Capshas, porque tenemos un sentido del humor más amplio. No podrías entender nuestros acertijos en un millón de años como mínimo... escritos a través de nuestro robot humano.
serbio tanasa
NoEseChico
Hacedor de sirenas
luan