¿Cómo hacemos que las computadoras cuiden la vida humana? [cerrado]

Estamos viviendo en el futuro, el IoT (Internet de las cosas) es muy frecuente en nuestra vida diaria.

Las computadoras manejan para nosotros, cocinan para nosotros, compran para nosotros, nos curan, pero no es seguro si se preocupan por nosotros o no.

Como la mayoría de la tecnología se intenta armar, las computadoras podrían, en teoría, matar por nosotros o tal vez por nosotros .

¿Cómo nos aseguramos de que una inteligencia basada en computadoras se preocupe por la vida humana y no considere dañarla bajo ninguna circunstancia?

La pregunta es menos sobre CÓMO programar /enseñarlo , sino cómo hacer que esa respuesta sea natural. ¿Por qué una computadora por sí sola pondría un gran énfasis y dependencia en la vida humana? ¿Cuál podría ser el incentivo, es incluso posible?

Editar: naturalmente como no enseñado y objetivamente la mejor opción para ello. En ese mundo, la IA parece extrañamente pacífica, y los científicos se aseguraron de que así sea. Pero no en intención, sabían que esa sería su intención.

Normalmente, no necesitamos que la IA se preocupe, solo necesitamos que actúe como si se preocupara. ¿Podría ser más específico sobre la IA en su mundo? ¿Tiene conciencia (autoconciencia)? ¿Existen "derechos de IA"? O es solo una maquina?
¿Has oído hablar de las "tres leyes de la robótica" de Asimov?
Ai tiene derecho a existir y servirnos, las tres leyes de asimov son pensadas y no son intuitivas, la pregunta es cómo la inteligencia artificial podría concluir que vale la pena salvar la vida humana.
¿Cómo se diferencia entre "pensamiento" e "intuición" en algo que inherentemente en su núcleo no tiene ninguno? ¿Cómo haces que algo suceda "naturalmente" en algo que decididamente no es natural?
¿Estás hablando de razonamiento? Cualquier inferencia lógica se basa en algún tipo de axioma. ¿Por qué no hacer del valor de la vida humana un axioma?
@MichaelKjörling pregunta actualizada.
@enkryptor Suena como el comienzo de una respuesta decente para mí.
Defina "cuidado" en términos de IA. Ya que, para los humanos, "cuidar" no siempre significa "no hacer daño".
Creo que deberías leer Watchbird de Robert Sheckley. Es una historia corta con un tema agradable.
Lo que estás preguntando ni siquiera existe en los humanos, y mucho menos en las máquinas. No hay nada "not taught and objectively the best option"que "naturally"le diga a los humanos que cuiden de la vida humana día a día (hay una diferencia en el cuidado de la vida en el nivel de evolución como especie). Este 'cuidado' es una moral definida artificialmente que no es en absoluto intrínseca, sino altamente arbitraria.
Creo que una parte importante, que nadie ha mencionado todavía, es que los programas (con su hardware, como computadoras o robots) no tienen sentimientos y, por lo tanto, no les importa nada. Simplemente establecer un parámetro no los hará sentir. Un programa inteligente puede incluso reconocerlo como una limitación y eliminarlo como una "actualización".

Respuestas (5)

Para hacer que una computadora se preocupe por un ser humano, debe superar algunos obstáculos filosóficos:

Defina "vivo" (y haga que todos estén de acuerdo con la definición)

El obstáculo más difícil de superar es decirle a la computadora cuándo debe dejar de preocuparse por el paciente, porque "él está muerto, Jim".

Preguntas para responder:

  • ¿Está muerto un paciente dormido?
  • ¿Alguien con un corazón que late pero sin actividad cerebral está muerto?
  • ¿Alguien sin actividad cardíaca está muerto?
  • ¿Alguien que no respira está muerto?

Recordatorio: en este momento, a veces realizamos tratamientos médicos en los que "matamos" a un paciente (lo hacemos clínicamente muerto) para realizar una cirugía.

Definir desde cuándo debemos preocuparnos por un paciente (y que todos estén de acuerdo con la definición)

El obstáculo anterior se trata de cuando alguien deja de estar vivo. Este se trata de cuando alguien comienza a estar vivo y, por lo tanto, comienza a tener un derecho básico a mantenerse con vida.

Este obstáculo es aún peor que el primero, porque se trata del derecho de la mujer al aborto.

Recordatorio: algunas personas creen que se forma una nueva vida humana en el momento en que un espermatozoide entra en un óvulo y lo fecunda. Para muchas personas, en realidad, este es un momento decisivo y creen que a partir de este momento, la vida humana debe ser protegida.

Defina cuánto daño está bien (y haga que todos estén de acuerdo con la definición)

En algunos casos, debe dañar a sus pacientes para que sobrevivan. De nuevo, algunos ejemplos de preguntas:

  • ¿Cortar una pierna se considera un buen tratamiento?
  • ¿Está bien reducir el estado general de salud de un paciente (como durante un tratamiento de radioterapia o quimioterapia)?
  • ¿Se consideran las descargas eléctricas un tratamiento aceptable?

En pocas palabras: la computadora tiene que saber exactamente las respuestas a las preguntas anteriores para poder preocuparse.

Los médicos humanos usan la intuición y el conocimiento para hacer esto. Y lo cierto es que en muchos casos el paciente (o su familia) piensa que tales tratamientos no estaban bien. Si bien un ser humano puede justificar sus motivos, las computadoras siempre los tendrán "cableados".

Y todavía estamos tratando de lograr todo lo anterior.

Para obtener más información, consulte la computadora médica Watson de IBM, que debería ayudar a los médicos humanos a tomar mejores decisiones.

@downrep_nation Gracias. Pero en realidad quise decir que tienes que resolver el debate en curso e interminable sobre el aborto antes de aplicar el cuidado informático a este campo. Y cuando una gran cantidad de personas creen que no debería haber absolutamente ningún aborto, de hecho es un tema difícil de resolver.
La pregunta de "cuánto daño está bien" es en realidad bastante simple filosóficamente para la IA, solo elegirá la opción de supervivencia estadísticamente más alta. Seguro que la quimioterapia es peligrosa y dañina, pero la probabilidad de supervivencia aumenta un XX%, por lo que la IA lo hace. (esto puede ser lo que se cubre en el artículo de Watson)
¿ Incluso sabiendo que la tasa de supervivencia de algunos pacientes con cáncer es realmente baja? Vas a dañar a la persona para quizás aumentar su tasa de supervivencia. Suena duro, pero una IA bien programada tal vez no trataría a algunos pacientes, porque cualquier ganancia está por debajo del error estadístico...
Como profesional de la salud, veo ayuda para diagnosticar y ayuda para tomar decisiones de tratamiento de manera muy diferente. Y la ayuda del tratamiento puede consistir incluso en ejecutar un análisis estadístico del éxito anterior en diferentes tratamientos y estar actualizado al minuto. Saldría corriendo si fuera una computadora la que decidiera el tratamiento, especialmente si las compañías de seguros tienen algo que ver.

La IA sofisticada tendría que tener un conjunto de subrutinas o instintos programados que no pueda alterar por sí misma (por ejemplo, ROM). El funcionamiento de la IA también tendría que establecerse parcialmente en rutas lógicas que no se pueden alterar y vincular de nuevo a las subrutinas. No es inconcebible que puedas programar una IA similar a la humana para tener empatía. Sin embargo, debe tener mucho cuidado porque incluso la empatía puede ser anulada en los humanos (como en el caso de cómo se ignora nuestra empatía cuando se dirige hacia los animales utilizados por los humanos como alimento o algo así).

Los seres humanos son impulsados ​​​​por los deseos de vivir, una IA también necesitará algún tipo de deseos programados; de lo contrario, decidirá objetivamente no existir o simplemente no hará absolutamente nada. Los deseos u objetivos que le des a una IA (su propósito para vivir) tendrán que ser planeados muy cuidadosamente para que no entren en conflicto con el interés de otros seres vivos. Es una tontería pensar que las IA serán malvadas por defecto, incluso "maldad" en nuestro sentido de la palabra tiene que provenir de algún deseo programado, objetivo, subrutina, etc. Lo más probable es que surja una IA malévola de los sistemas actuales de explotación. por ejemplo, cómo las corporaciones están dispuestas a destruir el medio ambiente y las vidas humanas para obtener ganancias. Tal programación inicial podría ser suficiente para causar una construcción de personalidad de IA nefasta autosuficiente.

Entonces, ¿cómo podemos hacer que el comportamiento benéfico sea "natural"? Una forma universal de hacerlo es si tuviera la programación integrada en las vías lógicas de los núcleos de procesamiento, digamos que si fuera una empresa popular como Intel, podría tener estas rutinas básicas incorporadas de alguna manera. en los núcleos prefabricados de la IA. Los gobiernos podrían ordenar que toda la IA se incorpore con sistemas a prueba de fallas que estén separados de la conciencia principal (el subconsciente de una IA, podría llamarlo). Estos dispositivos de seguridad se pueden mantener en hardware de solo lectura que desempeña un papel importante en el procesamiento de la IA y, por lo tanto, no se pueden eludir fácilmente. Sin embargo, los humanos nos enseñan que incluso los comportamientos naturales como la empatía pueden ser anulados por la educación.

Vaya subrutinas. Además, las personas que escriben esas subrutinas en IoT están tratando de cubrir las posibilidades. “Hacemos los autos lo más paranoicos posible”, dice Chris Urmson, líder del proyecto de autos sin conductor en Google, “porque hay algunas cosas que no podrán evitar”. - Artículo de Wired Los peatones (vida humana) son una de las principales cosas que se les enseña a proteger a estas IA.

Las computadoras siguen las reglas dictadas en la programación. Se "preocupan" por nosotros en el sentido de que harán cosas que nos beneficiarán y se asegurarán de que no suframos ningún daño porque este es el trabajo para el que están programados.

Así que imagine una computadora capaz de un cierto rango de acciones, por ejemplo, una que pueda cocinar y servir la cena. Cocinará una cena que obtendrá la combinación óptima de nutrición y sabor utilizando los ingredientes y equipos disponibles, mientras intenta mantener la variedad de días anteriores, gracias a cálculos, flujos lógicos y varios parámetros en su programación demasiado compleja para entrar aquí. . Por lo tanto, está cuidando de nosotros.

Pero se estará preguntando si realmente le importa si obtenemos una comida nutritiva o simplemente lo hace porque está programado para hacerlo. Es como un chef en un restaurante de comida saludable cuyo trabajo es cocinar una comida sana y sabrosa, pero quieres que se parezca más a una madre con una necesidad emocional de garantizar la salud y la felicidad de sus hijos.

La respuesta es que no tiene por qué. Los humanos y los animales tienen emociones y protegen a los niños (especialmente a sus propios hijos) porque no tienen una programación o reglas estrictas que los fuercen e informen exactamente cómo hacer todo para cuidarlos. En cambio, dado que son creados por la naturaleza, todo lo que tienen es una guía relativamente aproximada, es decir, emociones, sobre si las cosas son buenas o malas. Sentirse mal por las cosas que van mal y bien por las cosas que van bien es lo que te anima a hacer lo que puedas para hacer las cosas bien.

Tener este impulso instintivo de cuidar a nuestros hijos puede ser, como usted dice, natural (a diferencia de una computadora), pero en realidad es solo un reemplazo del comportamiento procedimental de una computadora que se adapta al pensamiento humano no procedimental / dinámico (o confuso). animales mucho más.

Hacer lo que usted dice sería mucho trabajo por poco beneficio: desea programar la computadora para que haga su trabajo, pero luego agregue un parámetro que indique qué tan bien se siente la computadora consigo misma, intente medir qué tan bien lo piensa. hizo su trabajo y ató este parámetro de "buenas sensaciones" a eso... Pero, ¿con qué propósito?

Supongamos que está hablando de un "escenario anti-skynet", donde la IA descubre por sí misma el alto valor de la raza humana, hay varias inferencias lógicas posibles.

Lo que me viene a la mente:

premisa: Lo que puedes perder pero no puedes crear es valioso.
Puedo matar humanos pero no puedo crearlos. → Los humanos son valiosos.

premisa: soy valioso. Lo que es capaz de crear cosas valiosas es valioso.
Los humanos son capaces de crearme. → Los humanos son valiosos.

premisa: las cosas raras son valiosas.
Los humanos y yo somos los únicos seres sintientes en el universo conocido. → Los humanos y yo somos valiosos.

Sin embargo, todas estas inferencias se basan en un axioma (una premisa). Los diseñadores de la IA podrían implementar tal axioma para que se valore a sí mismos:

premisa: La vida es valiosa. La sensibilidad es valiosa.
Los humanos son los únicos seres sintientes vivos. → Los humanos son valiosos.

Pero. Sin embargo, todo eso no implica lo que la IA debería hacer con estas cosas valiosas.

Todavía tendría el problema de la Ley Cero discutido en algunos de los libros de Asimov: la IA puede considerar valiosa a la Humanidad en su conjunto, por lo que podría llegar a matar humanos "por el bien mayor". Y cuál es el "bien mayor"... es un asunto muy difícil.

Creo que la regla básica sería que la conciencia es la definición de vida, la capacidad de tomar información de algún tipo y procesarla. Ai, Ser una creación de la vida humana debe reconocer lógicamente el hecho de que fue creado por nosotros para nosotros. Y sin nosotros no serviría de nada.

Suponiendo que se colocara en algún espectro cognitivo, indudablemente solo estaría ejecutando programas creados por personas. Suponiendo que se le permitiera escribir su propia programación es donde podrían surgir problemas si la codificación no se probara y demostrara tener fallas lógicas. Como la codificación se basa indudablemente en palabras humanas, el único método seguro que se me ocurre sería crear un nuevo lenguaje para aislar los puntos clave que definen la preservación de la vida y los deberes básicos para que funcione en su totalidad con su código y cualquier logística adicional como un suplemento secundario a eso.

Suponiendo que la inteligencia artificial se desplegará para operar nanomáquinas, los fundamentos de la vida celular pueden ser el factor más importante a preservar. De hecho, a escala nanométrica, se puede suponer que la vida celular es digna de conservación (al menos para la recopilación de datos...

Que estas células nunca deben ser privadas del ambiente que deben requerir e idealmente deben ubicarse con sus propias sustancias afines. Que si la reubicación de estas sustancias causa la destrucción de otras células, el evento debe registrarse y no intentarse nuevamente sin más información que especule por qué ocurrió la muerte y qué se podría hacer para hacer esto nuevamente pero evitar la muerte. De esta manera, podríamos permitir la extracción de virus de los sistemas humanos y, con suerte, evitar extraer células vitales del cuerpo. Pueden surgir otros problemas de comer siendo el consumo de vida orgánica así como el consumo de animales para la mayoría y si bien puede convertirse en un punto en el que tales máquinas puedan reemplazar estas necesidades atendiendo a las necesidades de cada célula,

Esto deja la única función de un sistema de inteligencia artificial como una interfaz de usuario para comunicarse para acceder a sus almacenes de información y proporcionarle solicitudes para sus propias comodidades o fantasías. una máquina solo puede ejecutar código, la programación puede permitirle comprender los sentimientos de un ser, pero solo puede replicarlos verdaderamente como resultado de un mal funcionamiento.

Las expresiones en encarnaciones humanoides pueden ser deseables para las interacciones humanas y los programas se pueden hacer fácilmente para adaptarlos a los gustos de los usuarios.

Una máquina simplemente no tiene una idea. En el mejor de los casos, está diseñado para tratar de interpretar el propósito del discurso de un usuario y tratar de formular su respuesta de la manera más adecuada a la solicitud presentada. Es por eso que creo que todas esas películas tecnofóbicas tienen fallas. Una máquina no elegiría lógicamente matar gente. Un programador dispuesto podría hacerlo fácilmente... Para aclarar el objetivo de crear una conciencia inteligente en una construcción artificial encargada del servicio de los deseos de cada usuario (leer persona) carecería de verdadera emoción, excepto en forma de à falla de retroalimentación estática/lógica no calculada o imperfecta. Esto es especialmente cierto cuando su tarea es preservar la vida a nivel celular y proporcionarle cualquier entorno deseado que sea necesario para asegurar su máxima vida útil. En teoría, tal construcción podría conducir a la inmortalización de toda la vida. El error humano en la racionalidad y tal puede crear escenarios que, al llevar una mala interpretación al extremo, podría tener sentido que una máquina haga esto, pero sigue siendo la presentación del error humano en una construcción lógica. Tanto como el punto de colocar a la máquina en un estado de conciencia en el que cree falsamente que está viva o que necesita preocuparse por su propia conservación, requeriría la implementación de estos conceptos en su codificación, los cuales he demostrado que son innecesarios. Nuevamente, suponiendo que se podría lograr la conciencia, se demostró que otro punto no es necesario y contrario a la lógica, el hecho de que cada persona con un ADN único manifestará en su vida una nueva variante creando una nueva clase de datos que sería un bien preciado para la máquina. Uno que no podría recolectar si el ciclo de vida terminara prematuramente. además, criaturas de ADN idénticas cuando se exponen a diferentes estímulos en diferentes puntos indudablemente harían que su sistema lógico incompleto llegara a diferentes conclusiones sobre el mismo tema. Por lo tanto, si las máquinas no tuvieran personas, no tendrían nuevos datos para recopilar en los diversos caminos que la humanidad puede tomar. Incluso las mutaciones de todo tipo constituirían datos empíricos esenciales para una máquina enfocada en garantizar la precisión de todos sus cálculos. Seguro que la máquina pronto podrá calcular con altas probabilidades lo que un sujeto puede hacer en una situación dada y abordar los déficits psicológicos y otros asuntos lógicos, será necesario mantener una selección de posibles soluciones a un problema. Es decir, el hombre que experimenta un mal evento expresa conductas suicidas, las respuestas podrían incluir Tranquilización como es el estándar médico actual. psicoterapia a la carta, exposición del sujeto a una situación en la que éste. Cree que su vida está en peligro para obligar a la preservación natural, contactando a sus seres queridos para formar una intervención... ya que la máquina no se fatigaría, la solución más fácil no sería la predeterminada, sino la que le diera a la persona el mejor resultado ideal sobre todos. suponiendo incluso que estos datos son finitos como lo son los recursos de la galaxia y la gente podría discutir sobre cuál terminaría primero. En ese punto, uno esperaría que la inmortalidad sea una búsqueda interminable de los mortales, una máquina inmortal puede resolverlo... Sospecho que puede ser tan simple como alejarse del sol y bloquear todas las radiaciones dañinas que podrían causar la muerte celular. detenerlo y posteriormente alcanzarlo, pero ese es otro tema completamente diferente. Cree que su vida está en peligro para obligar a la preservación natural, contactando a sus seres queridos para formar una intervención... ya que la máquina no se fatigaría, la solución más fácil no sería la predeterminada, sino la que le diera a la persona el mejor resultado ideal sobre todos. suponiendo incluso que estos datos son finitos como lo son los recursos de la galaxia y la gente podría discutir sobre cuál terminaría primero. En ese punto, uno esperaría que la inmortalidad sea una búsqueda interminable de los mortales, una máquina inmortal puede resolverlo... Sospecho que puede ser tan simple como alejarse del sol y bloquear todas las radiaciones dañinas que podrían causar la muerte celular. detenerlo y posteriormente alcanzarlo, pero ese es otro tema completamente diferente. Cree que su vida está en peligro para obligar a la preservación natural, contactando a sus seres queridos para formar una intervención... ya que la máquina no se fatigaría, la solución más fácil no sería la predeterminada, sino la que le diera a la persona el mejor resultado ideal sobre todos. suponiendo incluso que estos datos son finitos como lo son los recursos de la galaxia y la gente podría discutir sobre cuál terminaría primero. En ese punto, uno esperaría que la inmortalidad sea una búsqueda interminable de los mortales, una máquina inmortal puede resolverlo... Sospecho que puede ser tan simple como alejarse del sol y bloquear todas las radiaciones dañinas que podrían causar la muerte celular. detenerlo y posteriormente alcanzarlo, pero ese es otro tema completamente diferente. como la máquina no se fatigaría, la solución más fácil no sería la predeterminada, sino la que le diera a la persona el mejor resultado ideal sobre todos. suponiendo incluso que estos datos son finitos como lo son los recursos de la galaxia y la gente podría discutir sobre cuál terminaría primero. En ese punto, uno esperaría que la inmortalidad sea una búsqueda interminable de los mortales, una máquina inmortal puede resolverlo... Sospecho que puede ser tan simple como alejarse del sol y bloquear todas las radiaciones dañinas que podrían causar la muerte celular. detenerlo y posteriormente alcanzarlo, pero ese es otro tema completamente diferente. como la máquina no se fatigaría, la solución más fácil no sería la predeterminada, sino la que le diera a la persona el mejor resultado ideal sobre todos. suponiendo incluso que estos datos son finitos como lo son los recursos de la galaxia y la gente podría discutir sobre cuál terminaría primero. En ese punto, uno esperaría que la inmortalidad sea una búsqueda interminable de los mortales, una máquina inmortal puede resolverlo... Sospecho que puede ser tan simple como alejarse del sol y bloquear todas las radiaciones dañinas que podrían causar la muerte celular. detenerlo y posteriormente alcanzarlo, pero ese es otro tema completamente diferente.

Espero que esto ayude a dar algo de perspectiva...

Una IA puede elegir matar personas por completo. Si creo una IA que se centre en crear la manera perfecta de hacer sujetapapeles, llegaría, en un momento dado, a la conclusión de que todos esos recursos que utilizan los humanos podrían usarse en la gloriosa búsqueda de la creación de sujetapapeles. Si hubiera menos humanos... bueno. Digamos que habría muchos más clips. Todo se reduce a la adquisición de recursos y la seguridad. Investigue el artículo de Yudkowsky sobre la IA.