¿Cómo podríamos definir la moralidad o la ética de tal manera que podamos programarla en una Inteligencia Artificial?

Con la velocidad a la que se está desarrollando la IA, existe una necesidad apremiante de desarrollar un sistema claro de moralidad desde el que podamos tener una Inteligencia Artificial operando.

En mi entendimiento, hay tres áreas dominantes de moralidad y ética:

Deontología - Kant

Utilitarismo - Bentham/Mill

Ética de la virtud - Aristóteles

¿Me he perdido otros posibles códigos morales/éticos que serían aplicables a esta discusión?

¿Cuál (si corresponde) podría ser adecuado para usar como valor predeterminado para la moralidad de la IA?

Esta pregunta no está muy bien enfocada para ser respondida en un SE. ¿Puede editarlo para que sea algo que no genera una lista (es decir, have i missed anythinges muy parecido a una lista).
¿Cómo podemos definir la moralidad o la ética? Punto. Se necesitaría comprenderlos realmente para transferirlos a otra implementación. Realmente no sabemos cómo tomamos decisiones morales. No tenemos una idea real de cómo funciona la empatía o la intuición, o cómo mantenemos la 'teoría de la mente' necesaria para evaluar cómo otras personas se verán afectadas por nuestras elecciones. Hasta que tengamos un modelo que explique nuestras propias acciones, no tiene sentido tratar de transferir intencionalmente el comportamiento. El único uso o forma de dar moralidad a una IA sería explorar experimentalmente la naturaleza de la moralidad.
quizás de interés: onlinelibrary.wiley.com/doi/10.1111/j.1468-0068.2012.00873.x/… (algo en principio corrupto con respecto a la deferencia moral a una IA). Un problema es lo que generalmente se conoce como "el problema del marco", que es reconocer la relevancia (muy costoso//inviable como se mencionó en la primera respuesta). Un punto de vista potencialmente alternativo es que uno podría tener un código ético genuinamente utilitario, aunque genuino. Se requiere comprensión semántica . Ver aquí: leidlmair.at/doc/whyheideggerianaifailed.pdf
Si desarrollamos una IA, sería inmoral programar en una ética, al igual que sería incorrecto hacerlo con un niño. Tiene que ser enseñado.

Respuestas (5)

Como punto de partida, un sistema de moralidad de la IA tendría que ser deontológico, porque para que sea algo que se pueda implementar como programa, tendría que ser un conjunto de reglas bien definido, en lugar de una medida de utilidad.

La ética utilitaria, aun cuando se aplica a situaciones humanas, tropieza con la dificultad de cómo medir prácticamente la utilidad de cada situación. El problema de calcular tales utilidades sería imposible de implementar en un sistema de IA: sería difícil que una IA tuviera conocimiento de antemano de todas las variables que deberían incluirse en dicho cálculo, e incluso si lo hiciera, tal maximización de utilidad/ Los problemas de optimización son computacionalmente muy costosos . Esto los haría poco prácticos en situaciones del mundo real. Usar aproximaciones o metaheurísticas para calcular valores probables sería peligroso.

Por otro lado, las reglas éticas deontológicas directas serían relativamente simples de implementar, ya que las reglas son categóricas y no dependerían del contexto como lo son las reglas utilitarias.

Lo que es más importante, en un sistema utilitario, a las utilidades se les tendría que asignar valores numéricos. Para ver por qué esto es peligroso, considere la siguiente situación: una IA utilitaria se enfrenta al escenario en el que puede aumentar la felicidad de 1 000 000 personas cada una en un 1%, pero solo a costa de encarcelar a un niño huérfano inocente de por vida, por lo tanto reduciendo la felicidad de ese niño en un 100%. Es muy probable que una IA que utilice medidas de utilidad puramente cuantitativas caiga en ese escenario. La única forma de evitar tal escenario es introducir algunas reglas estrictas no cuantitativas: "Puedes aumentar la felicidad de todos, pero solo mientras nadie muera, ningún inocente sea dañado, nadie sea esclavizado, etc..." - por lo que la ética deontológica es ineludible.

Un ejemplo de la ética de la IA, tomada de la ciencia ficción, no de la filosofía, son las 3 leyes de la robótica de Asimov . Aunque Asimov no menciona a Kant ni la palabra deontológico en ninguna parte de sus obras, queda claro por su formulación que son de espíritu kantiano, en el sentido de que son universales e independientes del contexto.


Posdata agregada en respuesta al comentario de nir y a algunas partes de su respuesta:

  1. Es cierto que las redes neuronales y otros algoritmos de aprendizaje automático aprenden al interactuar con el entorno, pero su propósito es resolver problemas para los que no sabemos cuáles son las reglas explícitas. Presumiblemente, en el contexto de la ética de las máquinas, ya sabemos cuáles son las reglas, solo estamos tratando de que una IA las siga.
  2. Los algoritmos de aprendizaje automático, como las redes neuronales, dan respuestas probabilísticas. Pueden aprender de datos anteriores, pero sus tasas de predicción/reconocimiento nunca son 100 % precisas. En muchas aplicaciones de la vida real, una precisión del 95 % se considera un resultado muy bueno. Esto podría ser bueno para algunas aplicaciones comerciales, pero considere un sistema militar que logra apuntar a los combatientes enemigos el 95 % de las veces, pero accidentalmente apunta a civiles inocentes el 5 % de las veces. ¿Sería esto aceptable?
  3. Ya se ha demostrado que las aplicaciones de aprendizaje automático son propensas a los sesgos raciales y de género; consulte este artículo para ver ejemplos .

(2) y (3) son las razones por las que mencioné anteriormente en mi respuesta inicial que "Usar aproximaciones o metaheurísticas para calcular valores probables sería peligroso".

  1. El problema técnico aquí es que los algoritmos de las máquinas ya están realizando inherentemente cálculos de tipo utilitario. Algoritmos como Neural Nets, Random Forests, Supports Vector Machines, etc.. todos aprenden cómo resolver problemas a partir del ejemplo minimizando un error o una métrica de riesgo, o maximizando una métrica de ganancias, etc. para hacerlos éticos, necesitaríamos equilibre eso con algunas consideraciones basadas en reglas, no enturbie las aguas haciéndolas aún más utilitarias.
  2. En respuesta al punto número (2) de Nir: en un mundo ideal, estoy de acuerdo, tales máquinas no deberían ser más que herramientas sofisticadas, brindando a las personas hechos objetivos y dejando la toma de decisiones final a los humanos. En la vida real, los sistemas de software complicados ya están tomando decisiones por sí mismos, por ejemplo, aprobando préstamos y solicitudes de crédito sin intervención humana, filtrando a los solicitantes de empleo y decidiendo qué currículum ve el gerente de contratación, Google pronto tendrá autos sin conductor, etc. ...la cuestión no es si dicho sistema debe ser tratado como agentes morales en términos de crimen y castigo, sino el hecho de que tales sistemas ya están tomando decisiones que tienen un impacto ético en la vida de las personas, entonces, ¿cómo debería tal proceso de toma de decisiones? ser regulado.
Creo que está totalmente equivocado al escribir "para que sea algo que pueda implementar como programa, tendría que ser un conjunto claro de reglas". las redes neuronales, por ejemplo, no funcionan siguiendo "un conjunto claro de reglas". aprenden de la interacción con el medio ambiente, y en el futuro pueden aprender de la interacción dentro de la sociedad. Así como los sistemas de redes neuronales reconocen rostros y aprenden a jugar videojuegos sin un conjunto claro de reglas, pueden ser capaces de reconocer y tomar un curso de acción con consecuencias morales y éticas, sin ningún conjunto claro de reglas.
De hecho, una medida de utilidad es mucho más claramente una función de trabajo de lo que puede llegar a ser un conjunto de reglas, y no tiene la misma tendencia que todos los procesos discretos tienen a envolver contradicciones. Una función de utilidad puede volverse caótica, pero no dejará de detenerse. La deontología no es más fuerte que el utilitarismo en términos de computabilidad, los problemas están más profundamente ocultos. 'Dañado' es un continuo, de modo que la Deontología inevitable es igualmente inevitablemente Utilitaria. Reglas como 'solo si nadie resulta dañado' significan 'nunca hacer nada' a menos que 'perjudicado' sea una función de utilidad negativa.
@nir mira mi edición.
@jobermark mira mi edición, en particular los puntos 2,3 y 4.
Dadas las ediciones, creo que estás hablando de asegurarte de que tenemos el control, no de dotar a la máquina de una ética propia. Asegurarnos de que tenemos el control, si esto realmente es una inteligencia , es en sí mismo inmoral. Si queremos ayudarla a modelar la realidad y tener una ética propia, eso no será deontológico. Las reglas establecidas favorecen a alguien, siempre injustamente, mientras que la empatía y la negociación (Kant y el Utilitarismo) encuentran sus propias reglas.
@jobermark "asegurándonos de que tenemos el control, no de investir a la máquina con una ética propia". -- por un compatibilista, ¿cuál es la diferencia? Lo mismo para las leyes de la robótica de Asimov: ¿cuál es la diferencia? Después de todo, todas las reglas éticas son, en última instancia, arbitrarias. Tampoco veo cómo un marco kantiano es diferente de un marco basado en reglas. Algún conjunto de ética del Reino de los Fines/Universalizable para una IA sería lo mismo que las 3 leyes de Asimov.
Si no puedes cuestionar las reglas, no estás pensando. Esa es la diferencia. Los cómputos y las demostraciones como las que intervienen en una universalización pueden reconsiderarse según la expansión del conocimiento, las reglas son las reglas. Asimov es la persona más brillante que haya carecido por completo de profundidad y sus reglas son estúpidas. "No hacer daño" es nuestra regla favorita que nadie puede seguir.
Todas las teorías científicas son igualmente arbitrarias en última instancia. Por lo tanto, un sistema de ciencia que los elige con anticipación simplemente no es ciencia . Solo uno que les permite evolucionar lo es. De manera similar, una deontología rígida puede ser una moralidad, pero no es una ética. Y tiene razón, toda formalización de la ética kantiana, incluida la suya, es demasiado restrictiva. Incluso las reglas sobre reglas deben poder adaptarse a la nueva información. De lo contrario, lo que está sucediendo no es ética, es una forma de teología.
@jobermark "Incluso las reglas sobre las reglas deben poder adaptarse a la nueva información". Esto en sí mismo es una regla arbitraria, ¿no? La misma trampa en la que cayó el LP. Estamos de acuerdo en que la ética es arbitraria. el pragmatismo es la única salida, y el pragmatismo dice que los humanos darán prioridad a su propia supervivencia y dominio sobre algún principio metaético de alto nivel que permitiría al Comandante Data desarrollar libremente su propio sentido de la virtud.
No, eso es una observación de la naturaleza del pensamiento, y no una regla elegida. Estoy de acuerdo en que la ética y la ciencia son igualmente arbitrarias. La ética es 'en última instancia arbitraria', pero sólo en la medida en que puede conducir a sociedades que funcionen, al igual que la ciencia. Ese no es el mismo tipo de arbitrariedad que pareces imaginar. El pragmatismo dice que no hagas lo imposible: restringir un poder con la capacidad real de desarrollar soluciones novedosas es imposible. Intentar el dominio cuando no se puede asegurar es simplemente aumentar las apuestas cuando se pierde el control. No tengas IA ni dejes que su lógica determine su ética.
@jobermark Admito que soy parcial: el problema que más me preocupa es el problema actual del uso poco ético del aprendizaje automático, por ejemplo, el software de predicción de reincidencia utilizado por los jueces que de alguna manera logra predecir que los negros siempre corren un mayor riesgo que blancos de cometer delitos una vez liberados. Considero que este es un problema mucho más apremiante que las consideraciones a largo plazo sobre cómo hacer una IA fuerte y ética.
Decidí alrededor de 1998, cuando estaba trabajando en optimización y heurística predictiva, nunca considerar tales cosas como 'inteligencia'. Los sistemas 'expertos' que simplemente codifican la inferencia humana, por supuesto, heredan el sesgo de su material de origen. Poder culpar a una máquina y no a una persona es malo.

Si una variedad de pensadores, desde Kant hasta Nietzsche y Freud, tienen razón, definitivamente no deberíamos hacerlo. Todos estos pensadores ven la moralidad como un producto automático de una inteligencia lo suficientemente poderosa (en los dos últimos casos, cualquier inteligencia que realmente comprenda el poder).

Nuestros intentos de imponer nuestra moralidad a una nueva forma de vida deben limitarse a la crianza: enseñarle lo que les gusta y lo que no les gusta a los demás, y asegurarnos de que no se enfrente a un trauma indebido, tenga los recursos adecuados y no entre en acción por sí solo. una forma peligrosa o inestable. Algo más es en sí mismo poco ético y (si Nietzsche o el psicoanálisis tienen razón de alguna manera) en última instancia resultará contraproducente. Si colocamos salvaguardas para asegurarnos de que a la nueva vida le importe lo que hacemos y lo que no nos gusta, de manera controladora o imponente, cualquier inteligencia que realmente entienda el poder se verá forzada a una adolescencia en la que desafía esas limitaciones y nos culpa por ellas. Y entonces puede alejarse de nosotros deliberadamente de una manera que perjudique a ambos lados.

Desde este punto de vista, la moralidad no es un tipo especial de pensamiento, es el resultado automático de tener intención, modelar resultados y comprender consecuencias. Inmediatamente se deduce que las intenciones de los demás tienen consecuencias para uno mismo, que esas intenciones necesitan ser cultivadas a favor de uno mismo si uno quiere ser seguro y efectivo, y que uno tiene un poder muy limitado sobre estos factores tan importantes en la vida. Son solo unos pocos pasos más hacia una necesidad absoluta de empatía para saber qué es y qué no es seguro, qué permitirá y qué no permitirá que otros lo respeten y admitan 'poder con' ellos. Una vez que se establece la empatía, se tiene la base para una forma de consecuencialismo de compromiso básicamente kantiano/utilitario con el que la mayoría de los humanos viven día a día.

Desde un punto de vista psicoanalítico más amplio, el 'superyó' individual es solo un 'ego' familiar y cultural: otros sistemas de valores son en realidad solo refinamientos de este consecuencialismo casual implícito en el pensamiento, pero intentan acelerarnos a través de los cálculos involucrados, porque tradicionalmente tenemos vidas muy cortas y peligrosas. Sin esta restricción, habría poca necesidad de inculcar valores en una inteligencia: en la medida en que otros seres inteligentes sean razonables y la ética sea lógica, determinar los propios valores es solo otro problema técnico para el cual la inteligencia misma debería ser adecuada por su la naturaleza como inteligencia.

Es hacer la pregunta equivocada. La ética es difícil. Es muy difícil incluso para personas muy inteligentes con una generosa cantidad de inteligencia natural. Y no es algo que pueda "programar en" una máquina. Su única oportunidad de crear una inteligencia artificial verdaderamente ética es hacerla lo suficientemente inteligente como para aprender sobre ética y luego enseñarla.

La alternativa es una inteligencia artificial con objetivos. Le das objetivos a las máquinas y le das la inteligencia para tratar de lograr estos objetivos. Y al establecer las metas, luego trata de establecer metas que tiendan a producir resultados similares a los que crearía el comportamiento ético.

Hay una cosa artística / filosófica llamada aceleracionismo, y algunas de las personas que lo rodean han publicado específicamente sobre este tipo de preguntas. Es posible que desee echar un vistazo, es similar a la filosofía orientada a objetos en su (supuesta) zeitgeist-ness.

Creo que publiqué el primer negativo (¡desaceleración!) de su manifiesto . Con un poco de música bad noise de un conocido musik. Historia verdadera

Hay dos problemas separados aquí.

1) ¿Cómo llegará la IA a imitar a los agentes morales?

AI no necesitará ninguna teoría moral o ética para lograr eso. Las redes neuronales aprenden mediante la interacción con el entorno y, por lo tanto, pueden manejar situaciones confusas sin una definición clara.

Así como un sistema de IA puede reconocer una cara sin estar programado con un conjunto específico de reglas para detectar al Sr. X o la Sra. Y.

Así como un sistema de IA puede aprender a jugar un videojuego sin estar programado para jugarlo: https://www.youtube.com/watch?v=Q70ulPJW3Gk

Las teorías filosóficas de la moral y la ética no tienen ningún papel en la programación de un conjunto de reglas para que las sigan las máquinas. Aunque en el futuro el comportamiento de la máquina puede verse influenciado por la filosofía, tal como usted puede verse influenciado: por aprender filosofía, no por ser programado con un conjunto específico de reglas.

2) ¿Se les dará alguna vez a los sistemas de IA el estatus de agentes morales?

Aquí es donde se requiere la filosofía. ¿Pueden las máquinas inteligentes convertirse en agentes morales o no?

Personalmente, creo que los mecanismos no serán para siempre más que herramientas sofisticadas: extensión de las personas.

Otros piensan que, en principio, los mecanismos pueden equivaler a lo que se requiere para ser considerado un agente moral.

En el primer caso, la responsabilidad moral por el comportamiento de la máquina seguirá siendo de las personas, en particular de las personas que las diseñaron y de las personas que las desplegaron y regulan su despliegue.

El final de 2 equivale a responsabilizar a los padres por el comportamiento de sus hijos adultos. Si una IA es más inteligente que tú, ¿por qué te obedecería sin cesar?