Con la velocidad a la que se está desarrollando la IA, existe una necesidad apremiante de desarrollar un sistema claro de moralidad desde el que podamos tener una Inteligencia Artificial operando.
En mi entendimiento, hay tres áreas dominantes de moralidad y ética:
Deontología - Kant
Utilitarismo - Bentham/Mill
Ética de la virtud - Aristóteles
¿Me he perdido otros posibles códigos morales/éticos que serían aplicables a esta discusión?
¿Cuál (si corresponde) podría ser adecuado para usar como valor predeterminado para la moralidad de la IA?
Como punto de partida, un sistema de moralidad de la IA tendría que ser deontológico, porque para que sea algo que se pueda implementar como programa, tendría que ser un conjunto de reglas bien definido, en lugar de una medida de utilidad.
La ética utilitaria, aun cuando se aplica a situaciones humanas, tropieza con la dificultad de cómo medir prácticamente la utilidad de cada situación. El problema de calcular tales utilidades sería imposible de implementar en un sistema de IA: sería difícil que una IA tuviera conocimiento de antemano de todas las variables que deberían incluirse en dicho cálculo, e incluso si lo hiciera, tal maximización de utilidad/ Los problemas de optimización son computacionalmente muy costosos . Esto los haría poco prácticos en situaciones del mundo real. Usar aproximaciones o metaheurísticas para calcular valores probables sería peligroso.
Por otro lado, las reglas éticas deontológicas directas serían relativamente simples de implementar, ya que las reglas son categóricas y no dependerían del contexto como lo son las reglas utilitarias.
Lo que es más importante, en un sistema utilitario, a las utilidades se les tendría que asignar valores numéricos. Para ver por qué esto es peligroso, considere la siguiente situación: una IA utilitaria se enfrenta al escenario en el que puede aumentar la felicidad de 1 000 000 personas cada una en un 1%, pero solo a costa de encarcelar a un niño huérfano inocente de por vida, por lo tanto reduciendo la felicidad de ese niño en un 100%. Es muy probable que una IA que utilice medidas de utilidad puramente cuantitativas caiga en ese escenario. La única forma de evitar tal escenario es introducir algunas reglas estrictas no cuantitativas: "Puedes aumentar la felicidad de todos, pero solo mientras nadie muera, ningún inocente sea dañado, nadie sea esclavizado, etc..." - por lo que la ética deontológica es ineludible.
Un ejemplo de la ética de la IA, tomada de la ciencia ficción, no de la filosofía, son las 3 leyes de la robótica de Asimov . Aunque Asimov no menciona a Kant ni la palabra deontológico en ninguna parte de sus obras, queda claro por su formulación que son de espíritu kantiano, en el sentido de que son universales e independientes del contexto.
Posdata agregada en respuesta al comentario de nir y a algunas partes de su respuesta:
(2) y (3) son las razones por las que mencioné anteriormente en mi respuesta inicial que "Usar aproximaciones o metaheurísticas para calcular valores probables sería peligroso".
Si una variedad de pensadores, desde Kant hasta Nietzsche y Freud, tienen razón, definitivamente no deberíamos hacerlo. Todos estos pensadores ven la moralidad como un producto automático de una inteligencia lo suficientemente poderosa (en los dos últimos casos, cualquier inteligencia que realmente comprenda el poder).
Nuestros intentos de imponer nuestra moralidad a una nueva forma de vida deben limitarse a la crianza: enseñarle lo que les gusta y lo que no les gusta a los demás, y asegurarnos de que no se enfrente a un trauma indebido, tenga los recursos adecuados y no entre en acción por sí solo. una forma peligrosa o inestable. Algo más es en sí mismo poco ético y (si Nietzsche o el psicoanálisis tienen razón de alguna manera) en última instancia resultará contraproducente. Si colocamos salvaguardas para asegurarnos de que a la nueva vida le importe lo que hacemos y lo que no nos gusta, de manera controladora o imponente, cualquier inteligencia que realmente entienda el poder se verá forzada a una adolescencia en la que desafía esas limitaciones y nos culpa por ellas. Y entonces puede alejarse de nosotros deliberadamente de una manera que perjudique a ambos lados.
Desde este punto de vista, la moralidad no es un tipo especial de pensamiento, es el resultado automático de tener intención, modelar resultados y comprender consecuencias. Inmediatamente se deduce que las intenciones de los demás tienen consecuencias para uno mismo, que esas intenciones necesitan ser cultivadas a favor de uno mismo si uno quiere ser seguro y efectivo, y que uno tiene un poder muy limitado sobre estos factores tan importantes en la vida. Son solo unos pocos pasos más hacia una necesidad absoluta de empatía para saber qué es y qué no es seguro, qué permitirá y qué no permitirá que otros lo respeten y admitan 'poder con' ellos. Una vez que se establece la empatía, se tiene la base para una forma de consecuencialismo de compromiso básicamente kantiano/utilitario con el que la mayoría de los humanos viven día a día.
Desde un punto de vista psicoanalítico más amplio, el 'superyó' individual es solo un 'ego' familiar y cultural: otros sistemas de valores son en realidad solo refinamientos de este consecuencialismo casual implícito en el pensamiento, pero intentan acelerarnos a través de los cálculos involucrados, porque tradicionalmente tenemos vidas muy cortas y peligrosas. Sin esta restricción, habría poca necesidad de inculcar valores en una inteligencia: en la medida en que otros seres inteligentes sean razonables y la ética sea lógica, determinar los propios valores es solo otro problema técnico para el cual la inteligencia misma debería ser adecuada por su la naturaleza como inteligencia.
Es hacer la pregunta equivocada. La ética es difícil. Es muy difícil incluso para personas muy inteligentes con una generosa cantidad de inteligencia natural. Y no es algo que pueda "programar en" una máquina. Su única oportunidad de crear una inteligencia artificial verdaderamente ética es hacerla lo suficientemente inteligente como para aprender sobre ética y luego enseñarla.
La alternativa es una inteligencia artificial con objetivos. Le das objetivos a las máquinas y le das la inteligencia para tratar de lograr estos objetivos. Y al establecer las metas, luego trata de establecer metas que tiendan a producir resultados similares a los que crearía el comportamiento ético.
Hay una cosa artística / filosófica llamada aceleracionismo, y algunas de las personas que lo rodean han publicado específicamente sobre este tipo de preguntas. Es posible que desee echar un vistazo, es similar a la filosofía orientada a objetos en su (supuesta) zeitgeist-ness.
Creo que publiqué el primer negativo (¡desaceleración!) de su manifiesto . Con un poco de música bad noise de un conocido musik. Historia verdadera
Hay dos problemas separados aquí.
1) ¿Cómo llegará la IA a imitar a los agentes morales?
AI no necesitará ninguna teoría moral o ética para lograr eso. Las redes neuronales aprenden mediante la interacción con el entorno y, por lo tanto, pueden manejar situaciones confusas sin una definición clara.
Así como un sistema de IA puede reconocer una cara sin estar programado con un conjunto específico de reglas para detectar al Sr. X o la Sra. Y.
Así como un sistema de IA puede aprender a jugar un videojuego sin estar programado para jugarlo: https://www.youtube.com/watch?v=Q70ulPJW3Gk
Las teorías filosóficas de la moral y la ética no tienen ningún papel en la programación de un conjunto de reglas para que las sigan las máquinas. Aunque en el futuro el comportamiento de la máquina puede verse influenciado por la filosofía, tal como usted puede verse influenciado: por aprender filosofía, no por ser programado con un conjunto específico de reglas.
2) ¿Se les dará alguna vez a los sistemas de IA el estatus de agentes morales?
Aquí es donde se requiere la filosofía. ¿Pueden las máquinas inteligentes convertirse en agentes morales o no?
Personalmente, creo que los mecanismos no serán para siempre más que herramientas sofisticadas: extensión de las personas.
Otros piensan que, en principio, los mecanismos pueden equivaler a lo que se requiere para ser considerado un agente moral.
En el primer caso, la responsabilidad moral por el comportamiento de la máquina seguirá siendo de las personas, en particular de las personas que las diseñaron y de las personas que las desplegaron y regulan su despliegue.
virmaior
have i missed anything
es muy parecido a una lista).usuario9166
Andrés Mejía
Pregunta por Mónica