Dentro de un marco utilitario, ¿cómo debo manejar una investigación donde no sé si es ética?

Permítanme comenzar con un ejemplo.

Supongamos que soy un científico informático que trabaja en una inteligencia artificial autónoma, similar a la humana (al menos en algunos aspectos), que se espera que interactúe con los humanos, tome importantes decisiones autónomas, etc. Sin entrar demasiado en detalles, hay numerosos abre preguntas éticas con respecto a este asunto, y algunas personas afirman que (por diferentes razones) crear una IA similar a la humana sería inmoral , y (lo que sigue) la investigación en sí misma (incluso si no involucra ninguna creación real) también es inmoral. , ya que nos acerca a la implementación de la misma (al igual que, digamos, la investigación sobre la bomba nuclear). No es mi intención discutir esos argumentos aquí.Sin embargo, creo que podemos estar de acuerdo en que el problema es muy controvertido, no existe una autoridad universalmente reconocida o un estándar ético al que podamos recurrir y, por lo tanto, no está claro si trabajar en IA es moral o no.

Dada la situación que acabo de describir: ¿es moral (para mí) trabajar en una IA similar a la humana si no sé si es moral?

Si soy un ingeniero que construye un puente, no se espera que sepa la prueba exacta de cada ecuación matemática que estoy usando; aún así, al menos debería poder señalar un libro de texto confiable donde se pueda encontrar la prueba. Si soy un psicólogo experimental, hay una comisión que decidirá si el diseño de mi experimento es ético o no. Creo que hay un consenso general de que, haga lo que haga, debo "hacer mi tarea", pero en los dos casos mencionados hay una instancia superior en la que puedo confiar. Sin embargo, si no existe tal caso, ¿cuál es mi obligación moral? ¿Debo convertirme primero en un experto en ética de la IA, para poder tomar la mejor decisión posible, antes de poder continuar mi investigación (o abandonarla)?


Elegí el ejemplo anterior porque es relevante para mi situación y también un problema difícil e importante en la práctica. Sin embargo, me gustaría hacer mi pregunta mucho más general: ¿Es moral hacer algo sin saber si es moral o no?

Para ser claros, obviamente no sugiero que uno pueda determinar la validez de los enunciados normativos de manera empírica o apriorística. Por "saber lo que es moral" quiero decir: obtener la mejor visión general posible de los argumentos existentes y tomar la decisión más educada e imparcial sobre lo que parece ser lo correcto.

Me gustaría escuchar algunos buenos argumentos a favor y en contra dentro de un marco utilitario.

Con su definición de "saber lo que es moral", la pregunta se reduce a "¿Es moral hacer algo sin revisar lo que otras personas piensan sobre su moralidad?" Obtener el mejor consejo antes de hacer algo, si es posible, parece prudente y efectivo independientemente de la moralidad, por lo que la pregunta es realmente si debemos considerar las opiniones morales de otras personas al formar la nuestra. La respuesta "sí" no parece ser muy controvertida. La pregunta más provocativa sería qué hacer si incluso después de toda la consideración uno todavía no sabe (en el sentido ordinario) si es moral o no.
@Conifold Si ves las cosas de esta manera, toda la filosofía se reduciría a "lo que piensan los demás" (que afortunadamente no es el caso).
Lo que me desconcierta es que pareces estar preguntándote si escuchar lo que otras personas tienen que decir en lugar de qué hacer si todavía estás realmente inseguro después.
Cuando no estoy seguro debido a mi ignorancia, tengo algunas opciones. Puedo iluminarme, pero generalmente tiene un gran costo, por eso la elección es interesante. Cuando me quedo sin opciones, ya no creo que sea interesante. Si hice todo lo que pude pero todavía no estoy seguro, todo lo que puedo hacer es elegir al azar o usar alguna heurística práctica, pero ya no es un problema ético.
¿Podría estar confundiendo moral y ética?
@gnasher729 Quizás. ¿Podría por favor elaborar?
Esta pregunta requeriría una respuesta muy larga sin referencia a un marco particular. ¿Puedes averiguar si tu punto de vista básico es utilitario, deontológico, ético de la virtud o algo más?
@virmaior Estoy más interesado en el punto de vista utilitario aquí.
@machareus: Siguiendo tus aclaraciones, pensé en hacer un comentario, pero fue demasiado largo. Me disculpo por no dar citas filosóficas sustanciales, pero es posible que encuentre muchos mitos sobre las demandas incómodas que vienen junto con el conocimiento (un ejemplo típico está en las tradiciones judeocristianas: Adán y Eva pierden su inocencia y comodidad después de comer el fruto de conocimiento). Probablemente haya acertado con su comentario , parece que la mayoría de las personas no piensan en absoluto en las consecuencias a largo plazo de su trabajo . La conclusión es: el problema no es con los demás, sino una cuestión de respuesta.
Por favor, no use respuestas para responder. Ajústelo en un comentario o edite su respuesta original.

Respuestas (2)

Claramente, está haciendo una pregunta desde el punto de vista de la filosofía aplicada ("práctica"). Por lo que entiendo, usted está preocupado por hacer investigación en un campo donde aún no se sabe si es ético o no. Así es como abordaría el asunto.

  1. Si uno se pregunta si " hacer " (realizar activamente esa investigación) o " no hacer " (desistir), uno podría estar atrapado en una falacia: el "termino excluido". Es probable que haya algo intermedio que uno podría hacer para salir de esta situación de indecisión. ¿Podría definir mejor (ampliar) qué significa " ético " en ese caso particular de aplicación? ¿Cuáles serían los criterios para definir adjudicar sobre eso? Por ejemplo: en un enfoque de "dos columnas" (más/menos), quién o qué podría beneficiarse y quién o qué podría sufrir, ¿cómo y por qué?

  2. Si uno no puede decidir todavía sobre esa base, lo siguiente que debe hacer sería buscar: ¿qué datos me faltan para decidirme ? Así que habría que averiguarlo (que es una acción de investigación ). Además de estudiar qué literatura existe sobre el tema (lo que parece haber hecho hasta cierto punto), podría, por ejemplo, intentar un trabajo piloto : es decir, un experimento a pequeña escala que permitiría probar si es "ético" o no. (según su definición aplicada), y si resulta que no funciona, causaría el menor daño posible (un análogo serían las pruebas clínicas para un nuevo medicamento).

  3. Una advertencia es que parte de la información u opiniones pueden ser sesgadas, sin fundamento o simplemente falsas . No es porque alguna autoridad (científica, religiosa, moral, legal, académica, etc.) diga que "la IA es buena o mala", que uno deba tomarlo en consideración, si simplemente no es un hecho. Esto podría ser una cuestión de integridad personal . En la forma en que plantea la pregunta, el poder de observación y adjudicación no puede ser de nadie más que suyo . Este principio kantiano de sapere aude , "atrévete a saber", o "piensa por ti mismo", al emanciparse uno mismo de la autoridad de los demás (ver su famoso ensayo " ¿Qué es la Ilustración? ").

  4. La cuestión de si esta adjudicación personal coincide con la moral dominante se vuelve entonces subsidiaria. En principio , la integridad personal de uno no debe verse afectada por el hecho de que la posición de uno sea controvertida o no (esto podría ir bajo el título de defender las propias convicciones ). Sin embargo, en la práctica , existe la cuestión de si encontrará aprobación o desaprobación común para su postura ética (en este ensayo, es interesante ver cómo Kant aborda este tema en relación con la autoridad religiosa y monárquica). Si recibe tanta desaprobación que afectaría negativamente su bienestar, entonces tendría que decidir qué hacer.al respecto: darse por vencido, ofrecer su tiempo o retroceder (participar, por ejemplo, en actividades de promoción), etc.? A menos que pareciera que estaría mejor haciendo (o no haciendo) lo que juzgó que es correcto, sin preocuparse por las opiniones de otras personas.

La conclusión es que lo que usted observó y juzgó personalmente podría ser lo primero que importa. Lo que otros piensan es subsidiariamente importante, desde un punto de vista moral (social). Entonces poner los dos en tensión podría sugerirle una solución a su dilema.

Lo que dices es, por supuesto, muy razonable. Pero permítanme tomar un ejemplo más preciso para demostrar cuál es mi punto. Supongamos que quiero construir una máquina avanzada y sospecho que puede volverse capaz de sentir sentimientos conscientes (como lo son los humanos); supongamos que considero que construirlo no es ético si este es realmente el caso. ¿Pero cómo lo sé? ¿Qué es la conciencia, cómo puede aparecer (si es que aparece) en una máquina? ¿Debería educarme primero en filosofía / ciencia cognitiva / lo que sea para hacer al menos una suposición fundamentada, antes de continuar mi investigación en ingeniería? ¿Y si lleva años? ¿Es mi obligación?
Una obligación nace a través de una ley o contrato (o una promesa). Aunque me falta información sobre su situación, en principio no hay ninguna razón por la que uno deba verse obligado a elegir una carrera o participar en un proyecto. Pero tal vez podría comenzar desde un punto de vista subjetivo: ¿cuál fue su motivación para considerar este proyecto en primer lugar? ¿Qué causó su preocupación de que podría tener efectos adversos?
No digo que la obligación sea universal, pero como una persona más o menos normal que vive en sociedad (europea occidental, a saber), por supuesto suscribo algunos principios éticos "estándar" básicos. Por el bien de esta discusión, supongamos también que creo que crear un ser consciente no es ético (tal vez por motivos religiosos o por cualquier otro motivo), que no tengo ningún conocimiento de filosofía y que soy, digamos, un ingeniero contratado para construir un " máquina". Por lo tanto, estoy obligado a no construirlo si creo que será consciente. Pero, ¿y si no soy lo suficientemente competente para tener creencias aquí, simplemente no lo sé?
Ya veo. Entonces, el problema debe formularse como integridad personal. Como dice el refrán , el conocimiento es un camino duro que, si uno se ha embarcado en él, tiene que recorrerlo hasta el final (y es presumiblemente una metáfora bastante universal). Dado que ha descubierto un problema potencial, ahora tiene el honor de evaluarlo. No hay otra manera, parece. Si no tienes conocimientos de filosofía, me temo que tendrás que llenar ese vacío. El problema, tal como lo presenta, parece bastante irreal (actualmente hay pocas esperanzas, que yo sepa, de infundir vida en una IA), pero supongo que esto es una metáfora.
Sí, es solo un ejemplo, la historia está inventada. (Sin embargo, no creo que la conciencia artificial sea imposible: hay algunos modelos cognitivos interesantes de conciencia que, en principio, se pueden implementar; los sistemas emotivos artificiales también se investigan y ya se están construyendo). Tenía curiosidad por saber si tal vez los especialistas en ética propusieron un argumento que permitiera evitar la obligación de un giro tan drástico y posiblemente no deseado en la carrera de uno. Parece que la mayoría de la gente no piensa en absoluto en las consecuencias a largo plazo de su trabajo. Pero bueno, este es un problema diferente ;)

Desde un punto de vista puramente utilitario, los seres humanos tienen la responsabilidad moral de actuar de una manera que cause "el mayor bien para el mayor número de personas".

Pero la ética utilitaria tiene 2 grandes debilidades: 1) definir el bien; y 2) cuantificar el bien.

1) El genocidio masivo y la limpieza del acervo genético pueden justificarse estableciendo un bien mayor para la especie humana. La guerra es justificada en este sentido por el utilitarista.

2) Cómo lo cuantificas es otro tema. Hay algunos filósofos inclinados a las matemáticas que intentan asignar valores numéricos a ciertas acciones (positivo para cosas buenas, como alimentar a una persona hambrienta, o negativo para cosas malas, como matar a alguien). Esa es la justificación para la persona que se sacrifica a la canibalización por parte de los sobrevivientes de un accidente aéreo.

Le sugiero que busque en otra parte su respuesta. Personalmente, soy un amoralista... No creo que la moral sea universal y que nuestra sociedad no la necesite para funcionar. Especialmente, no necesitamos tratar de asignarles valores matemáticos para permitir que una computadora tome esas decisiones importantes por nosotros.

En lo que respecta al desarrollo de IA, veo que surgen dilemas éticos en el momento en que realmente comienzas a escribir el código que permitiría que una máquina decida cuándo terminar con una vida humana. Si vas en esa dirección, te insto a que andes con cautela y busques la opinión de otros, específicamente un consejero espiritual familiarizado con la naturaleza de tu trabajo. También le aconsejo que busque a alguien que se haya quitado la vida, un soldado o un oficial de policía o similar.

Espero que esto ayude.