Permítanme comenzar con un ejemplo.
Supongamos que soy un científico informático que trabaja en una inteligencia artificial autónoma, similar a la humana (al menos en algunos aspectos), que se espera que interactúe con los humanos, tome importantes decisiones autónomas, etc. Sin entrar demasiado en detalles, hay numerosos abre preguntas éticas con respecto a este asunto, y algunas personas afirman que (por diferentes razones) crear una IA similar a la humana sería inmoral , y (lo que sigue) la investigación en sí misma (incluso si no involucra ninguna creación real) también es inmoral. , ya que nos acerca a la implementación de la misma (al igual que, digamos, la investigación sobre la bomba nuclear). No es mi intención discutir esos argumentos aquí.Sin embargo, creo que podemos estar de acuerdo en que el problema es muy controvertido, no existe una autoridad universalmente reconocida o un estándar ético al que podamos recurrir y, por lo tanto, no está claro si trabajar en IA es moral o no.
Dada la situación que acabo de describir: ¿es moral (para mí) trabajar en una IA similar a la humana si no sé si es moral?
Si soy un ingeniero que construye un puente, no se espera que sepa la prueba exacta de cada ecuación matemática que estoy usando; aún así, al menos debería poder señalar un libro de texto confiable donde se pueda encontrar la prueba. Si soy un psicólogo experimental, hay una comisión que decidirá si el diseño de mi experimento es ético o no. Creo que hay un consenso general de que, haga lo que haga, debo "hacer mi tarea", pero en los dos casos mencionados hay una instancia superior en la que puedo confiar. Sin embargo, si no existe tal caso, ¿cuál es mi obligación moral? ¿Debo convertirme primero en un experto en ética de la IA, para poder tomar la mejor decisión posible, antes de poder continuar mi investigación (o abandonarla)?
Elegí el ejemplo anterior porque es relevante para mi situación y también un problema difícil e importante en la práctica. Sin embargo, me gustaría hacer mi pregunta mucho más general: ¿Es moral hacer algo sin saber si es moral o no?
Para ser claros, obviamente no sugiero que uno pueda determinar la validez de los enunciados normativos de manera empírica o apriorística. Por "saber lo que es moral" quiero decir: obtener la mejor visión general posible de los argumentos existentes y tomar la decisión más educada e imparcial sobre lo que parece ser lo correcto.
Me gustaría escuchar algunos buenos argumentos a favor y en contra dentro de un marco utilitario.
Claramente, está haciendo una pregunta desde el punto de vista de la filosofía aplicada ("práctica"). Por lo que entiendo, usted está preocupado por hacer investigación en un campo donde aún no se sabe si es ético o no. Así es como abordaría el asunto.
Si uno se pregunta si " hacer " (realizar activamente esa investigación) o " no hacer " (desistir), uno podría estar atrapado en una falacia: el "termino excluido". Es probable que haya algo intermedio que uno podría hacer para salir de esta situación de indecisión. ¿Podría definir mejor (ampliar) qué significa " ético " en ese caso particular de aplicación? ¿Cuáles serían los criterios para definir adjudicar sobre eso? Por ejemplo: en un enfoque de "dos columnas" (más/menos), quién o qué podría beneficiarse y quién o qué podría sufrir, ¿cómo y por qué?
Si uno no puede decidir todavía sobre esa base, lo siguiente que debe hacer sería buscar: ¿qué datos me faltan para decidirme ? Así que habría que averiguarlo (que es una acción de investigación ). Además de estudiar qué literatura existe sobre el tema (lo que parece haber hecho hasta cierto punto), podría, por ejemplo, intentar un trabajo piloto : es decir, un experimento a pequeña escala que permitiría probar si es "ético" o no. (según su definición aplicada), y si resulta que no funciona, causaría el menor daño posible (un análogo serían las pruebas clínicas para un nuevo medicamento).
Una advertencia es que parte de la información u opiniones pueden ser sesgadas, sin fundamento o simplemente falsas . No es porque alguna autoridad (científica, religiosa, moral, legal, académica, etc.) diga que "la IA es buena o mala", que uno deba tomarlo en consideración, si simplemente no es un hecho. Esto podría ser una cuestión de integridad personal . En la forma en que plantea la pregunta, el poder de observación y adjudicación no puede ser de nadie más que suyo . Este principio kantiano de sapere aude , "atrévete a saber", o "piensa por ti mismo", al emanciparse uno mismo de la autoridad de los demás (ver su famoso ensayo " ¿Qué es la Ilustración? ").
La cuestión de si esta adjudicación personal coincide con la moral dominante se vuelve entonces subsidiaria. En principio , la integridad personal de uno no debe verse afectada por el hecho de que la posición de uno sea controvertida o no (esto podría ir bajo el título de defender las propias convicciones ). Sin embargo, en la práctica , existe la cuestión de si encontrará aprobación o desaprobación común para su postura ética (en este ensayo, es interesante ver cómo Kant aborda este tema en relación con la autoridad religiosa y monárquica). Si recibe tanta desaprobación que afectaría negativamente su bienestar, entonces tendría que decidir qué hacer.al respecto: darse por vencido, ofrecer su tiempo o retroceder (participar, por ejemplo, en actividades de promoción), etc.? A menos que pareciera que estaría mejor haciendo (o no haciendo) lo que juzgó que es correcto, sin preocuparse por las opiniones de otras personas.
La conclusión es que lo que usted observó y juzgó personalmente podría ser lo primero que importa. Lo que otros piensan es subsidiariamente importante, desde un punto de vista moral (social). Entonces poner los dos en tensión podría sugerirle una solución a su dilema.
Desde un punto de vista puramente utilitario, los seres humanos tienen la responsabilidad moral de actuar de una manera que cause "el mayor bien para el mayor número de personas".
Pero la ética utilitaria tiene 2 grandes debilidades: 1) definir el bien; y 2) cuantificar el bien.
1) El genocidio masivo y la limpieza del acervo genético pueden justificarse estableciendo un bien mayor para la especie humana. La guerra es justificada en este sentido por el utilitarista.
2) Cómo lo cuantificas es otro tema. Hay algunos filósofos inclinados a las matemáticas que intentan asignar valores numéricos a ciertas acciones (positivo para cosas buenas, como alimentar a una persona hambrienta, o negativo para cosas malas, como matar a alguien). Esa es la justificación para la persona que se sacrifica a la canibalización por parte de los sobrevivientes de un accidente aéreo.
Le sugiero que busque en otra parte su respuesta. Personalmente, soy un amoralista... No creo que la moral sea universal y que nuestra sociedad no la necesite para funcionar. Especialmente, no necesitamos tratar de asignarles valores matemáticos para permitir que una computadora tome esas decisiones importantes por nosotros.
En lo que respecta al desarrollo de IA, veo que surgen dilemas éticos en el momento en que realmente comienzas a escribir el código que permitiría que una máquina decida cuándo terminar con una vida humana. Si vas en esa dirección, te insto a que andes con cautela y busques la opinión de otros, específicamente un consejero espiritual familiarizado con la naturaleza de tu trabajo. También le aconsejo que busque a alguien que se haya quitado la vida, un soldado o un oficial de policía o similar.
Espero que esto ayude.
Conifold
maquero
Conifold
maquero
gnasher729
maquero
virmaior
maquero
fralau
usuario2953