Quisiera su sugerencia sobre un asunto delicado relacionado con un artículo que estoy revisando. Evitaré dar demasiados detalles para preservar el anonimato.
En este artículo, los autores describen un algoritmo para el control (no tripulado) de un dron militar armado. El trabajo se ha realizado completamente en un simulador, pero los autores muestran imágenes claras del tipo de dron militar del mundo real que reprodujeron, diciendo explícitamente que el dron real se puede armar con diferentes tipos de bombas. El rendimiento del algoritmo se puntúa en función del número de veces que el dron simulado alcanza el objetivo de forma autónoma. Los autores nunca discuten las posibles preocupaciones éticas de esta tecnología, ni dicen explícitamente si esta tecnología se utilizará en drones reales para atacar objetivos humanos con la posible participación de civiles (por ejemplo, en la lucha contra el terrorismo).
Mi posición personal es contraria al desarrollo de armas letales autónomas. Aunque tengo varios años de experiencia en la revisión de documentos, esta es la primera vez que tengo que lidiar con un problema de este tipo y no estoy seguro de cómo moverme. Creo que este tipo de problemas éticos son comunes en los campos relacionados con la medicina, pero poco comunes en la ingeniería, y que están tomando desprevenida a nuestra comunidad.
Nótese que, desde un punto de vista formal, la situación es confusa. Si bien ha habido una petición internacional contra el desarrollo de armas autónomas, la formalización en una prohibición internacional (como la de las armas químicas ) parece lejana. Además, las pautas éticas de la revista solo se aplican al uso de animales en la investigación y a los experimentos con sujetos humanos. Esto me permite concluir que, desde un punto de vista formal, el documento es legítimo ya que no infringe ninguna regla.
He considerado escribir al editor expresando mis inquietudes o señalar estas inquietudes directamente en la reseña, para que los autores puedan dar respuesta a mis consultas. Como última solución también estoy considerando la opción de retirarme, pero preferiría entablar un diálogo con los autores y el editor ya que esto es más constructivo para todos. Sin embargo, creo que también es importante considerar la hipótesis de que mi posición ética puede sesgar mi revisión (aunque estoy tratando de ser lo más neutral posible) y esto puede ser injusto para la evaluación de la calidad técnica del método propuesto.
Mi pregunta es : ¿cómo debo proceder en el proceso de revisión? Hay algunas opciones: retirar por preocupaciones éticas, simplemente revisar el artículo, revisar y expresar mis preocupaciones éticas al editor (y tal vez a los autores).
Actualización: 5 de marzo de 2020
Gracias a todos por sus respuestas, realmente me ayudaron a entender mejor la situación. Decidí retirarme como revisor y envié una carta oficial al editor. En la carta expresé mis preocupaciones éticas sin hacer ningún comentario sobre la calidad técnica del artículo. El artículo no rompió ninguna regla formal, por lo que recomendar un rechazo oficial hubiera sido como imponer mi ética personal sobre el proceso de revisión. En la carta también he denunciado aquellas frases que enmarcaban claramente al dron como un arma letal autónoma.
El editor asistente me escribió diciendo que al editor le gustaba mi actitud académica y me quería para una segunda revisión. El equipo editorial se ha puesto en contacto con los autores, quienes dijeron que no querían crear un malentendido y que están dispuestos a modificar las expresiones. Esto parece implicar que han enviado a los autores la lista de oraciones que informé confidencialmente al editor, y que los autores quieren ajustar esas oraciones en la versión revisada.
Mi opinión personal es que simplemente reformular el documento sin cambiar la sustancia no sería suficiente. Puede sustituir "objetivo" por "objetivo" y "ataque" por "alcance", pero sigue siendo un dron armado autónomo.
Le sugiero que se retire y envíe una carta formal al editor expresando sus preocupaciones. Citar un universo moral más grande que el estrecho cubierto por las políticas de la revista. Sugiera que la investigación en sí no es ética y recomiende, sin una revisión detallada, que se rechace el artículo.
He estado en un caso similar pero menos tenso. Fui pastor de un papel que cruzó una frontera menos peligrosa. Tuve contacto repetido con los autores y traté, a través de varias comunicaciones, de convencerlos de que las acciones que proponían estaban equivocadas. No logré convencerlos. El papel fue rechazado. De hecho, me dieron un premio por mis esfuerzos para convencerlos, aunque fracasé.
Mi experiencia sugiere que las personas que hacen este tipo de cosas no se dejarán convencer por un diálogo de ningún tipo. Están demasiado involucrados en esto como para molestarse en escuchar.
No espere a que "los poderes fácticos" decidan que esto es inmoral y conduce a un mal final. Si las personas como los revisores en la base de la pirámide no se quejan, este tipo de investigación continuará y se implementará. Hay demasiados ejemplos históricos de esto para ignorar las consecuencias.
El OP, sin duda, es consciente de que esta es una pregunta difícil con algunas áreas grises. También puede ser difícil proporcionar una única respuesta objetiva, por lo que primero destacaré algunos cursos de acción y luego haré una sugerencia personal.
(1) Rechazar debido a que el trabajo no es ético: un revisor tiene el derecho moral de hacerlo. Por supuesto, si no hay una legislación o un precedente de respaldo, esto puede volverse bastante subjetivo, y el revisor debe estar preparado para la refutación.
(2) Rechazo por motivos académicos: el enfoque sería señalar que los autores no han hecho un trabajo riguroso ya que no se han detenido en las posibles consecuencias de dicha tecnología, y esta es una parte importante del desarrollo tecnológico.
(3) Revisar el artículo sobre méritos puramente académicos, pero en la revisión, comunicar explícitamente al editor que este trabajo puede tener consecuencias negativas no deseadas, y su revisión no las considera.
(4) Examinar la revista y ver si publica artículos que son (en opinión del revisor) problemáticos. Si es así, retírese de la revisión Y genere conciencia pública sobre esta revista a través de los medios de comunicación, las redes académicas, etc. (Escriba también al diario, ya que es una cortesía esperada.) Sin la segunda acción, la primera es estéril y casi elude la responsabilidad.
Sí, ninguna de las opciones es fácil e implican invitar a una reacción violenta o cargar con la culpa. Hay que tomar una decisión basada en la fortaleza y el apetito por la crítica. Personalmente, no puedo recomendar tomar el camino más suave, por lo que mi recomendación sería (3) o (4) dependiendo de qué tan fuerte se sienta uno sobre el problema.
EDITAR:
Siguiendo una sugerencia en los comentarios, puede valer la pena diferenciar los antecedentes de (3) y (4).
En (3), donde uno transmite sus temores a través de una comunicación privada al editor, la carga moral recae directamente sobre el editor/diario. El revisor ha cumplido un deber puramente académico y se contenta con comunicar sus aprensiones en privado. Podría haber algunas buenas razones para adoptar esta postura: confiar en el núcleo ético/moral del editor/revista, creer que esta zona gris debe tratarse dentro de los límites profesionales y no públicamente.
En (4), uno no se absuelve de ninguna responsabilidad moral y elige abordar personalmente las preocupaciones éticas. Esto significa aceptar la responsabilidad no solo por la reacción violenta, sino también por la difusión exitosa del mensaje. Es inherentemente el enfoque más difícil, pero más responsable y posiblemente satisfactorio.
Si realmente te preocupa, retírate de la revisión del artículo y cuéntale al editor las preocupaciones éticas.
Si rechaza el artículo por cualquier motivo que no sea académico, está imponiendo implícitamente su ética a los autores. Las declaraciones éticas que tienen perfecto sentido para usted pueden no tenerlo en absoluto para otra persona; el mero hecho de que los autores hicieran la investigación indica que no consideran que los drones armados autónomos sean éticamente abominables. Podría afirmar que su ética es "mejor" que la de ellos, pero eso no es seguro, y una persona razonable podría tomar la posición contraria. Si no quiere tener nada que ver con el documento por razones éticas, rechace revisarlo y deje que lo revise alguien que esté menos preocupado por la ética.
Dicho esto, puede señalar el problema a la revista y asegurarse de que estén de acuerdo con la ética. Es posible que la revista esté de acuerdo contigo en que los drones armados autónomos no son éticos y rechazarán el artículo sin revisarlo. Si publican de todos modos, puede distanciarse de la revista al no revisar para ellos y/o publicar con ellos en el futuro.
TL, DR: Simplemente debe ignorar sus cuestionamientos morales con el fin de revisar este artículo.
Para divulgación: trabajo en un campo relacionado con la defensa.
En resumen:
El cuestionamiento que puede estar proponiendo es probablemente mucho más complejo e involucra líneas más difíciles de trazar de lo que puede estar pensando.
Cualquier postura política que pueda tener la revista sería muy cuestionable, y además, no depende de usted decidir sobre ellas.
Está fuera del alcance tener una discusión ética sobre cada documento técnico de este tipo. Aunque los códigos de ética deben ser conocidos y respetados por todos los profesionales en todos los campos.
En la medida en que existen pautas éticas establecidas sobre este tipo de publicación, ninguna se ha incumplido según la presente pregunta (como usted mismo ha señalado).
Usted como persona y ser humano, tiene la opción de negarse a revisar el trabajo. Pero no espere ni intimide a otros para que hagan lo mismo.
En modo detalle/despotricar:
A pesar de que se trata de un trabajo de ingeniería, deberías pensar en el marco de la ciencia en general. "Ciencia" y "ética" son cosas diferentes, que se cruzan dentro de las "acciones". El documento no pretende matar personas con el fin de realizar pruebas, solo habla de simulaciones, por lo tanto, debido a la falta de acciones, la parte científica es distinta de la parte ética aquí, por lo que en mi libro no hay absolutamente ninguna preocupación ética. cualquier cosa que le deba importar a un revisor mientras revisa el documento (aparte de resultados simulados falsos, informes deshonestos y otras cosas aplicables incluso a las matemáticas puras).
Veo muchos desafíos técnicos en el campo de las armas/drones/coches autónomos, etc., y esos son campos en los que las personas trabajan activamente y desarrollan sus carreras, para bien y para mal.
Si está en contra del desarrollo de armas autónomas, esta es una postura política suya que (en mi humilde opinión) no debe ser respaldada por ninguna revista científica como entidad. Puede verificar si la revista que solicitó su revisión tiene alguna política relacionada, pero dudo que este sea el caso. Por lo tanto, no es parte de su tarea de revisión hacer afirmaciones políticas sobre los documentos que revisa.
¿Dónde exactamente trazas la línea? Las armas letales autónomas son para ti, pero ¿qué pasa con la IA de reconocimiento facial? También existen preocupaciones sobre el desarrollo no regulado de aplicaciones de IA, e incluso prohibiciones temporales propuestas sobre el uso de esta tecnología. ¿Espera que todas las revistas de IA dejen de publicarse hasta nuevo aviso? ¿Tal vez le gustaría que todas las publicaciones relacionadas con el rendimiento de las armas también cesaran porque las armas en general son malas? Obtengo miles de resultados al buscar "eficiencia de misiles" en Google Scholar, todos en las primeras páginas hablando de ingeniería sin discusión ética. ¿Deberían haber sido rechazados también todos esos papeles?
¿Tranquilizaría su conciencia si el "tema" del artículo estuviera un poco más disfrazado? Tal vez no tenga nada en contra de un ensayo puramente matemático sobre los métodos de Montecarlo, pero adivine qué: se remontan al proyecto de la bomba atómica. Cuando era estudiante de pregrado, trabajé en un proyecto en el que un dron simulado tomaba fotografías de un objetivo. Curiosamente, la cámara siempre se rompía después de tomar la primera foto. Me tomó unos minutos darme cuenta de que se trataba de simular una bomba. Aunque fue la única vez que vi que se trató este tema sin que nadie desprevenido se conmocionara un poco, aparentemente fue un movimiento de empatía por parte del maestro.
Sin rodeos, si mi trabajo (solo técnico/teórico) fue denegado debido a que un revisor pensó que "esta tecnología debería prohibirse", no vería esto como diferente a que él / ella diga "mi religión no está de acuerdo con lo que dices". . Lo cual sucedió en el pasado, las historias cuentan que Napoleón cuestionó una vez a Laplace por no dedicarle ninguna palabra a Dios en uno de sus tratados. Por supuesto, esto se desdibuja en los campos de las humanidades, donde el contenido de una publicación deficiente puede traducirse en cosas explícitamente prohibidas, como discursos de odio, palabras de pelea, etc. También hay un problema en las ciencias médicas y biológicas donde cualquier publicación decente necesita resultados empíricos (es decir, si bien puedo simular un ataque con un dron, no puedo simular un veneno que actúa sobre el cuerpo humano). Pero este cuestionamiento no se trata del mérito científico del artículo.
Además, no pida a los autores que incluyan una discusión ética en su artículo. Simplemente está fuera del alcance y, francamente, es un campo de la ciencia de las humanidades, no un campo de la ingeniería. Por un lado, estoy completamente equipado para escribir y leer literatura científica sobre ingeniería de armas (en los campos en los que trabajo), y tuve que tomar un curso de ética durante la escuela secundaria, soy consciente y me adhiero a los códigos. de ética aplicable a mi profesión, pero soy un completo novato en lo que respecta a las ciencias éticas/políticas y legislativas a nivel de investigación. No se me puede exigir ni se me debe exigir que revise y discuta conjuntamente la literatura más reciente sobre la ética de las armas autónomas y su funcionamiento técnico interno cada vez que escribo sobre algoritmos para armas. Solo hago esto último. Se podría dar una excepción para agregar un texto repetitivo estándar como "Descargo de responsabilidad: este documento no respalda el asesinato". Pero solo a los abogados les importa el texto repetitivo y supongo que usted no es abogado.
Mire, trabajo en un campo relacionado con la defensa y conozco personas que trabajan con algunos productos que eventualmente (deliberadamente) pueden matar personas. Realmente, la discusión ética envejece, puede pasar unos días decidiendo si está de acuerdo con eso, pero una vez que haya terminado, la discusión ha terminado, simplemente siga adelante y haga el trabajo o rechace, revise sus valores una vez que le apetezca, pero no todos los días (o en cada papel para el ejemplo actual) y no ande preguntando a sus colegas sobre esto cada vez que tenga la oportunidad. No lo estoy minimizando, las empresas que desarrollan tales productos deberían y generalmente tienen psicólogos para apoyar a las personas que pueden sentirse incómodas con esta situación. Y preguntan si el empleado potencial está de acuerdo con trabajar en este tipo de producto, porque se debe pensar en esto.
Si bien algunas personas tienen objeciones acerca de trabajar con armas (particularmente las armas disponibles para el consumidor) y "votan con los pies" al negarse a trabajar en este campo, los aspectos prácticos de la vida se imponen en la existencia de una industria de "defensa" muy próspera, armada. policías, fuerzas armadas, etc. Simplemente hay muchos más votos a favor de que las armas existan y se desarrollen que de lo contrario, les guste o no, estén de acuerdo o no. Y tanto más demanda de más producción y desarrollo de armas.
Puede que estés pensando demasiado en esto. Un revisor no acepta ni rechaza un trabajo. Un revisor recomienda al editor que acepte o rechace un artículo.
Si cree que la revista no debería querer involucrarse en la investigación de armas, recomiende el rechazo basado en motivos morales. Si el editor cree que no se deben considerar los motivos morales, o cree que la investigación de armas es ética, puede ignorar su recomendación.
La decisión difícil aquí recae en los editores¹, no en los revisores.
¹Proponer ejemplos más extremos de investigación que no ha dañado directamente a nadie en la metodología pero que aún tiene implicaciones fuertemente poco éticas se deja como un ejercicio para el lector.
@Applied academic presentó cuatro cursos de acción en su respuesta ; Me refiero a esos y podrías ir a leer eso primero (pero no tienes que hacerlo).
Mi recomendación es:
Estoy en contra de la opción de opciones (2), porque quejarse de la falta de una "sección de ética" sugiere implícitamente que el documento en general está cerca de ser legítimo. También estoy en contra de la opción (3), porque eso significa que ha "pasado la pelota": ha hecho su parte para que se publique ese artículo y ahora espera que el editor tenga más agallas que usted. Es dudoso que lo hagan, después de ver que has estado de acuerdo.
Nota: @DanRomik enfatiza en un comentario que un revisor en realidad no rechaza ni acepta un artículo, sino que recomienda su aceptación o rechazo. Vale la pena recordarlo incluso si nosotros (y esta respuesta) usamos los términos "rechazar" o "aceptar".
Tienes varias opciones viables, obviamente. Mi inclinación personal es que si elige recomendar rechazar el artículo en base a la ética de los drones armados, exprese esa opinión en la revisión y bájese del escenario, absteniéndose de revisar sobre asuntos científicos.
De esta manera, se toma nota de su objeción, no se ha convertido en parte de la mala situación ética y le da al editor la oportunidad de seguir la recomendación o buscar una revisión adicional.
El otro extremo es recomendar rechazar el artículo, no decir que es por razones éticas y buscar una justificación científica para su recomendación. Personalmente, consideraría este sabotaje científico y, por lo tanto, recomendaría no hacerlo.
El término medio es declarar su convicción, pero ofrecer una revisión científica justa. Creo que esto es difícil de hacer, y pone en duda su revisión. Me abstendría de hacer esto.
Personalmente, si tuviera esta convicción moral en particular, simplemente contactaría al editor y me negaría a revisar el artículo, explicando por qué.
Las industrias de defensa han impulsado un montón de tecnología. Hay quienes fomentan este esfuerzo. Puedo entender negarme a ser parte de esto, pero trazo mi línea personal cuando se trata de sabotear el campo con críticas falsas. Hay formas de que sus convicciones no lleguen a esto: rechace la revisión, escriba una carta al editor para su publicación, trabaje en el liderazgo de organizaciones profesionales para poner fin a la política de publicar tales cosas, recomiende a su bibliotecario que cancelar suscripciones, etc.
Resumen: las preocupaciones éticas vienen en grados.
Algunos están lo suficientemente estandarizados en el mundo académico (o incluso en el público en general) en todo el mundo que violar estos estándares significa que el trabajo debe ser rechazado por motivos éticos.
Otras preocupaciones éticas son más personales en el sentido de que un revisor puede considerarlas personalmente, pero no están tan ampliamente aceptadas/estandarizadas como para que los autores deban responsabilizarse ante ellas.
OP debería tolerar en mi humilde opinión que otros puedan tener un punto de vista diferente para estas preocupaciones (2.).
Aún así, las preocupaciones éticas personales generales (2.) a menudo incluyen preocupaciones éticas que son ampliamente aceptadas (1.) pero en un alcance más limitado. Estos nuevamente están en el tema para revisar el documento.
Sugeriría analizar un poco más los puntos (no) éticos.
Nunca he tenido que ver con la investigación de armas, pero en mi campo los experimentos con animales son relevantes, así que los usaré como un ejemplo para el cual he considerado mi ética personal, y para el cual también me he encontrado con las consideraciones éticas de otras personas. .
Aquí está mi punto de vista:
¿Es el punto poco ético algo que es "universalmente" * aceptado como poco ético por la academia o incluso por el público en general? En otras palabras, ¿existe un consenso general actual que diga que no es ético, y posiblemente incluso se violan los requisitos éticos formales estandarizados? Si es así, rechace por motivos éticos.
Los ejemplos serían el plagio, la presentación de resultados u observaciones falsificados o un diseño de estudio que las reglas en las que trabajan los comités de ética consideran poco ético (si hay una variación local relevante, juzgaría por las reglas locales donde se encuentran los autores).
* Busco un nivel de acuerdo que sea más fuerte/más amplio que "mis amigos profesionales están de acuerdo conmigo" y también más fuerte que "mi comunidad/sociedad local" o "mi religión dice": por ejemplo, mi país tiene leyes más estrictas (que yo tomar como sustituto de los acuerdos éticos) sobre experimentos en humanos que algunos otros países. Pero estas diferencias nosignifica que otra sociedad piensa que causar daño a los humanos es éticamente correcto, las diferencias resultan de matices en dónde se traza exactamente la línea, cuánto sufrimiento se considera que causa un procedimiento en particular, cuánto sufrimiento se considera soportable y cuánto sufrimiento se considera vale la pena. Así que puede haber algunos casos en los que el juicio difiera, pero en muchos casos, el juicio ético estará de acuerdo. Y eso es lo que busco aquí: un "consenso general actual" (gracias @ObscureOwl) en todos los continentes, países, religiones...
(No creo que se pueda afirmar que todas las personas estén de acuerdo en un punto ético dado, pero pedir un acuerdo tan absoluto no tiene sentido para el propósito práctico aquí, ya que no podría usarse para determinar si los actos de alguien no son éticos: tan pronto como como no estarían de acuerdo, no se pudo llegar al acuerdo requerido).
Pero puedo tener objeciones éticas que resultan de mi (OP) visión del mundo/filosofía/religión/... y donde diría que si bien está perfectamente bien objetar personalmente, pero aquí yo (OP) tengo que tolerar ese otro la gente tiene otros puntos de vista. Aquí,
un rechazo como el anterior no es posible. Sería abuso de poder por parte de un revisor imponer su opinión personal a los autores y, por lo tanto, poco ético.
Puedo decir "No estaré asociado de ninguna manera con ninguna investigación de este tipo" y negarme a ser un revisor.
Desafortunadamente, esto no hará lo más mínimo en términos de disminuir la investigación poco ética.
A veces, profundizar un poco más en por qué exactamente se opone a esta investigación puede ayudar a llegar a una solución más constructiva en la que hago la revisión y de una manera justa y relevante hago oír mis preocupaciones.
Las preocupaciones personales generales que se expresan en un nivel más detallado pueden traducirse en preocupaciones éticas universalmente acordadas (en un ámbito más limitado que la preocupación más general) o, a veces, también en puntos científicamente relevantes.
Una vez recibí un artículo para revisión en el que se habían usado y matado más de 100 roedores para la investigación. El documento informó la aprobación ética adecuada y el manejo adecuado (hasta ahora cumplió con los requisitos éticos universalmente acordados). Habían estudiado un montón de condiciones diferentes.
Las muchas condiciones diferentes significaron que los subgrupos en el experimento tenían solo muy pocos animales. Si bien a primera vista puede ser bueno no hacer sufrir a más animales, en realidad significaba que todo el estudio no valía nada porque no se podían sacar conclusiones confiables. Esto podría haberse sabido de antemano.
Así, tenemos
En otras palabras, razones válidas para recomendar rechazar el estudio.
Una diferencia obvia entre este ejemplo y los brazos automatizados es que las preocupaciones con la investigación con animales son sobre lo que ya se ha hecho, mientras que supongo que sus preocupaciones sobre los brazos automatizados son más sobre las consecuencias futuras de la vida real.
Considere como un experimento mental que es aceptable que piense en preocupaciones más especializadas, como que la tecnología propuesta representa un peligro para los civiles.
Si bien, como usted dice, la prohibición de las armas automatizadas no está (todavía) acordada universalmente, AFAIK está universalmente acordado que los civiles no deben correr un peligro innecesario o innecesariamente alto.
Partiendo de esta preocupación ética más estrecha pero universal, sospecho por su descripción que puede haber varias preocupaciones científicas y de ingeniería relacionadas con el artículo. Los cuales son serios debido a las preocupaciones éticas detrás de ellos.
El rendimiento del algoritmo se puntúa en función del número de veces que el dron simulado alcanza el objetivo de forma autónoma.
Cualquier figura de mérito como mucho puede ser parte de la verificación y validación del algoritmo.
La validación debe incluir la estimación y el informe del riesgo para los civiles: si no sabemos si el algoritmo genera un peligro innecesario para los civiles, no podemos considerar que sea adecuado para su propósito.
Personalmente, sospecho que, además, hay una compensación aquí, ya que golpear más objetivos puede muy bien tener el precio de golpear también a más civiles. Si eso es posible, una función de puntuación que no penalice golpear a civiles bien puede considerarse intrínsecamente inadecuada incluso para fines de desarrollo.
Con frecuencia encuentro procedimientos de validación defectuosos en documentos con temas mucho menos peligrosos. Si el tema no es demasiado importante, y el esfuerzo experimental para realizar una validación adecuada es desproporcionado ahora, a menudo estoy bien si las limitaciones resultantes se discuten honestamente.
El manuscrito en preguntas ni siquiera parece cumplir con este requisito mucho más débil:
Los autores nunca discuten las posibles preocupaciones éticas de esta tecnología,
(Y con un tema tan crítico, insistiría en una validación adecuada).
tampoco dicen explícitamente si esta tecnología se utilizará en drones reales
... esto puede que no lo sepan.
En el contexto de revisar un artículo para su publicación, no es su trabajo salvar el mundo. Establecer un diálogo con los autores sería colocarse como árbitro de las acciones de un grupo de personas. El editor de la revista debería, con razón, rechazar tal plan como parte de la revisión de un artículo. Aunque es posible que un programa de este tipo sea aceptable fuera del contexto de una revisión de un artículo, la revista de ninguna manera está obligada a seguir dicho plan.
Básicamente tienes dos opciones. Puede retirarse de la revisión. O puede dar una revisión objetiva del artículo basada en el contenido y las políticas de publicación de la revista.
Si la revista en cuestión publica rutinariamente dicha información y usted no puede aceptar dichos elementos como morales o éticos, entonces debe informarles de inmediato que no debe ser considerado para revisar dichos artículos.
La cura para el habla con la que no estás de acuerdo es más habla. Si cree que el trabajo de este artículo no debería haberse hecho, entonces debe publicar su trabajo explicando por qué. Habrá salidas para sus posiciones y argumentos. Si son argumentos sólidos basados en un razonamiento sólido y datos válidos, serán aceptados.
Para mí, la respuesta es bastante simple.
El asunto que nos ocupa no es considerado poco ético por una clara mayoría de la comunidad científica (si lo fuera, habría reglas en contra). En consecuencia, ya sea que considere que no es ético o no, es de poca relevancia, sus puntos de vista no deberían afectar la capacidad de la máquina científica para progresar.
Por lo tanto, sus opciones son retirarse y no hacer ninguna recomendación sobre lo que sucede con el documento o revisar el documento según sus méritos y dejar las discusiones sobre ética en su foro adecuado, que no es el proceso de revisión.
Revisaría el documento y señalaría que las limitaciones prácticas del trabajo no están claramente establecidas.
El objetivo final de esta investigación es claramente construir un sistema de armas autónomo que pueda funcionar en el campo de batalla. Ahora bien, toda guerra está sujeta a la ley. Esto incluye el principio de proporcionalidad. El principio de proporcionalidad admite daños colaterales y bajas civiles siempre que dichas pérdidas no sean excesivas en comparación con la ventaja militar directa resultante del ataque.
Es claro que los autores no han considerado el principio de proporcionalidad, porque su algoritmo de puntuación no considera el valor del objetivo militar y no tiene el concepto de daño colateral o la pérdida de vidas civiles. De ello se deduce que cualquier sistema de armas autónomo controlado mediante su algoritmo tendrá un alto potencial para violar las leyes de la guerra. Por lo tanto, su investigación tiene un valor práctico limitado y, como académicos, están obligados a establecer claramente dichas limitaciones.
Si se hace a un lado, no hay garantía de que se mencionen estas limitaciones tan prácticas. Más importante aún, los lectores no recordarán las leyes de la guerra.
Hay un buen resumen de los principios legales de la guerra en este artículo . El enfoque principal está en el principio de proporcionalidad.
cag51
Nyos
flor leopold
franco hopkins
dwizum
franco hopkins
franco hopkins
franco hopkins
bta
Juan Keates
Mermelada genérica
dwizum
franco hopkins
franco hopkins
Fresa
carlos cristiano
franco hopkins