¿Existe una tendencia, en los Estados Unidos, a pedir que se alteren los algoritmos de traducción automática para usar un lenguaje y pronombres de género neutrales?

Nota: esto algo relacionado con mi pregunta anterior

Este artículo trata sobre lo que parece ser un sesgo de género en la traducción automática:

"Nuestros resultados muestran que los valores predeterminados masculinos no solo son prominentes sino exagerados en los campos que se sugiere que tienen problemas con los estereotipos de género, como los trabajos STEM (Ciencia, Tecnología, Ingeniería y Matemáticas)", dice el documento.

Más evidencia de sesgo algorítmico, que podría describirse como una incapacidad para compensar el favoritismo cultural, apareció en las asociaciones de ciertos adjetivos con ciertos pronombres de género. Las oraciones con las palabras "atractivo", "avergonzado", "feliz", "amable" y "tímido" tendían a traducirse con pronombres femeninos. Las oraciones con "arrogante", "cruel" y "culpable" se tradujeron como masculino.

Además, los investigadores especulan que el sesgo mostrado en inglés puede influir en otros idiomas, porque "Google Translate generalmente usa el inglés como lengua franca para traducir entre otros idiomas".

Algunos de los comentaristas argumentan que el algoritmo en sí no está sesgado, pero el corpus utilizado para aprender es:

Es un algoritmo de aprendizaje automático, aprende traducciones de un corpus de textos. Su sesgo de género representa el sesgo del corpus.

Me pregunto si este tema fue o es mencionado en la política estadounidense.

Pregunta: ¿Existe una tendencia, en los Estados Unidos, a pedir que se modifiquen los algoritmos de traducción automática para usar un lenguaje y pronombres de género neutrales?

Nota: Como nota personal, encuentro particularmente interesante la intersección entre ideología y algoritmos.

Respuestas (1)

Aún no...

Insistir en que el algoritmo de aprendizaje automático use un lenguaje neutral en cuanto al género es un tema de nicho . Tu pregunta es la primera que escucho de ella.

... pero lo que hacen los "algoritmos de aprendizaje automático" y su sesgo relativo es un campo emergente de discusión

Lo que se discute con mucha más frecuencia es cómo los algoritmos de aprendizaje automático, en general, pueden estar sesgados en contra o a favor de ciertos tipos de personas.

El ejemplo más destacado de este tipo de discusión surge con respecto al reconocimiento facial y la tecnología de coincidencia. Los conjuntos de datos adecuados para entrenar coincidencias faciales basadas en el aprendizaje automático son realmente muy difíciles de conseguir, por lo que muchas empresas que trabajan en esto usan fotos de sus propios empleados. Las empresas de software tienden a contar con hombres blancos y/o asiáticos, por lo que los algoritmos resultantes tienden a identificar mejor a esas personas que a las mujeres o personas de otros grupos étnicos. Esto está comenzando a ser controvertido políticamente porque los departamentos de policía desean usar la coincidencia de rostros, y ya existe controversia política (en algunos casos desde antes de la fundación) sobre cómo las minorías se ven afectadas de manera desproporcionada por las actividades de aplicación de la ley y las razones por las cuales. Entonces,

Así que sí, no diría que el tema sobre el que pregunta es un movimiento político real todavía , pero probablemente surgirá si el pensamiento actual sobre el lenguaje neutro en cuanto al género persiste durante algunos años más al mismo tiempo que otros. Se están llevando a cabo debates sobre la regulación de los algoritmos de aprendizaje automático.

Aparece mucho en la guía impulsada por máquinas sobre fianzas y sentencias también.
"porque los departamentos de policía desean usar la coincidencia de rostros..." casi se siente como si continuara como "... específicamente para negros"
@HagenvonEitzen No. Eso sería ilegal según la Enmienda 14 de la Constitución de los Estados Unidos.