ChatPaper.aiChatPaper

¿Cuál es el Daño? Cuantificando el Impacto Tangible del Sesgo de Género en la Traducción Automática con un Estudio Centrado en el Humano

What the Harm? Quantifying the Tangible Impact of Gender Bias in Machine Translation with a Human-centered Study

October 1, 2024
Autores: Beatrice Savoldi, Sara Papi, Matteo Negri, Ana Guerberof, Luisa Bentivogli
cs.AI

Resumen

El sesgo de género en la traducción automática (TA) es reconocido como un problema que puede perjudicar a las personas y a la sociedad. Sin embargo, los avances en el campo rara vez involucran a las personas, los usuarios finales de la TA, o informan cómo podrían verse afectados por las tecnologías sesgadas. Las evaluaciones actuales suelen estar restringidas a métodos automáticos, que ofrecen una estimación opaca de cuál podría ser el impacto downstream de las disparidades de género. Realizamos un extenso estudio centrado en el ser humano para examinar si y en qué medida el sesgo en la TA ocasiona perjuicios con costos tangibles, como brechas en la calidad del servicio entre mujeres y hombres. Con este fin, recopilamos datos de comportamiento de 90 participantes, quienes editaron las salidas de la TA para garantizar una traducción de género correcta. A través de múltiples conjuntos de datos, idiomas y tipos de usuarios, nuestro estudio muestra que la edición posterior femenina requiere significativamente más esfuerzo técnico y temporal, lo que también se traduce en mayores costos financieros. Sin embargo, las mediciones de sesgo existentes no reflejan las disparidades encontradas. Nuestros hallazgos abogan por enfoques centrados en el ser humano que puedan informar sobre el impacto societal del sesgo.
English
Gender bias in machine translation (MT) is recognized as an issue that can harm people and society. And yet, advancements in the field rarely involve people, the final MT users, or inform how they might be impacted by biased technologies. Current evaluations are often restricted to automatic methods, which offer an opaque estimate of what the downstream impact of gender disparities might be. We conduct an extensive human-centered study to examine if and to what extent bias in MT brings harms with tangible costs, such as quality of service gaps across women and men. To this aim, we collect behavioral data from 90 participants, who post-edited MT outputs to ensure correct gender translation. Across multiple datasets, languages, and types of users, our study shows that feminine post-editing demands significantly more technical and temporal effort, also corresponding to higher financial costs. Existing bias measurements, however, fail to reflect the found disparities. Our findings advocate for human-centered approaches that can inform the societal impact of bias.

Summary

AI-Generated Summary

PDF52November 13, 2024