ChatPaper.aiChatPaper

Quel est le préjudice ? Quantification de l'impact tangible du biais de genre dans la traduction automatique grâce à une étude centrée sur l'humain

What the Harm? Quantifying the Tangible Impact of Gender Bias in Machine Translation with a Human-centered Study

October 1, 2024
Auteurs: Beatrice Savoldi, Sara Papi, Matteo Negri, Ana Guerberof, Luisa Bentivogli
cs.AI

Résumé

Les biais de genre dans la traduction automatique (TA) sont reconnus comme un problème pouvant nuire aux individus et à la société. Pourtant, les avancées dans le domaine impliquent rarement les utilisateurs finaux de la TA ou ne tiennent pas compte de l'impact potentiel des technologies biaisées sur ces derniers. Les évaluations actuelles se limitent souvent à des méthodes automatiques, offrant une estimation opaque des conséquences des disparités de genre. Nous menons une étude approfondie centrée sur l'humain pour examiner si et dans quelle mesure les biais dans la TA entraînent des préjudices avec des coûts tangibles, tels que des écarts de qualité de service entre les femmes et les hommes. Dans cette optique, nous collectons des données comportementales auprès de 90 participants, qui ont corrigé les sorties de la TA pour assurer une traduction correcte du genre. À travers plusieurs ensembles de données, langues et types d'utilisateurs, notre étude montre que la correction post-traitement au féminin demande significativement plus d'efforts techniques et temporels, se traduisant également par des coûts financiers plus élevés. Cependant, les mesures de biais existantes ne reflètent pas les disparités constatées. Nos résultats plaident en faveur d'approches centrées sur l'humain pouvant éclairer l'impact sociétal des biais.
English
Gender bias in machine translation (MT) is recognized as an issue that can harm people and society. And yet, advancements in the field rarely involve people, the final MT users, or inform how they might be impacted by biased technologies. Current evaluations are often restricted to automatic methods, which offer an opaque estimate of what the downstream impact of gender disparities might be. We conduct an extensive human-centered study to examine if and to what extent bias in MT brings harms with tangible costs, such as quality of service gaps across women and men. To this aim, we collect behavioral data from 90 participants, who post-edited MT outputs to ensure correct gender translation. Across multiple datasets, languages, and types of users, our study shows that feminine post-editing demands significantly more technical and temporal effort, also corresponding to higher financial costs. Existing bias measurements, however, fail to reflect the found disparities. Our findings advocate for human-centered approaches that can inform the societal impact of bias.

Summary

AI-Generated Summary

PDF52November 13, 2024