ChatPaper.aiChatPaper

Qual o Dano? Quantificando o Impacto Tangível do Viés de Gênero na Tradução Automática com um Estudo Centrado no Humano

What the Harm? Quantifying the Tangible Impact of Gender Bias in Machine Translation with a Human-centered Study

October 1, 2024
Autores: Beatrice Savoldi, Sara Papi, Matteo Negri, Ana Guerberof, Luisa Bentivogli
cs.AI

Resumo

O viés de gênero na tradução automática (TA) é reconhecido como um problema que pode prejudicar as pessoas e a sociedade. No entanto, os avanços nesse campo raramente envolvem as pessoas, os usuários finais da TA, ou informam como eles podem ser impactados por tecnologias enviesadas. As avaliações atuais frequentemente se restringem a métodos automáticos, que oferecem uma estimativa opaca de qual poderia ser o impacto downstream das disparidades de gênero. Realizamos um extenso estudo centrado no ser humano para examinar se e em que medida o viés na TA traz prejuízos com custos tangíveis, como lacunas na qualidade do serviço entre mulheres e homens. Para esse fim, coletamos dados comportamentais de 90 participantes, que editaram as saídas da TA para garantir a tradução correta de gênero. Através de múltiplos conjuntos de dados, idiomas e tipos de usuários, nosso estudo mostra que a edição pós-tradução feminina demanda significativamente mais esforço técnico e temporal, correspondendo também a custos financeiros mais elevados. No entanto, as medidas de viés existentes falham em refletir as disparidades encontradas. Nossas descobertas defendem abordagens centradas no ser humano que possam informar o impacto societal do viés.
English
Gender bias in machine translation (MT) is recognized as an issue that can harm people and society. And yet, advancements in the field rarely involve people, the final MT users, or inform how they might be impacted by biased technologies. Current evaluations are often restricted to automatic methods, which offer an opaque estimate of what the downstream impact of gender disparities might be. We conduct an extensive human-centered study to examine if and to what extent bias in MT brings harms with tangible costs, such as quality of service gaps across women and men. To this aim, we collect behavioral data from 90 participants, who post-edited MT outputs to ensure correct gender translation. Across multiple datasets, languages, and types of users, our study shows that feminine post-editing demands significantly more technical and temporal effort, also corresponding to higher financial costs. Existing bias measurements, however, fail to reflect the found disparities. Our findings advocate for human-centered approaches that can inform the societal impact of bias.

Summary

AI-Generated Summary

PDF52November 13, 2024