L'état de la recherche sur la sécurité des LLM multilingues : de la mesure de l'écart linguistique à son atténuation
The State of Multilingual LLM Safety Research: From Measuring the Language Gap to Mitigating It
May 30, 2025
Auteurs: Zheng-Xin Yong, Beyza Ermis, Marzieh Fadaee, Stephen H. Bach, Julia Kreutzer
cs.AI
Résumé
Cet article présente une analyse approfondie de la diversité linguistique dans la recherche sur la sécurité des modèles de langage (LLM), mettant en lumière le caractère centré sur l'anglais de ce domaine. À travers une revue systématique de près de 300 publications parues entre 2020 et 2024 dans les principales conférences et ateliers de traitement automatique du langage (NLP) de l'*ACL, nous identifions un écart linguistique significatif et croissant dans la recherche sur la sécurité des LLM, où même les langues non anglaises à ressources élevées reçoivent une attention minimale. Nous observons en outre que les langues non anglaises sont rarement étudiées en tant que langues autonomes et que la recherche sur la sécurité en anglais présente de faibles pratiques de documentation linguistique. Pour encourager de futures recherches sur la sécurité multilingue, nous formulons plusieurs recommandations basées sur notre étude, puis proposons trois axes concrets pour l'avenir : l'évaluation de la sécurité, la génération de données d'entraînement et la généralisation translinguistique de la sécurité. Sur la base de notre étude et des orientations proposées, le domaine pourra développer des pratiques de sécurité de l'IA plus robustes et inclusives pour des populations mondiales diversifiées.
English
This paper presents a comprehensive analysis of the linguistic diversity of
LLM safety research, highlighting the English-centric nature of the field.
Through a systematic review of nearly 300 publications from 2020--2024 across
major NLP conferences and workshops at *ACL, we identify a significant and
growing language gap in LLM safety research, with even high-resource
non-English languages receiving minimal attention. We further observe that
non-English languages are rarely studied as a standalone language and that
English safety research exhibits poor language documentation practice. To
motivate future research into multilingual safety, we make several
recommendations based on our survey, and we then pose three concrete future
directions on safety evaluation, training data generation, and crosslingual
safety generalization. Based on our survey and proposed directions, the field
can develop more robust, inclusive AI safety practices for diverse global
populations.