Состояние исследований безопасности многоязычных LLM: от измерения языкового разрыва к его устранению
The State of Multilingual LLM Safety Research: From Measuring the Language Gap to Mitigating It
May 30, 2025
Авторы: Zheng-Xin Yong, Beyza Ermis, Marzieh Fadaee, Stephen H. Bach, Julia Kreutzer
cs.AI
Аннотация
В данной статье представлен всесторонний анализ языкового разнообразия в исследованиях безопасности крупных языковых моделей (LLM), подчеркивающий англоцентричный характер этой области. На основе систематического обзора почти 300 публикаций за период с 2020 по 2024 год, представленных на крупных конференциях и воркшопах по обработке естественного языка (NLP) в рамках *ACL, мы выявили значительный и растущий языковой разрыв в исследованиях безопасности LLM. Даже высокоресурсные неанглийские языки получают минимальное внимание. Мы также отмечаем, что неанглийские языки редко изучаются как самостоятельные, а исследования безопасности на английском языке демонстрируют слабую практику документирования языковых данных. Для стимулирования будущих исследований в области многоязычной безопасности мы предлагаем несколько рекомендаций на основе нашего обзора, а также формулируем три конкретных направления для будущих исследований: оценка безопасности, генерация обучающих данных и кросс-лингвальное обобщение безопасности. На основе нашего обзора и предложенных направлений область может разработать более устойчивые и инклюзивные практики обеспечения безопасности ИИ для разнообразных глобальных сообществ.
English
This paper presents a comprehensive analysis of the linguistic diversity of
LLM safety research, highlighting the English-centric nature of the field.
Through a systematic review of nearly 300 publications from 2020--2024 across
major NLP conferences and workshops at *ACL, we identify a significant and
growing language gap in LLM safety research, with even high-resource
non-English languages receiving minimal attention. We further observe that
non-English languages are rarely studied as a standalone language and that
English safety research exhibits poor language documentation practice. To
motivate future research into multilingual safety, we make several
recommendations based on our survey, and we then pose three concrete future
directions on safety evaluation, training data generation, and crosslingual
safety generalization. Based on our survey and proposed directions, the field
can develop more robust, inclusive AI safety practices for diverse global
populations.