Lo Stato della Ricerca sulla Sicurezza dei Modelli Linguistici Multilingue: Dalla Misurazione del Divario Linguistico alla sua Mitigazione
The State of Multilingual LLM Safety Research: From Measuring the Language Gap to Mitigating It
May 30, 2025
Autori: Zheng-Xin Yong, Beyza Ermis, Marzieh Fadaee, Stephen H. Bach, Julia Kreutzer
cs.AI
Abstract
Questo articolo presenta un'analisi completa della diversità linguistica nella ricerca sulla sicurezza dei modelli linguistici di grandi dimensioni (LLM), evidenziando la natura anglofona del campo. Attraverso una revisione sistematica di quasi 300 pubblicazioni dal 2020 al 2024 provenienti dalle principali conferenze e workshop di NLP presso *ACL, identifichiamo un divario linguistico significativo e crescente nella ricerca sulla sicurezza degli LLM, con persino le lingue non inglesi ad alta risorsa che ricevono un'attenzione minima. Osserviamo inoltre che le lingue non inglesi sono raramente studiate come lingue autonome e che la ricerca sulla sicurezza in inglese mostra scarse pratiche di documentazione linguistica. Per incentivare future ricerche sulla sicurezza multilingue, formuliamo diverse raccomandazioni basate sul nostro studio e proponiamo tre direzioni future concrete riguardanti la valutazione della sicurezza, la generazione di dati di addestramento e la generalizzazione della sicurezza cross-linguistica. Sulla base del nostro studio e delle direzioni proposte, il campo può sviluppare pratiche di sicurezza AI più robuste e inclusive per le diverse popolazioni globali.
English
This paper presents a comprehensive analysis of the linguistic diversity of
LLM safety research, highlighting the English-centric nature of the field.
Through a systematic review of nearly 300 publications from 2020--2024 across
major NLP conferences and workshops at *ACL, we identify a significant and
growing language gap in LLM safety research, with even high-resource
non-English languages receiving minimal attention. We further observe that
non-English languages are rarely studied as a standalone language and that
English safety research exhibits poor language documentation practice. To
motivate future research into multilingual safety, we make several
recommendations based on our survey, and we then pose three concrete future
directions on safety evaluation, training data generation, and crosslingual
safety generalization. Based on our survey and proposed directions, the field
can develop more robust, inclusive AI safety practices for diverse global
populations.