El Estado de la Investigación en Seguridad de los LLM Multilingües: Desde la Medición de la Brecha Lingüística Hacia su Mitigación
The State of Multilingual LLM Safety Research: From Measuring the Language Gap to Mitigating It
May 30, 2025
Autores: Zheng-Xin Yong, Beyza Ermis, Marzieh Fadaee, Stephen H. Bach, Julia Kreutzer
cs.AI
Resumen
Este artículo presenta un análisis exhaustivo de la diversidad lingüística en la investigación sobre seguridad de los modelos de lenguaje grandes (LLM), destacando la naturaleza anglocéntrica del campo. Mediante una revisión sistemática de casi 300 publicaciones entre 2020 y 2024 en las principales conferencias y talleres de PLN en *ACL, identificamos una brecha lingüística significativa y creciente en la investigación sobre seguridad de los LLM, donde incluso los idiomas no ingleses de alto recurso reciben una atención mínima. Además, observamos que los idiomas no ingleses rara vez se estudian como lenguas independientes y que la investigación sobre seguridad en inglés presenta prácticas deficientes de documentación lingüística. Para motivar futuras investigaciones en seguridad multilingüe, ofrecemos varias recomendaciones basadas en nuestro estudio y planteamos tres direcciones futuras concretas sobre evaluación de seguridad, generación de datos de entrenamiento y generalización de seguridad entre idiomas. A partir de nuestro análisis y las propuestas presentadas, el campo puede desarrollar prácticas de seguridad en IA más robustas e inclusivas para diversas poblaciones globales.
English
This paper presents a comprehensive analysis of the linguistic diversity of
LLM safety research, highlighting the English-centric nature of the field.
Through a systematic review of nearly 300 publications from 2020--2024 across
major NLP conferences and workshops at *ACL, we identify a significant and
growing language gap in LLM safety research, with even high-resource
non-English languages receiving minimal attention. We further observe that
non-English languages are rarely studied as a standalone language and that
English safety research exhibits poor language documentation practice. To
motivate future research into multilingual safety, we make several
recommendations based on our survey, and we then pose three concrete future
directions on safety evaluation, training data generation, and crosslingual
safety generalization. Based on our survey and proposed directions, the field
can develop more robust, inclusive AI safety practices for diverse global
populations.