ChatPaper.aiChatPaper

Repensando o Pré-treinamento Contínuo Multilíngue: Mistura de Dados para Adaptação de LLMs entre Idiomas e Recursos

Rethinking Multilingual Continual Pretraining: Data Mixing for Adapting LLMs Across Languages and Resources

April 5, 2025
Autores: Zihao Li, Shaoxiong Ji, Hengyu Luo, Jörg Tiedemann
cs.AI

Resumo

Modelos de Linguagem de Grande Escala (LLMs) exibem disparidades significativas de desempenho entre idiomas, beneficiando principalmente línguas de alta disponibilidade de recursos enquanto marginalizam aquelas sub-representadas. O Pré-treinamento Contínuo (CPT) surgiu como uma abordagem promissora para lidar com esse desequilíbrio, embora a eficácia relativa de estratégias de dados monolíngues, bilíngues e aumentados com código ainda não esteja clara. Este estudo avalia sistematicamente 36 configurações de CPT envolvendo três modelos base multilingues, abrangendo mais de 30 idiomas categorizados como altruístas, egoístas e estagnados, em diversos níveis de recursos. Nossas descobertas revelam três principais insights: (1) O CPT bilíngue melhora a classificação multilingue, mas frequentemente causa problemas de mistura de idiomas durante a geração. (2) A inclusão de dados de código de programação durante o CPT consistentemente aumenta a precisão da classificação multilingue, beneficiando particularmente idiomas de baixa disponibilidade de recursos, mas introduz uma compensação ao degradar levemente a qualidade da geração. (3) Contrariamente a trabalhos anteriores, observamos desvios substanciais das classificações de idiomas de acordo com seu impacto na transferência interlínguas: idiomas classificados como altruístas frequentemente afetam negativamente idiomas relacionados, idiomas egoístas apresentam comportamento condicional e dependente da configuração, e idiomas estagnados demonstram uma surpreendente adaptabilidade sob certas condições de CPT. Essas interações sutis enfatizam a complexidade do aprendizado de representações multilingues, destacando a importância de estudos sistemáticos sobre classificação de idiomas generalizáveis para orientar futuras estratégias de CPT multilingue.
English
Large Language Models (LLMs) exhibit significant disparities in performance across languages, primarily benefiting high-resource languages while marginalizing underrepresented ones. Continual Pretraining (CPT) has emerged as a promising approach to address this imbalance, although the relative effectiveness of monolingual, bilingual, and code-augmented data strategies remains unclear. This study systematically evaluates 36 CPT configurations involving three multilingual base models, across 30+ languages categorized as altruistic, selfish, and stagnant, spanning various resource levels. Our findings reveal three major insights: (1) Bilingual CPT improves multilingual classification but often causes language mixing issues during generation. (2) Including programming code data during CPT consistently enhances multilingual classification accuracy, particularly benefiting low-resource languages, but introduces a trade-off by slightly degrading generation quality. (3) Contrary to prior work, we observe substantial deviations from language classifications according to their impact on cross-lingual transfer: Languages classified as altruistic often negatively affect related languages, selfish languages show conditional and configuration-dependent behavior, and stagnant languages demonstrate surprising adaptability under certain CPT conditions. These nuanced interactions emphasize the complexity of multilingual representation learning, underscoring the importance of systematic studies on generalizable language classification to inform future multilingual CPT strategies.

Summary

AI-Generated Summary

PDF12April 8, 2025