ChatPaper.aiChatPaper

Pensate: Meno Dati, Miglior Ragionamento -- Ripensare i Modelli Linguistici Francesi

Pensez: Less Data, Better Reasoning -- Rethinking French LLM

March 17, 2025
Autori: Huy Hoang Ha
cs.AI

Abstract

I modelli linguistici di grandi dimensioni (LLM) hanno dimostrato capacità notevoli in vari compiti di elaborazione del linguaggio naturale. Tuttavia, ottenere prestazioni solide in domini specializzati come il ragionamento matematico e le lingue non inglesi spesso richiede un addestramento estensivo su enormi dataset. Questo articolo esplora un approccio alternativo: il fine-tuning strategico su un piccolo dataset bilingue (inglese-francese) di alta qualità per migliorare sia le capacità di ragionamento che la competenza linguistica in francese di un grande modello linguistico. Piuttosto che affidarsi alla scala, esploriamo l'ipotesi che una curatela mirata dei dati e un addestramento ottimizzato possano ottenere prestazioni competitive, o addirittura superiori. Dimostriamo, attraverso un fine-tuning supervisionato mirato (SFT) su soli 2.000 campioni selezionati con cura, miglioramenti significativi nel ragionamento matematico. Nello specifico, Pensez 7B mostra un aumento dell'accuratezza del modello base fino al 20% su AIME25 e un incremento del 12% su un benchmark francese MATH di livello 5. Questi risultati mettono in discussione l'assunzione prevalente che dataset massicci siano un prerequisito per prestazioni di ragionamento solide nei LLM, evidenziando il potenziale della curatela strategica dei dati e del fine-tuning ottimizzato per migliorare sia competenze specializzate che capacità multilingue. I nostri risultati hanno implicazioni per lo sviluppo efficiente di LLM multilingue ad alte prestazioni, specialmente in scenari con risorse limitate.
English
Large language models (LLMs) have demonstrated remarkable capabilities in various natural language processing tasks. However, achieving strong performance in specialized domains like mathematical reasoning and non-English languages often requires extensive training on massive datasets. This paper investigates a contrasting approach: strategic fine-tuning on a small, high-quality, bilingual (English-French) dataset to enhance both the reasoning capabilities and French language proficiency of a large language model. Rather than relying on scale, we explore the hypothesis that targeted data curation and optimized training can achieve competitive, or even superior, performance. We demonstrate, through targeted supervised fine-tuning (SFT) on only 2,000 carefully selected samples, significant improvements in mathematical reasoning. Specifically, Pensez 7B exhibits an increase in accuracy of the base model up to 20% on the AIME25 and a 12% increase on a French MATH level 5 benchmark. These results challenge the prevailing assumption that massive datasets are aprerequisite for strong reasoning performance in LLMs, highlighting the potential of strategic data curation and optimized fine-tuning for enhancing both specialized skills and multilingual capabilities. Our findings have implications for the efficient development of high-performing, multilingual LLMs, especially in resource-constrained scenarios.

Summary

AI-Generated Summary

PDF52March 19, 2025