ChatPaper.aiChatPaper

Pensez : Moins de données, meilleur raisonnement -- Repenser les LLM français

Pensez: Less Data, Better Reasoning -- Rethinking French LLM

March 17, 2025
Auteurs: Huy Hoang Ha
cs.AI

Résumé

Les grands modèles de langage (LLM) ont démontré des capacités remarquables dans diverses tâches de traitement du langage naturel. Cependant, atteindre des performances solides dans des domaines spécialisés comme le raisonnement mathématique et les langues non anglaises nécessite souvent un entraînement intensif sur des ensembles de données massifs. Cet article explore une approche contrastée : un ajustement fin stratégique sur un petit ensemble de données bilingues (anglais-français) de haute qualité pour améliorer à la fois les capacités de raisonnement et la maîtrise du français d'un grand modèle de langage. Plutôt que de s'appuyer sur l'échelle, nous examinons l'hypothèse qu'une curation ciblée des données et un entraînement optimisé peuvent atteindre des performances compétitives, voire supérieures. Nous démontrons, grâce à un ajustement fin supervisé (SFT) ciblé sur seulement 2 000 échantillons soigneusement sélectionnés, des améliorations significatives en raisonnement mathématique. Plus précisément, Pensez 7B montre une augmentation de la précision du modèle de base jusqu'à 20 % sur AIME25 et une augmentation de 12 % sur un benchmark français de niveau 5 en MATH. Ces résultats remettent en question l'hypothèse dominante selon laquelle des ensembles de données massifs sont un prérequis pour de solides performances en raisonnement dans les LLM, mettant en lumière le potentiel de la curation stratégique des données et de l'ajustement fin optimisé pour améliorer à la fois les compétences spécialisées et les capacités multilingues. Nos conclusions ont des implications pour le développement efficace de LLM multilingues performants, en particulier dans des scénarios où les ressources sont limitées.
English
Large language models (LLMs) have demonstrated remarkable capabilities in various natural language processing tasks. However, achieving strong performance in specialized domains like mathematical reasoning and non-English languages often requires extensive training on massive datasets. This paper investigates a contrasting approach: strategic fine-tuning on a small, high-quality, bilingual (English-French) dataset to enhance both the reasoning capabilities and French language proficiency of a large language model. Rather than relying on scale, we explore the hypothesis that targeted data curation and optimized training can achieve competitive, or even superior, performance. We demonstrate, through targeted supervised fine-tuning (SFT) on only 2,000 carefully selected samples, significant improvements in mathematical reasoning. Specifically, Pensez 7B exhibits an increase in accuracy of the base model up to 20% on the AIME25 and a 12% increase on a French MATH level 5 benchmark. These results challenge the prevailing assumption that massive datasets are aprerequisite for strong reasoning performance in LLMs, highlighting the potential of strategic data curation and optimized fine-tuning for enhancing both specialized skills and multilingual capabilities. Our findings have implications for the efficient development of high-performing, multilingual LLMs, especially in resource-constrained scenarios.

Summary

AI-Generated Summary

PDF52March 19, 2025