ChatPaper.aiChatPaper

Pense: Menos Dados, Melhor Raciocínio -- Repensando os LLMs Franceses

Pensez: Less Data, Better Reasoning -- Rethinking French LLM

March 17, 2025
Autores: Huy Hoang Ha
cs.AI

Resumo

Modelos de linguagem de grande escala (LLMs) demonstraram capacidades notáveis em várias tarefas de processamento de linguagem natural. No entanto, alcançar um desempenho forte em domínios especializados, como raciocínio matemático e idiomas não ingleses, frequentemente requer treinamento extensivo em conjuntos de dados massivos. Este artigo investiga uma abordagem contrastante: o ajuste fino estratégico em um pequeno conjunto de dados bilíngue (inglês-francês) de alta qualidade para aprimorar tanto as capacidades de raciocínio quanto a proficiência em francês de um modelo de linguagem de grande escala. Em vez de depender da escala, exploramos a hipótese de que a curadoria de dados direcionada e o treinamento otimizado podem alcançar desempenho competitivo, ou até superior. Demonstramos, por meio de ajuste fino supervisionado (SFT) direcionado em apenas 2.000 amostras cuidadosamente selecionadas, melhorias significativas no raciocínio matemático. Especificamente, o Pensez 7B exibe um aumento na precisão do modelo base de até 20% no AIME25 e um aumento de 12% em um benchmark francês de nível 5 do MATH. Esses resultados desafiam a suposição predominante de que conjuntos de dados massivos são um pré-requisito para um forte desempenho de raciocínio em LLMs, destacando o potencial da curadoria de dados estratégica e do ajuste fino otimizado para aprimorar tanto habilidades especializadas quanto capacidades multilingues. Nossas descobertas têm implicações para o desenvolvimento eficiente de LLMs multilingues de alto desempenho, especialmente em cenários com recursos limitados.
English
Large language models (LLMs) have demonstrated remarkable capabilities in various natural language processing tasks. However, achieving strong performance in specialized domains like mathematical reasoning and non-English languages often requires extensive training on massive datasets. This paper investigates a contrasting approach: strategic fine-tuning on a small, high-quality, bilingual (English-French) dataset to enhance both the reasoning capabilities and French language proficiency of a large language model. Rather than relying on scale, we explore the hypothesis that targeted data curation and optimized training can achieve competitive, or even superior, performance. We demonstrate, through targeted supervised fine-tuning (SFT) on only 2,000 carefully selected samples, significant improvements in mathematical reasoning. Specifically, Pensez 7B exhibits an increase in accuracy of the base model up to 20% on the AIME25 and a 12% increase on a French MATH level 5 benchmark. These results challenge the prevailing assumption that massive datasets are aprerequisite for strong reasoning performance in LLMs, highlighting the potential of strategic data curation and optimized fine-tuning for enhancing both specialized skills and multilingual capabilities. Our findings have implications for the efficient development of high-performing, multilingual LLMs, especially in resource-constrained scenarios.

Summary

AI-Generated Summary

PDF52March 19, 2025