ChatPaper.aiChatPaper

Подумайте: Меньше данных, лучше рассуждения — Переосмысление французских языковых моделей.

Pensez: Less Data, Better Reasoning -- Rethinking French LLM

March 17, 2025
Авторы: Huy Hoang Ha
cs.AI

Аннотация

Крупные языковые модели (LLM) продемонстрировали впечатляющие способности в различных задачах обработки естественного языка. Однако достижение высокой производительности в специализированных областях, таких как математические рассуждения и неанглийские языки, часто требует обширного обучения на огромных наборах данных. В данной статье исследуется альтернативный подход: стратегическое тонкое настройка на небольшом, высококачественном двуязычном (англо-французском) наборе данных для улучшения как способностей к рассуждению, так и владения французским языком крупной языковой модели. Вместо того чтобы полагаться на масштаб, мы исследуем гипотезу, что целенаправленный отбор данных и оптимизированное обучение могут обеспечить конкурентоспособную или даже превосходящую производительность. Мы демонстрируем, что с помощью целенаправленного контролируемого тонкого настройки (SFT) на всего 2000 тщательно отобранных образцов достигаются значительные улучшения в математических рассуждениях. В частности, модель Pensez 7B показывает увеличение точности базовой модели до 20% на тесте AIME25 и 12% на французском тесте MATH уровня 5. Эти результаты ставят под сомнение распространенное предположение, что огромные наборы данных являются обязательным условием для высокой производительности в рассуждениях LLM, подчеркивая потенциал стратегического отбора данных и оптимизированного тонкого настройки для улучшения как специализированных навыков, так и многоязычных возможностей. Наши выводы имеют значение для эффективной разработки высокопроизводительных многоязычных LLM, особенно в условиях ограниченных ресурсов.
English
Large language models (LLMs) have demonstrated remarkable capabilities in various natural language processing tasks. However, achieving strong performance in specialized domains like mathematical reasoning and non-English languages often requires extensive training on massive datasets. This paper investigates a contrasting approach: strategic fine-tuning on a small, high-quality, bilingual (English-French) dataset to enhance both the reasoning capabilities and French language proficiency of a large language model. Rather than relying on scale, we explore the hypothesis that targeted data curation and optimized training can achieve competitive, or even superior, performance. We demonstrate, through targeted supervised fine-tuning (SFT) on only 2,000 carefully selected samples, significant improvements in mathematical reasoning. Specifically, Pensez 7B exhibits an increase in accuracy of the base model up to 20% on the AIME25 and a 12% increase on a French MATH level 5 benchmark. These results challenge the prevailing assumption that massive datasets are aprerequisite for strong reasoning performance in LLMs, highlighting the potential of strategic data curation and optimized fine-tuning for enhancing both specialized skills and multilingual capabilities. Our findings have implications for the efficient development of high-performing, multilingual LLMs, especially in resource-constrained scenarios.

Summary

AI-Generated Summary

PDF52March 19, 2025