ChatPaper.aiChatPaper

Энтропийно-адаптивное взвешивание для самообучения

Entropy-Based Adaptive Weighting for Self-Training

March 31, 2025
Авторы: Xiaoxuan Wang, Yihe Deng, Mingyu Derek Ma, Wei Wang
cs.AI

Аннотация

Математические способности крупных языковых моделей к решению задач стали ключевым направлением исследований, при этом растет интерес к использованию самостоятельно генерируемых цепочек рассуждений как перспективного способа улучшения и развития этих моделей. Такие цепочки фиксируют пошаговые логические процессы, требуя при этом только правильного ответа для контроля. Метод самообучения доказал свою эффективность в задачах, связанных с рассуждениями, устраняя необходимость в использовании внешних моделей и ручной аннотации. Однако оптимизация использования самостоятельно сгенерированных данных для обучения моделей остается открытой проблемой. В данной работе мы предлагаем метод адаптивного взвешивания на основе энтропии для самообучения (Entropy-Based Adaptive Weighting for Self-Training, EAST) — стратегию адаптивного взвешивания, предназначенную для приоритизации неопределенных данных в процессе самообучения. В частности, EAST использует функцию отображения с настраиваемым параметром, который контролирует степень резкости взвешивания, присваивая больший вес данным, в которых модель демонстрирует более высокую неопределенность. Этот подход направляет модель на более информативные и сложные примеры, тем самым улучшая ее способность к рассуждениям. Мы оцениваем наш подход на наборах данных GSM8K и MATH. Эмпирические результаты показывают, что, в то время как базовый метод практически не дает улучшений (0%) на MATH, EAST достигает прироста примерно на 1% по сравнению с базовой моделью. На GSM8K EAST обеспечивает дополнительное улучшение производительности на 1-2% по сравнению с базовым методом.
English
The mathematical problem-solving capabilities of large language models have become a focal point of research, with growing interests in leveraging self-generated reasoning paths as a promising way to refine and enhance these models. These paths capture step-by-step logical processes while requiring only the correct answer for supervision. The self-training method has been shown to be effective in reasoning tasks while eliminating the need for external models and manual annotations. However, optimizing the use of self-generated data for model training remains an open challenge. In this work, we propose Entropy-Based Adaptive Weighting for Self-Training (EAST), an adaptive weighting strategy designed to prioritize uncertain data during self-training. Specifically, EAST employs a mapping function with a tunable parameter that controls the sharpness of the weighting, assigning higher weights to data where the model exhibits greater uncertainty. This approach guides the model to focus on more informative and challenging examples, thereby enhancing its reasoning ability. We evaluate our approach on GSM8K and MATH benchmarks. Empirical results show that, while the vanilla method yields virtually no improvement (0%) on MATH, EAST achieves around a 1% gain over backbone model. On GSM8K, EAST attains a further 1-2% performance boost compared to the vanilla method.

Summary

AI-Generated Summary

PDF42April 1, 2025