TL;DR: Слишком длинно, пересмотрите веса для эффективного сжатия рассуждений в крупных языковых моделях
TL;DR: Too Long, Do Re-weighting for Effcient LLM Reasoning Compression
June 3, 2025
Авторы: Zhong-Zhi Li, Xiao Liang, Zihao Tang, Lei Ji, Peijie Wang, Haotian Xu, Xing W, Haizhen Huang, Weiwei Deng, Ying Nian Wu, Yeyun Gong, Zhijiang Guo, Xiao Liu, Fei Yin, Cheng-Lin Liu
cs.AI
Аннотация
Крупные языковые модели (LLM) недавно достигли значительного прогресса благодаря использованию обучения с подкреплением и расширенных методов цепочки рассуждений (CoT). Однако задача эффективного языкового рассуждения, особенно в процессе вывода с чрезвычайно длинными результатами, привлекает всё больше внимания исследовательского сообщества. В данной работе мы предлагаем динамический подход к обучению, основанный на соотношении, который не требует сложной аннотации данных или интерполяции между несколькими моделями. Мы непрерывно балансируем веса между данными Системы-1 и Системы-2 модели, чтобы устранить избыточные процессы рассуждения, сохраняя при этом способность модели к логическому выводу. Мы проверяем наш подход на моделях DeepSeek-R1-Distill-7B и DeepSeek-R1-Distill-14B, а также на разнообразных наборах тестов с различными уровнями сложности. Наш метод значительно сокращает количество выходных токенов почти на 40%, сохраняя точность рассуждений. Наш код и данные будут доступны в ближайшее время.
English
Large Language Models (LLMs) have recently achieved remarkable progress by
leveraging Reinforcement Learning and extended Chain-of-Thought (CoT)
techniques. However, the challenge of performing efficient language
reasoning--especially during inference with extremely long outputs--has drawn
increasing attention from the research community. In this work, we propose a
dynamic ratio-based training pipeline that does not rely on sophisticated data
annotations or interpolation between multiple models. We continuously balance
the weights between the model's System-1 and System-2 data to eliminate
redundant reasoning processes while preserving the model's reasoning
capability. We validate our approach across models on DeepSeek-R1-Distill-7B
and DeepSeek-R1-Distill-14B and on a diverse set of benchmarks with varying
difficulty levels. Our method significantly reduces the number of output tokens
by nearly 40% while maintaining the accuracy of the reasoning. Our code and
data will be available soon.