TL;DR: 長すぎるので、効率的なLLM推論のための圧縮を再重み付けする
TL;DR: Too Long, Do Re-weighting for Effcient LLM Reasoning Compression
June 3, 2025
著者: Zhong-Zhi Li, Xiao Liang, Zihao Tang, Lei Ji, Peijie Wang, Haotian Xu, Xing W, Haizhen Huang, Weiwei Deng, Ying Nian Wu, Yeyun Gong, Zhijiang Guo, Xiao Liu, Fei Yin, Cheng-Lin Liu
cs.AI
要旨
大規模言語モデル(LLM)は、強化学習と拡張された連鎖思考(CoT)技術を活用することで、最近目覚ましい進歩を遂げています。しかし、特に極めて長い出力を伴う推論時に、効率的な言語推論を行うという課題は、研究コミュニティからますます注目を集めています。本研究では、複雑なデータアノテーションや複数のモデル間の補間に依存しない、動的な比率ベースのトレーニングパイプラインを提案します。モデルのSystem-1とSystem-2データ間の重みを継続的に調整することで、冗長な推論プロセスを排除しつつ、モデルの推論能力を維持します。私たちは、DeepSeek-R1-Distill-7BとDeepSeek-R1-Distill-14Bのモデル、およびさまざまな難易度のベンチマークセットを用いて、このアプローチを検証しました。私たちの方法は、推論の精度を維持しながら、出力トークン数を約40%削減することに成功しました。コードとデータは近日中に公開予定です。
English
Large Language Models (LLMs) have recently achieved remarkable progress by
leveraging Reinforcement Learning and extended Chain-of-Thought (CoT)
techniques. However, the challenge of performing efficient language
reasoning--especially during inference with extremely long outputs--has drawn
increasing attention from the research community. In this work, we propose a
dynamic ratio-based training pipeline that does not rely on sophisticated data
annotations or interpolation between multiple models. We continuously balance
the weights between the model's System-1 and System-2 data to eliminate
redundant reasoning processes while preserving the model's reasoning
capability. We validate our approach across models on DeepSeek-R1-Distill-7B
and DeepSeek-R1-Distill-14B and on a diverse set of benchmarks with varying
difficulty levels. Our method significantly reduces the number of output tokens
by nearly 40% while maintaining the accuracy of the reasoning. Our code and
data will be available soon.