ChatPaper.aiChatPaper

TL;DR: 長すぎるので、効率的なLLM推論のための圧縮を再重み付けする

TL;DR: Too Long, Do Re-weighting for Effcient LLM Reasoning Compression

June 3, 2025
著者: Zhong-Zhi Li, Xiao Liang, Zihao Tang, Lei Ji, Peijie Wang, Haotian Xu, Xing W, Haizhen Huang, Weiwei Deng, Ying Nian Wu, Yeyun Gong, Zhijiang Guo, Xiao Liu, Fei Yin, Cheng-Lin Liu
cs.AI

要旨

大規模言語モデル(LLM)は、強化学習と拡張された連鎖思考(CoT)技術を活用することで、最近目覚ましい進歩を遂げています。しかし、特に極めて長い出力を伴う推論時に、効率的な言語推論を行うという課題は、研究コミュニティからますます注目を集めています。本研究では、複雑なデータアノテーションや複数のモデル間の補間に依存しない、動的な比率ベースのトレーニングパイプラインを提案します。モデルのSystem-1とSystem-2データ間の重みを継続的に調整することで、冗長な推論プロセスを排除しつつ、モデルの推論能力を維持します。私たちは、DeepSeek-R1-Distill-7BとDeepSeek-R1-Distill-14Bのモデル、およびさまざまな難易度のベンチマークセットを用いて、このアプローチを検証しました。私たちの方法は、推論の精度を維持しながら、出力トークン数を約40%削減することに成功しました。コードとデータは近日中に公開予定です。
English
Large Language Models (LLMs) have recently achieved remarkable progress by leveraging Reinforcement Learning and extended Chain-of-Thought (CoT) techniques. However, the challenge of performing efficient language reasoning--especially during inference with extremely long outputs--has drawn increasing attention from the research community. In this work, we propose a dynamic ratio-based training pipeline that does not rely on sophisticated data annotations or interpolation between multiple models. We continuously balance the weights between the model's System-1 and System-2 data to eliminate redundant reasoning processes while preserving the model's reasoning capability. We validate our approach across models on DeepSeek-R1-Distill-7B and DeepSeek-R1-Distill-14B and on a diverse set of benchmarks with varying difficulty levels. Our method significantly reduces the number of output tokens by nearly 40% while maintaining the accuracy of the reasoning. Our code and data will be available soon.
PDF22June 4, 2025