オンザフライでの専門家の再配線:Mixture-of-Expertモデルにおけるより良いオンライン適応のための連続的再ルーティング
Rewiring Experts on the Fly:Continuous Rerouting for Better Online Adaptation in Mixture-of-Expert models
October 16, 2025
著者: Guinan Su, Yanwu Yang, Li Shen, Lu Yin, Shiwei Liu, Jonas Geiping
cs.AI
要旨
Mixture-of-Experts(MoE)モデルは、スパースなエキスパート活性化を通じて効率的なスケーリングを実現しますが、デプロイ時の分布シフトに起因するルーティング決定の最適化不足に悩まされることが多いです。既存のテスト時適応手法はこれらの問題に対処する可能性がありますが、主に密なモデルに焦点を当てており、外部データへのアクセスを必要とするため、MoEアーキテクチャへの実用的な適用が制限されています。しかし、参照データに依存する代わりに、入力コンテキストのみに基づいてMoEのエキスパート選択をオンザフライで最適化できることがわかりました。そこで、外部の監視やデータを必要とせず、テキスト生成中にMoEのルーティング決定を継続的に適応させるデータフリーのオンラインテスト時フレームワークを提案します。本手法は2つのフェーズを循環します:プリフィル段階およびその後定期的に、既に生成されたシーケンスに基づく自己監視を用いてモデルのルーティング決定を最適化します。その後、通常通りテキストを生成し、次の適応まで修正されたルーターを維持します。これを実現するために、選択された層のルーターロジットのみを更新する軽量な加算ベクトルを導入し、計算効率を維持しながら過剰適応を防ぎます。実験結果は、コンテキストシフトに対する堅牢性を維持しつつ、困難な推論タスクにおいて一貫した性能向上を示しています。例えば、本手法はOLMoEにおいてHumanEvalで5.5%の改善を達成しました。さらに、プラグアンドプレイの特性により、本手法は既存のテスト時スケーリング技術と自然に補完し、例えばDeepSeek-V2-Liteにおける自己整合性と組み合わせることで平均6%の向上を実現します。
English
Mixture-of-Experts (MoE) models achieve efficient scaling through sparse
expert activation, but often suffer from suboptimal routing decisions due to
distribution shifts in deployment. While existing test-time adaptation methods
could potentially address these issues, they primarily focus on dense models
and require access to external data, limiting their practical applicability to
MoE architectures. However, we find that, instead of relying on reference data,
we can optimize MoE expert selection on-the-fly based only on input context. As
such, we propose a data-free, online test-time framework that
continuously adapts MoE routing decisions during text generation without
external supervision or data. Our method cycles between two phases: During the
prefill stage, and later in regular intervals, we optimize the routing
decisions of the model using self-supervision based on the already generated
sequence. Then, we generate text as normal, maintaining the modified router
until the next adaption. We implement this through lightweight additive vectors
that only update router logits in selected layers, maintaining computational
efficiency while preventing over-adaptation. The experimental results show
consistent performance gains on challenging reasoning tasks while maintaining
robustness to context shifts. For example, our method achieves a 5.5\%
improvement on HumanEval with OLMoE. Furthermore, owing to its plug-and-play
property, our method naturally complements existing test-time scaling
techniques, e.g., achieving 6\% average gains when incorporated with
self-consistency on DeepSeek-V2-Lite.