ChatPaper.aiChatPaper

オンザフライでの専門家の再配線:Mixture-of-Expertモデルにおけるより良いオンライン適応のための連続的再ルーティング

Rewiring Experts on the Fly:Continuous Rerouting for Better Online Adaptation in Mixture-of-Expert models

October 16, 2025
著者: Guinan Su, Yanwu Yang, Li Shen, Lu Yin, Shiwei Liu, Jonas Geiping
cs.AI

要旨

Mixture-of-Experts(MoE)モデルは、スパースなエキスパート活性化を通じて効率的なスケーリングを実現しますが、デプロイ時の分布シフトに起因するルーティング決定の最適化不足に悩まされることが多いです。既存のテスト時適応手法はこれらの問題に対処する可能性がありますが、主に密なモデルに焦点を当てており、外部データへのアクセスを必要とするため、MoEアーキテクチャへの実用的な適用が制限されています。しかし、参照データに依存する代わりに、入力コンテキストのみに基づいてMoEのエキスパート選択をオンザフライで最適化できることがわかりました。そこで、外部の監視やデータを必要とせず、テキスト生成中にMoEのルーティング決定を継続的に適応させるデータフリーのオンラインテスト時フレームワークを提案します。本手法は2つのフェーズを循環します:プリフィル段階およびその後定期的に、既に生成されたシーケンスに基づく自己監視を用いてモデルのルーティング決定を最適化します。その後、通常通りテキストを生成し、次の適応まで修正されたルーターを維持します。これを実現するために、選択された層のルーターロジットのみを更新する軽量な加算ベクトルを導入し、計算効率を維持しながら過剰適応を防ぎます。実験結果は、コンテキストシフトに対する堅牢性を維持しつつ、困難な推論タスクにおいて一貫した性能向上を示しています。例えば、本手法はOLMoEにおいてHumanEvalで5.5%の改善を達成しました。さらに、プラグアンドプレイの特性により、本手法は既存のテスト時スケーリング技術と自然に補完し、例えばDeepSeek-V2-Liteにおける自己整合性と組み合わせることで平均6%の向上を実現します。
English
Mixture-of-Experts (MoE) models achieve efficient scaling through sparse expert activation, but often suffer from suboptimal routing decisions due to distribution shifts in deployment. While existing test-time adaptation methods could potentially address these issues, they primarily focus on dense models and require access to external data, limiting their practical applicability to MoE architectures. However, we find that, instead of relying on reference data, we can optimize MoE expert selection on-the-fly based only on input context. As such, we propose a data-free, online test-time framework that continuously adapts MoE routing decisions during text generation without external supervision or data. Our method cycles between two phases: During the prefill stage, and later in regular intervals, we optimize the routing decisions of the model using self-supervision based on the already generated sequence. Then, we generate text as normal, maintaining the modified router until the next adaption. We implement this through lightweight additive vectors that only update router logits in selected layers, maintaining computational efficiency while preventing over-adaptation. The experimental results show consistent performance gains on challenging reasoning tasks while maintaining robustness to context shifts. For example, our method achieves a 5.5\% improvement on HumanEval with OLMoE. Furthermore, owing to its plug-and-play property, our method naturally complements existing test-time scaling techniques, e.g., achieving 6\% average gains when incorporated with self-consistency on DeepSeek-V2-Lite.
PDF33October 20, 2025