PromptBridge: 大規模言語モデルにおけるクロスモデルプロンプト転送
PromptBridge: Cross-Model Prompt Transfer for Large Language Models
December 1, 2025
著者: Yaxuan Wang, Quan Liu, Zhenting Wang, Zichao Li, Wei Wei, Yang Liu, Yujia Bao
cs.AI
要旨
大規模言語モデル(LLM)は、コード生成、数学的推論、エージェントベースのワークフローにおける応用を支える基盤技術である。実際のシステムでは、商用APIまたはオープンソースのデプロイメントを通じてLLMにアクセスし、モデル群(GPT、Claude、Llamaなど)は急速に進化している。この急速な進化は、性能、コスト、導入制約、プライバシーなどの要因により、頻繁なモデル切り替えを迫っている。しかし、プロンプトはモデルに対して極めて敏感であり、あるモデル用に設計されたプロンプトを別のモデルで再利用すると、対象モデル向けに最適化されたプロンプトに比べて性能が大幅に低下することが多い。我々はこの現象を「モデルドリフト」と呼ぶ。多様なLLM設定にわたる広範な実証分析を通じて、モデルドリフトが頻繁に発生し、かつ深刻であることを示す。この課題に対処するため、我々はPromptBridgeを提案する。これは学習不要のフレームワークであり、モデル切り替え下でもプロンプトの有効性を維持し、タスク単位やモデル単位での高コストな再最適化を必要とせずに、モデル間でのプロンプト転移を可能にする。PromptBridgeは較正用の少数のアライメントタスクのみを必要とする。まず、Model-Adaptive Reflective Prompt Evolution(MAP-RPE)を適用し、反復的な反省的改良と定量的評価を通じて、タスクおよびモデルに特化した最適プロンプトを獲得する。得られたソースモデルとターゲットモデル用の較正済みプロンプトペアを用いて、PromptBridgeはモデル間プロンプトマッピングを学習する。テスト時(未見タスクの場合)、ソースモデル用プロンプトが与えられると、このマッピングがターゲットモデル向けの最適化プロンプトを直接生成する。単一エージェントおよびマルチエージェント設定での実験により、PromptBridgeが下流タスクの精度を一貫して向上させながら、移行コストを削減することを実証する。コードは近日公開予定である。
English
Large language models (LLMs) underpin applications in code generation, mathematical reasoning, and agent-based workflows. In practice, systems access LLMs via commercial APIs or open-source deployments, and the model landscape (e.g., GPT, Claude, Llama) evolves rapidly. This rapid evolution forces frequent model switches driven by capability, cost, deployment constraints, and privacy. Yet prompts are highly model-sensitive: reusing a prompt engineered for one model on another often yields substantially worse performance than a prompt optimized for the target model. We term this phenomenon Model Drifting. Through extensive empirical analysis across diverse LLM configurations, we show that model drifting is both common and severe. To address this challenge, we introduce PromptBridge, a training-free framework that preserves prompt effectiveness under model switches, enabling cross-model prompt transfer without costly per-task or per-model re-optimization. PromptBridge requires only a small set of alignment tasks for calibration. It first applies Model-Adaptive Reflective Prompt Evolution (MAP-RPE) to obtain task- and model-specific optimal prompts via iterative reflective refinement and quantitative evaluation. Using the resulting calibrated prompt pairs for the source and target models, PromptBridge learns a cross-model prompt mapping. At test time, i.e., for an unseen task, given a source-model prompt, this mapping directly produces an optimized prompt for the target model. Experiments in single-agent and multi-agent settings show that PromptBridge consistently improves downstream accuracy while reducing migration effort. The code will be available soon.