PromptBridge : Transfert Transmodèle de Prompts pour les Grands Modèles de Langage
PromptBridge: Cross-Model Prompt Transfer for Large Language Models
December 1, 2025
papers.authors: Yaxuan Wang, Quan Liu, Zhenting Wang, Zichao Li, Wei Wei, Yang Liu, Yujia Bao
cs.AI
papers.abstract
Les grands modèles de langage (LLM) sous-tendent des applications dans la génération de code, le raisonnement mathématique et les workflows à base d'agents. En pratique, les systèmes accèdent aux LLM via des API commerciales ou des déploiements open-source, et le paysage des modèles (par exemple GPT, Claude, Llama) évolue rapidement. Cette évolution rapide impose des changements fréquents de modèles, motivés par les capacités, le coût, les contraintes de déploiement et la confidentialité. Pourtant, les *prompts* sont très sensibles au modèle : réutiliser un *prompt* conçu pour un modèle sur un autre donne souvent des performances bien inférieures à celles d'un *prompt* optimisé pour le modèle cible. Nous nommons ce phénomène *Model Drifting* (Dérive de Modèle). Par une analyse empirique approfondie sur diverses configurations de LLM, nous montrons que la dérive de modèle est à la fois fréquente et sévère. Pour relever ce défi, nous présentons PromptBridge, un cadre sans entraînement qui préserve l'efficacité des *prompts* lors de changements de modèle, permettant un transfert de *prompt* inter-modèle sans coûteuse ré-optimisation par tâche ou par modèle. PromptBridge ne nécessite qu'un petit ensemble de tâches d'alignement pour l'étalonnage. Il applique d'abord l'Évolution Réfléchie de *Prompt* Adaptatif au Modèle (MAP-RPE) pour obtenir des *prompts* optimaux spécifiques à la tâche et au modèle via un raffinement réfléchi itératif et une évaluation quantitative. En utilisant les paires de *prompts* étalonnés résultantes pour les modèles source et cible, PromptBridge apprend un mapping de *prompt* inter-modèle. Au moment du test, c'est-à-dire pour une tâche non vue, étant donné un *prompt* pour le modèle source, ce mapping produit directement un *prompt* optimisé pour le modèle cible. Les expériences en settings mono-agent et multi-agent montrent que PromptBridge améliore constamment la précision en aval tout en réduisant l'effort de migration. Le code sera bientôt disponible.
English
Large language models (LLMs) underpin applications in code generation, mathematical reasoning, and agent-based workflows. In practice, systems access LLMs via commercial APIs or open-source deployments, and the model landscape (e.g., GPT, Claude, Llama) evolves rapidly. This rapid evolution forces frequent model switches driven by capability, cost, deployment constraints, and privacy. Yet prompts are highly model-sensitive: reusing a prompt engineered for one model on another often yields substantially worse performance than a prompt optimized for the target model. We term this phenomenon Model Drifting. Through extensive empirical analysis across diverse LLM configurations, we show that model drifting is both common and severe. To address this challenge, we introduce PromptBridge, a training-free framework that preserves prompt effectiveness under model switches, enabling cross-model prompt transfer without costly per-task or per-model re-optimization. PromptBridge requires only a small set of alignment tasks for calibration. It first applies Model-Adaptive Reflective Prompt Evolution (MAP-RPE) to obtain task- and model-specific optimal prompts via iterative reflective refinement and quantitative evaluation. Using the resulting calibrated prompt pairs for the source and target models, PromptBridge learns a cross-model prompt mapping. At test time, i.e., for an unseen task, given a source-model prompt, this mapping directly produces an optimized prompt for the target model. Experiments in single-agent and multi-agent settings show that PromptBridge consistently improves downstream accuracy while reducing migration effort. The code will be available soon.