PromptBridge: Cross-Model Promptoverdracht voor Grote Taalmodellen
PromptBridge: Cross-Model Prompt Transfer for Large Language Models
December 1, 2025
Auteurs: Yaxuan Wang, Quan Liu, Zhenting Wang, Zichao Li, Wei Wei, Yang Liu, Yujia Bao
cs.AI
Samenvatting
Grote taalmodellen (LLM's) vormen de basis van toepassingen in codegeneratie, wiskundig redeneren en agent-gebaseerde workflows. In de praktijk hebben systemen toegang tot LLM's via commerciële API's of open-source-implementaties, en het modelaanbod (bijv. GPT, Claude, Llama) evolueert snel. Deze snelle evolutie leidt tot frequente modelwisselingen, gedreven door capaciteit, kosten, implementatiebeperkingen en privacy. Toch zijn prompts zeer modelgevoelig: het hergebruiken van een prompt die voor één model is geoptimaliseerd op een ander model levert vaak aanzienlijk slechtere prestaties op dan een prompt die voor het doelmodel is geoptimaliseerd. Wij noemen dit fenomeen Model Drifting. Door uitgebreide empirische analyse van diverse LLM-configuraties tonen we aan dat model drifting zowel veelvoorkomend als ernstig is. Om deze uitdaging aan te pakken, introduceren we PromptBridge, een trainingsvrij raamwerk dat de effectiviteit van prompts behoudt bij modelwisselingen, waardoor prompttransfer tussen modellen mogelijk wordt zonder kostbare heroptimalisatie per taak of per model. PromptBridge vereist slechts een kleine set afstemmingstaken voor kalibratie. Het past eerst Model-Adaptive Reflective Prompt Evolution (MAP-RPE) toe om taak- en modelspecifieke optimale prompts te verkrijgen via iteratieve reflectieve verfijning en kwantitatieve evaluatie. Met de resulterende gekalibreerde promptparen voor het bron- en doelmodel leert PromptBridge een cross-model promptmapping. Tijdens de testfase, d.w.z. voor een onbekende taak, produceert deze mapping direct een geoptimaliseerde prompt voor het doelmodel, gegeven een prompt voor het bronmodel. Experimenten in single-agent en multi-agent settings tonen aan dat PromptBridge consistent de downstreamnauwkeurigheid verbetert en de migratie-inspanning vermindert. De code zal binnenkort beschikbaar zijn.
English
Large language models (LLMs) underpin applications in code generation, mathematical reasoning, and agent-based workflows. In practice, systems access LLMs via commercial APIs or open-source deployments, and the model landscape (e.g., GPT, Claude, Llama) evolves rapidly. This rapid evolution forces frequent model switches driven by capability, cost, deployment constraints, and privacy. Yet prompts are highly model-sensitive: reusing a prompt engineered for one model on another often yields substantially worse performance than a prompt optimized for the target model. We term this phenomenon Model Drifting. Through extensive empirical analysis across diverse LLM configurations, we show that model drifting is both common and severe. To address this challenge, we introduce PromptBridge, a training-free framework that preserves prompt effectiveness under model switches, enabling cross-model prompt transfer without costly per-task or per-model re-optimization. PromptBridge requires only a small set of alignment tasks for calibration. It first applies Model-Adaptive Reflective Prompt Evolution (MAP-RPE) to obtain task- and model-specific optimal prompts via iterative reflective refinement and quantitative evaluation. Using the resulting calibrated prompt pairs for the source and target models, PromptBridge learns a cross-model prompt mapping. At test time, i.e., for an unseen task, given a source-model prompt, this mapping directly produces an optimized prompt for the target model. Experiments in single-agent and multi-agent settings show that PromptBridge consistently improves downstream accuracy while reducing migration effort. The code will be available soon.