PromptBridge: Prompt-Transfer zwischen verschiedenen Modellen für große Sprachmodelle
PromptBridge: Cross-Model Prompt Transfer for Large Language Models
December 1, 2025
papers.authors: Yaxuan Wang, Quan Liu, Zhenting Wang, Zichao Li, Wei Wei, Yang Liu, Yujia Bao
cs.AI
papers.abstract
Große Sprachmodelle (LLMs) bilden die Grundlage für Anwendungen in Code-Generierung, mathematischem Reasoning und agentenbasierten Workflows. In der Praxis greifen Systeme über kommerzielle APIs oder Open-Source-Implementierungen auf LLMs zu, und die Modelllandschaft (z.B. GPT, Claude, Llama) entwickelt sich rasant. Diese schnelle Entwicklung erzwingt häufige Modellwechsel, die durch Fähigkeiten, Kosten, Bereitstellungsbeschränkungen und Datenschutz bedingt sind. Dennoch sind Prompts hochgradig modellsensitiv: Die Wiederverwendung eines für ein Modell optimierten Prompts bei einem anderen Modell führt oft zu deutlich schlechteren Ergebnissen als ein für das Zielmodell optimierter Prompt. Wir bezeichnen dieses Phänomen als Model Drifting. Durch umfangreiche empirische Analysen über verschiedene LLM-Konfigurationen hinweg zeigen wir, dass Model Drifting sowohl häufig als auch schwerwiegend auftritt. Um diese Herausforderung zu bewältigen, stellen wir PromptBridge vor, ein trainierungsfreies Framework, das die Prompt-Wirksamkeit bei Modellwechseln erhält und modellübergreifenden Prompt-Transfer ohne kostspielige Neuoptimierung pro Aufgabe oder Modell ermöglicht. PromptBridge benötigt nur einen kleinen Satz von Alignment-Aufgaben zur Kalibrierung. Zunächst wendet es Model-Adaptive Reflective Prompt Evolution (MAP-RPE) an, um aufgabenspezifische und modelloptimale Prompts durch iterative reflektive Verfeinerung und quantitative Evaluation zu erhalten. Unter Verwendung der resultierenden kalibrierten Prompt-Paare für Quell- und Zielmodell lernt PromptBridge eine modellübergreifende Prompt-Abbildung. Zur Testzeit, d.h. für eine unbekannte Aufgabe, erzeugt diese Abbildung direkt einen optimierten Prompt für das Zielmodell, basierend auf einem Quellmodell-Prompt. Experimente in Einzel-Agenten- und Multi-Agenten-Szenarien zeigen, dass PromptBridge konsistent die nachgelagerte Genauigkeit verbessert und gleichzeitig den Migrationsaufwand reduziert. Der Code wird in Kürze verfügbar sein.
English
Large language models (LLMs) underpin applications in code generation, mathematical reasoning, and agent-based workflows. In practice, systems access LLMs via commercial APIs or open-source deployments, and the model landscape (e.g., GPT, Claude, Llama) evolves rapidly. This rapid evolution forces frequent model switches driven by capability, cost, deployment constraints, and privacy. Yet prompts are highly model-sensitive: reusing a prompt engineered for one model on another often yields substantially worse performance than a prompt optimized for the target model. We term this phenomenon Model Drifting. Through extensive empirical analysis across diverse LLM configurations, we show that model drifting is both common and severe. To address this challenge, we introduce PromptBridge, a training-free framework that preserves prompt effectiveness under model switches, enabling cross-model prompt transfer without costly per-task or per-model re-optimization. PromptBridge requires only a small set of alignment tasks for calibration. It first applies Model-Adaptive Reflective Prompt Evolution (MAP-RPE) to obtain task- and model-specific optimal prompts via iterative reflective refinement and quantitative evaluation. Using the resulting calibrated prompt pairs for the source and target models, PromptBridge learns a cross-model prompt mapping. At test time, i.e., for an unseen task, given a source-model prompt, this mapping directly produces an optimized prompt for the target model. Experiments in single-agent and multi-agent settings show that PromptBridge consistently improves downstream accuracy while reducing migration effort. The code will be available soon.