PromptBridge: Transferência Intermodelos de Prompts para Modelos de Linguagem de Grande Porte
PromptBridge: Cross-Model Prompt Transfer for Large Language Models
December 1, 2025
Autores: Yaxuan Wang, Quan Liu, Zhenting Wang, Zichao Li, Wei Wei, Yang Liu, Yujia Bao
cs.AI
Resumo
Os grandes modelos de linguagem (LLMs) sustentam aplicações em geração de código, raciocínio matemático e fluxos de trabalho baseados em agentes. Na prática, os sistemas acessam LLMs por meio de APIs comerciais ou implantações de código aberto, e o panorama de modelos (por exemplo, GPT, Claude, Llama) evolui rapidamente. Esta evolução rápida força trocas frequentes de modelos, impulsionadas por capacidade, custo, restrições de implantação e privacidade. No entanto, os *prompts* são altamente sensíveis ao modelo: reutilizar um *prompt* desenvolvido para um modelo em outro frequentemente resulta em um desempenho substancialmente pior do que um *prompt* otimizado para o modelo de destino. Denominamos este fenômeno de **Model Drifting** (Deriva do Modelo). Através de uma extensa análise empírica em diversas configurações de LLMs, mostramos que a deriva do modelo é comum e severa. Para enfrentar este desafio, introduzimos o **PromptBridge**, uma estrutura *training-free* (livre de treinamento) que preserva a eficácia do *prompt* durante trocas de modelo, permitindo a transferência de *prompts* entre modelos sem a dispendiosa reotimização por tarefa ou por modelo. O PromptBridge requer apenas um pequeno conjunto de tarefas de alinhamento para calibração. Primeiro, ele aplica a **Evolução de Prompt Reflexiva Adaptada ao Modelo (MAP-RPE)** para obter *prompts* ótimos específicos para a tarefa e para o modelo, por meio de um refinamento reflexivo iterativo e avaliação quantitativa. Usando os pares de *prompts* calibrados resultantes para os modelos de origem e de destino, o PromptBridge aprende um mapeamento de *prompts* entre modelos. No momento do teste, ou seja, para uma tarefa não vista, dado um *prompt* do modelo de origem, este mapeamento produz diretamente um *prompt* otimizado para o modelo de destino. Experimentos em configurações de agente único e multiagente mostram que o PromptBridge melhora consistentemente a precisão (*accuracy*) das tarefas subsequentes, reduzindo simultaneamente o esforço de migração. O código estará disponível em breve.
English
Large language models (LLMs) underpin applications in code generation, mathematical reasoning, and agent-based workflows. In practice, systems access LLMs via commercial APIs or open-source deployments, and the model landscape (e.g., GPT, Claude, Llama) evolves rapidly. This rapid evolution forces frequent model switches driven by capability, cost, deployment constraints, and privacy. Yet prompts are highly model-sensitive: reusing a prompt engineered for one model on another often yields substantially worse performance than a prompt optimized for the target model. We term this phenomenon Model Drifting. Through extensive empirical analysis across diverse LLM configurations, we show that model drifting is both common and severe. To address this challenge, we introduce PromptBridge, a training-free framework that preserves prompt effectiveness under model switches, enabling cross-model prompt transfer without costly per-task or per-model re-optimization. PromptBridge requires only a small set of alignment tasks for calibration. It first applies Model-Adaptive Reflective Prompt Evolution (MAP-RPE) to obtain task- and model-specific optimal prompts via iterative reflective refinement and quantitative evaluation. Using the resulting calibrated prompt pairs for the source and target models, PromptBridge learns a cross-model prompt mapping. At test time, i.e., for an unseen task, given a source-model prompt, this mapping directly produces an optimized prompt for the target model. Experiments in single-agent and multi-agent settings show that PromptBridge consistently improves downstream accuracy while reducing migration effort. The code will be available soon.