ChatPaper.aiChatPaper

PromptBridge: Transferencia de Indicaciones entre Modelos para Modelos de Lenguaje a Gran Escala

PromptBridge: Cross-Model Prompt Transfer for Large Language Models

December 1, 2025
Autores: Yaxuan Wang, Quan Liu, Zhenting Wang, Zichao Li, Wei Wei, Yang Liu, Yujia Bao
cs.AI

Resumen

Los grandes modelos de lenguaje (LLM) sustentan aplicaciones en generación de código, razonamiento matemático y flujos de trabajo basados en agentes. En la práctica, los sistemas acceden a los LLM mediante APIs comerciales o despliegues de código abierto, y el panorama de modelos (por ejemplo, GPT, Claude, Llama) evoluciona rápidamente. Esta rápida evolución obliga a cambios frecuentes de modelo impulsados por la capacidad, el coste, las restricciones de despliegue y la privacidad. Sin embargo, los *prompts* son altamente sensibles al modelo: reutilizar un *prompt* diseñado para un modelo en otro a menudo produce un rendimiento sustancialmente peor que un *prompt* optimizado para el modelo objetivo. Denominamos a este fenómeno *Model Drifting* (Deriva del Modelo). A través de un extenso análisis empírico en diversas configuraciones de LLM, demostramos que la deriva del modelo es común y severa. Para abordar este desafío, presentamos PromptBridge, un marco de trabajo que no requiere entrenamiento y que preserva la efectividad del *prompt* ante cambios de modelo, permitiendo la transferencia de *prompts* entre modelos sin la costosa re-optimización por tarea o por modelo. PromptBridge requiere solo un pequeño conjunto de tareas de alineación para su calibración. Primero aplica la Evolución de *Prompt* Reflexiva y Adaptativa al Modelo (MAP-RPE) para obtener *prompts* óptimos específicos de la tarea y del modelo mediante un refinamiento reflexivo iterativo y una evaluación cuantitativa. Utilizando los pares de *prompts* calibrados resultantes para los modelos fuente y objetivo, PromptBridge aprende un mapeo de *prompts* entre modelos. En el momento de la prueba, es decir, para una tarea no vista, dado un *prompt* del modelo fuente, este mapeo produce directamente un *prompt* optimizado para el modelo objetivo. Los experimentos en entornos de agente único y multi-agente muestran que PromptBridge mejora consistentemente la precisión en las tareas posteriores (*downstream*) mientras reduce el esfuerzo de migración. El código estará disponible próximamente.
English
Large language models (LLMs) underpin applications in code generation, mathematical reasoning, and agent-based workflows. In practice, systems access LLMs via commercial APIs or open-source deployments, and the model landscape (e.g., GPT, Claude, Llama) evolves rapidly. This rapid evolution forces frequent model switches driven by capability, cost, deployment constraints, and privacy. Yet prompts are highly model-sensitive: reusing a prompt engineered for one model on another often yields substantially worse performance than a prompt optimized for the target model. We term this phenomenon Model Drifting. Through extensive empirical analysis across diverse LLM configurations, we show that model drifting is both common and severe. To address this challenge, we introduce PromptBridge, a training-free framework that preserves prompt effectiveness under model switches, enabling cross-model prompt transfer without costly per-task or per-model re-optimization. PromptBridge requires only a small set of alignment tasks for calibration. It first applies Model-Adaptive Reflective Prompt Evolution (MAP-RPE) to obtain task- and model-specific optimal prompts via iterative reflective refinement and quantitative evaluation. Using the resulting calibrated prompt pairs for the source and target models, PromptBridge learns a cross-model prompt mapping. At test time, i.e., for an unseen task, given a source-model prompt, this mapping directly produces an optimized prompt for the target model. Experiments in single-agent and multi-agent settings show that PromptBridge consistently improves downstream accuracy while reducing migration effort. The code will be available soon.
PDF81December 3, 2025