ChatPaper.aiChatPaper

Ne Jetez Pas Votre Modèle Préentraîné

Don't Throw Away Your Pretrained Model

October 10, 2025
papers.authors: Shangbin Feng, Wenhao Yu, Yike Wang, Hongming Zhang, Yulia Tsvetkov, Dong Yu
cs.AI

papers.abstract

L'entraînement à l'alignement présente des compromis : il aide les modèles de langage (LMs) à améliorer leur raisonnement et leur capacité à suivre des instructions, mais peut entraîner une perte de compétences telles que la créativité et la calibration, domaines où les modèles de base non alignés sont plus performants. Notre objectif est de tirer le meilleur des deux mondes grâce à la collaboration entre modèles, où différents modèles dans le pipeline d'entraînement collaborent et se complètent. Étant donné que les réponses des LMs intègrent des compétences entrelacées qui favorisent différents modèles, nous proposons la **Génération par Commutation** (Switch Generation), où des versions pré-entraînées et alignées des modèles prennent tour à tour la parole dans une séquence de réponses. Plus précisément, nous entraînons un modèle de commutation (switcher LM) en apprenant des résultats du choix de différents modèles pour générer le segment suivant à travers diverses requêtes et contextes. Au moment de l'inférence, le switcher LM guide différents points de contrôle de modèles pour générer dynamiquement le segment suivant là où leurs forces sont les plus nécessaires. Des expériences approfondies avec 8 bases de référence de collaboration de modèles et 18 ensembles de données montrent que 1) la collaboration entre modèles surpasse systématiquement les modèles individuels sur 16 des 18 tâches, et 2) la Génération par Commutation surpasse encore les bases de référence de 12,9 % en moyenne. Une analyse plus poussée révèle que la Génération par Commutation découvre des compétences compositionnelles pour résoudre des problèmes où les modèles individuels échouent, et généralise à des modèles et tâches non vus, réutilisant et réaffectant les sous-produits des pipelines d'entraînement de modèles coûteux qui seraient autrement jetés.
English
Alignment training has tradeoffs: it helps language models (LMs) gain in reasoning and instruction following but might lose out on skills such as creativity and calibration, where unaligned base models are better at. We aim to make the best of both worlds through model collaboration, where different models in the training pipeline collaborate and complement each other. Since LM responses feature interleaving skills that favor different models, we propose Switch Generation, where pretrained and aligned model versions take turns to ``speak'' in a response sequence. Specifically, we train a switcher LM by learning from outcomes of choosing different models to generate the next segment across diverse queries and contexts. At inference time, the switcher LM guides different model checkpoints to dynamically generate the next segment where their strengths are most needed. Extensive experiments with 8 model collaboration baselines and 18 datasets show that 1) model collaboration consistently outperforms individual models on 16 out of 18 tasks, and 2) Switch Generation further outperforms baselines by 12.9% on average. Further analysis reveals that Switch Generation discovers compositional skills to solve problems where individual models struggle and generalizes to unseen models and tasks, reusing and repurposing by-products in expensive model training pipelines that are otherwise discarded.
PDF22October 16, 2025