ChatPaper.aiChatPaper

No Deseches Tu Modelo Preentrenado

Don't Throw Away Your Pretrained Model

October 10, 2025
Autores: Shangbin Feng, Wenhao Yu, Yike Wang, Hongming Zhang, Yulia Tsvetkov, Dong Yu
cs.AI

Resumen

El entrenamiento de alineación tiene compensaciones: ayuda a los modelos de lenguaje (LM, por sus siglas en inglés) a mejorar en razonamiento y seguimiento de instrucciones, pero podría resultar en una pérdida de habilidades como la creatividad y la calibración, áreas en las que los modelos base no alineados suelen ser mejores. Nuestro objetivo es aprovechar lo mejor de ambos mundos mediante la colaboración de modelos, donde diferentes modelos en la pipeline de entrenamiento colaboran y se complementan entre sí. Dado que las respuestas de los LM presentan habilidades entrelazadas que favorecen a diferentes modelos, proponemos la Generación por Conmutación (Switch Generation), donde versiones preentrenadas y alineadas de los modelos se turnan para "hablar" en una secuencia de respuestas. Específicamente, entrenamos un LM conmutador aprendiendo de los resultados de elegir diferentes modelos para generar el siguiente segmento en diversas consultas y contextos. Durante la inferencia, el LM conmutador guía a diferentes puntos de control de modelos para generar dinámicamente el siguiente segmento donde sus fortalezas son más necesarias. Experimentos exhaustivos con 8 líneas base de colaboración de modelos y 18 conjuntos de datos muestran que 1) la colaboración de modelos supera consistentemente a los modelos individuales en 16 de las 18 tareas, y 2) la Generación por Conmutación supera a las líneas base en un 12.9% en promedio. Un análisis adicional revela que la Generación por Conmutación descubre habilidades compositivas para resolver problemas en los que los modelos individuales tienen dificultades y se generaliza a modelos y tareas no vistos, reutilizando y reorientando subproductos en costosas pipelines de entrenamiento de modelos que de otro modo serían descartados.
English
Alignment training has tradeoffs: it helps language models (LMs) gain in reasoning and instruction following but might lose out on skills such as creativity and calibration, where unaligned base models are better at. We aim to make the best of both worlds through model collaboration, where different models in the training pipeline collaborate and complement each other. Since LM responses feature interleaving skills that favor different models, we propose Switch Generation, where pretrained and aligned model versions take turns to ``speak'' in a response sequence. Specifically, we train a switcher LM by learning from outcomes of choosing different models to generate the next segment across diverse queries and contexts. At inference time, the switcher LM guides different model checkpoints to dynamically generate the next segment where their strengths are most needed. Extensive experiments with 8 model collaboration baselines and 18 datasets show that 1) model collaboration consistently outperforms individual models on 16 out of 18 tasks, and 2) Switch Generation further outperforms baselines by 12.9% on average. Further analysis reveals that Switch Generation discovers compositional skills to solve problems where individual models struggle and generalizes to unseen models and tasks, reusing and repurposing by-products in expensive model training pipelines that are otherwise discarded.
PDF22October 16, 2025