Colaboração entre LLMs em Nível de Token via FusionRoute
Token-Level LLM Collaboration via FusionRoute
January 8, 2026
Autores: Nuoya Xiong, Yuhang Zhou, Hanqing Zeng, Zhaorun Chen, Furong Huang, Shuchao Bi, Lizhu Zhang, Zhuokai Zhao
cs.AI
Resumo
Os modelos de linguagem de grande escala (LLMs) demonstram pontos fortes em diversos domínios. No entanto, alcançar um desempenho robusto em todos estes domínios com um único modelo de propósito geral normalmente exige uma escalagem para tamanhos que são proibitivamente caros para treinar e implantar. Por outro lado, embora os modelos menores especializados por domínio sejam muito mais eficientes, eles lutam para generalizar além das suas distribuições de treino. Para resolver este dilema, propomos o FusionRoute, um quadro de colaboração multi-LLM robusto e eficaz a nível de *token*, no qual um roteador leve seleciona simultaneamente (i) o especialista mais adequado em cada passo de descodificação e (ii) contribui com um *logit* complementar que refina ou corrige a distribuição do próximo *token* do especialista selecionado através da adição de *logits*. Ao contrário dos métodos de colaboração a nível de *token* existentes, que dependem exclusivamente de saídas fixas dos especialistas, fornecemos uma análise teórica que mostra que o roteamento puramente baseado em especialistas é fundamentalmente limitado: a menos que se verifiquem pressupostos fortes de cobertura global, ele não pode, em geral, realizar a política de descodificação ótima. Ao aumentar a seleção de especialistas com um gerador complementar treinável, o FusionRoute expande a classe de políticas eficazes e permite a recuperação de funções de valor ótimas sob condições suaves. Empiricamente, tanto nas famílias Llama-3 como Gemma-2, e em diversos *benchmarks* abrangendo raciocínio matemático, geração de código e seguimento de instruções, o FusionRoute supera a colaboração a nível de sequência e de *token*, a fusão de modelos e o afinamento direto, mantendo-se competitivo com especialistas de domínio nas suas respetivas tarefas.
English
Large language models (LLMs) exhibit strengths across diverse domains. However, achieving strong performance across these domains with a single general-purpose model typically requires scaling to sizes that are prohibitively expensive to train and deploy. On the other hand, while smaller domain-specialized models are much more efficient, they struggle to generalize beyond their training distributions. To address this dilemma, we propose FusionRoute, a robust and effective token-level multi-LLM collaboration framework in which a lightweight router simultaneously (i) selects the most suitable expert at each decoding step and (ii) contributes a complementary logit that refines or corrects the selected expert's next-token distribution via logit addition. Unlike existing token-level collaboration methods that rely solely on fixed expert outputs, we provide a theoretical analysis showing that pure expert-only routing is fundamentally limited: unless strong global coverage assumptions hold, it cannot in general realize the optimal decoding policy. By augmenting expert selection with a trainable complementary generator, FusionRoute expands the effective policy class and enables recovery of optimal value functions under mild conditions. Empirically, across both Llama-3 and Gemma-2 families and diverse benchmarks spanning mathematical reasoning, code generation, and instruction following, FusionRoute outperforms both sequence- and token-level collaboration, model merging, and direct fine-tuning, while remaining competitive with domain experts on their respective tasks.