ChatPaper.aiChatPaper

Permettre une intégration flexible de plusieurs LLM pour une agrégation de connaissances évolutive

Enabling Flexible Multi-LLM Integration for Scalable Knowledge Aggregation

May 28, 2025
Auteurs: Zhenglun Kong, Zheng Zhan, Shiyue Hou, Yifan Gong, Xin Meng, Pengwei Sui, Peiyan Dong, Xuan Shen, Zifeng Wang, Pu Zhao, Hao Tang, Stratis Ioannidis, Yanzhi Wang
cs.AI

Résumé

Les grands modèles de langage (LLMs) ont montré un potentiel remarquable, mais il reste difficile de les améliorer continuellement par le biais de l’affinage traditionnel, en particulier lors de l’intégration de capacités provenant d’autres LLMs spécialisés. Les méthodes populaires telles que l’assemblage (ensemble) et la fusion de poids nécessitent une mémoire substantielle et peinent à s’adapter à des environnements de données changeants. Des efforts récents ont permis de transférer des connaissances provenant de plusieurs LLMs vers un modèle cible unique ; cependant, ils souffrent d’interférences et d’une dégradation des performances entre les tâches, principalement en raison d’une flexibilité limitée dans la sélection des candidats et les pipelines d’entraînement. Pour résoudre ces problèmes, nous proposons un cadre qui sélectionne et agrège de manière adaptative les connaissances provenant de divers LLMs afin de construire un modèle unique et plus performant, évitant ainsi la surcharge mémoire élevée de l’assemblage et la rigidité de la fusion de poids. Plus précisément, nous concevons un réseau de sélection adaptative qui identifie les LLMs sources les plus pertinents en fonction de leurs scores, réduisant ainsi les interférences de connaissances. Nous proposons également une stratégie de fusion pondérée dynamique qui tient compte des forces intrinsèques des LLMs candidats, ainsi qu’une fonction de perte pilotée par rétroaction qui empêche le sélecteur de converger vers un seul sous-ensemble de sources. Les résultats expérimentaux démontrent que notre méthode permet un processus d’agrégation des connaissances plus stable et évolutif, tout en réduisant les interférences de connaissances jusqu’à 50 % par rapport aux approches existantes. Le code est disponible à l’adresse suivante : https://github.com/ZLKong/LLM_Integration.
English
Large language models (LLMs) have shown remarkable promise but remain challenging to continually improve through traditional finetuning, particularly when integrating capabilities from other specialized LLMs. Popular methods like ensemble and weight merging require substantial memory and struggle to adapt to changing data environments. Recent efforts have transferred knowledge from multiple LLMs into a single target model; however, they suffer from interference and degraded performance among tasks, largely due to limited flexibility in candidate selection and training pipelines. To address these issues, we propose a framework that adaptively selects and aggregates knowledge from diverse LLMs to build a single, stronger model, avoiding the high memory overhead of ensemble and inflexible weight merging. Specifically, we design an adaptive selection network that identifies the most relevant source LLMs based on their scores, thereby reducing knowledge interference. We further propose a dynamic weighted fusion strategy that accounts for the inherent strengths of candidate LLMs, along with a feedback-driven loss function that prevents the selector from converging on a single subset of sources. Experimental results demonstrate that our method can enable a more stable and scalable knowledge aggregation process while reducing knowledge interference by up to 50% compared to existing approaches. Code is avaliable at https://github.com/ZLKong/LLM_Integration
PDF52June 2, 2025