ChatPaper.aiChatPaper

MoA: Heterogene Mengsel van Adapters voor Parameter-Efficiënte Fine-Tuning van Grote Taalmodellen

MoA: Heterogeneous Mixture of Adapters for Parameter-Efficient Fine-Tuning of Large Language Models

June 6, 2025
Auteurs: Jie Cao, Tianwei Lin, Hongyang He, Rolan Yan, Wenqiao Zhang, Juncheng Li, Dongping Zhang, Siliang Tang, Yueting Zhuang
cs.AI

Samenvatting

Recente studies integreren Low-Rank Adaptation (LoRA) en Mixture-of-Experts (MoE) om de prestaties van parameter-efficiënte fine-tuningmethoden (PEFT) in toepassingen van Large Language Models (LLM) verder te verbeteren. Bestaande methoden gebruiken homogene MoE-LoRA-architecturen die bestaan uit LoRA-experts met vergelijkbare of identieke structuren en capaciteiten. Deze benaderingen hebben echter vaak last van representatiecollaps en onbalans in de belasting van experts, wat een negatieve invloed heeft op het potentieel van LLM's. Om deze uitdagingen aan te pakken, stellen we een heterogene Mixture-of-Adapters (MoA)-benadering voor. Deze methode integreert dynamisch PEFT-adapterexperts met diverse structuren, waarbij gebruik wordt gemaakt van hun complementaire representatiecapaciteiten om expertspecialisatie te bevorderen, waardoor de effectieve overdracht van vooraf getrainde kennis naar downstream taken wordt verbeterd. MoA ondersteunt twee varianten: (i) Soft MoA bereikt een fijnmazige integratie door een gewogen fusie van alle expertoutputs uit te voeren; (ii) Sparse MoA activeert adapterexperts spaarzaam op basis van hun bijdrage, wat wordt bereikt met verwaarloosbare prestatievermindering. Experimentele resultaten tonen aan dat heterogene MoA zowel in prestaties als parameter-efficiëntie beter presteert dan homogene MoE-LoRA-methoden. Ons project is beschikbaar op https://github.com/DCDmllm/MoA.
English
Recent studies integrate Low-Rank Adaptation (LoRA) and Mixture-of-Experts (MoE) to further enhance the performance of parameter-efficient fine-tuning (PEFT) methods in Large Language Model (LLM) applications. Existing methods employ homogeneous MoE-LoRA architectures composed of LoRA experts with either similar or identical structures and capacities. However, these approaches often suffer from representation collapse and expert load imbalance, which negatively impact the potential of LLMs. To address these challenges, we propose a heterogeneous Mixture-of-Adapters (MoA) approach. This method dynamically integrates PEFT adapter experts with diverse structures, leveraging their complementary representational capabilities to foster expert specialization, thereby enhancing the effective transfer of pre-trained knowledge to downstream tasks. MoA supports two variants: (i) Soft MoA achieves fine-grained integration by performing a weighted fusion of all expert outputs; (ii) Sparse MoA activates adapter experts sparsely based on their contribution, achieving this with negligible performance degradation. Experimental results demonstrate that heterogeneous MoA outperforms homogeneous MoE-LoRA methods in both performance and parameter efficiency. Our project is available at https://github.com/DCDmllm/MoA.
PDF42June 11, 2025