ChatPaper.aiChatPaper

Routeren naar de Expert: Efficiënte Beloningsgestuurde Ensemble van Grote Taalmodellen

Routing to the Expert: Efficient Reward-guided Ensemble of Large Language Models

November 15, 2023
Auteurs: Keming Lu, Hongyi Yuan, Runji Lin, Junyang Lin, Zheng Yuan, Chang Zhou, Jingren Zhou
cs.AI

Samenvatting

Het complementaire potentieel van Large Language Models (LLM) veronderstelt dat kant-en-klare LLM's heterogene expertise hebben in een breed scala aan domeinen en taken, zodat een ensemble van LLM's consistent betere prestaties kan bereiken. Bestaande ensemblemethoden voor LLM's richten zich voornamelijk op het rangschikken van uitvoer met behulp van beloningsmodellen, wat leidt tot aanzienlijke rekenoverhead. Om dit probleem aan te pakken, herzien we het complementaire potentieel van LLM's en werken dit verder uit door latente expertise te ontginnen met kant-en-klare beloningsmodellen. We stellen Zooter voor, een beloningsgeleide routeringsmethode die beloningen op trainingsquery's destilleert om een routeringsfunctie te trainen, die elke query precies kan verdelen naar de LLM met expertise over dat onderwerp. We integreren ook een op tags gebaseerde labelverbetering om ruis te verminderen die ontstaat door onzekerheid bij het gebruik van beloningen als zilveren supervisie. Zooter toont rekenkundige efficiëntie tijdens inferentie, omdat het slechts een kleine rekenoverhead introduceert van een routeringsfunctie in vergelijking met methoden voor het rangschikken van beloningsmodellen. We evalueren Zooter op een uitgebreide benchmarkcollectie met 26 subsets over verschillende domeinen en taken. Zooter overtreft gemiddeld het beste enkele model en staat op de eerste plaats bij 44% van de taken, waarbij het zelfs meerdere beloningsmodelrangschikkingsmethoden overstijgt.
English
The complementary potential of Large Language Models (LLM) assumes off-the-shelf LLMs have heterogeneous expertise in a wide range of domains and tasks so that an ensemble of LLMs can achieve consistently better performance. Existing ensemble methods for LLMs mainly focus on reward model ranking of outputs, leading to significant computation overhead. To combat this issue, we revisit the complementary potential of LLMs and further elaborate it by mining latent expertise with off-the-shelf reward models. We propose Zooter, a reward-guided routing method distilling rewards on training queries to train a routing function, which can precisely distribute each query to the LLM with expertise about it. We also integrate a tag-based label enhancement to mitigate noise from uncertainty when using rewards as silver supervision. Zooter shows computation efficiency in inference as it introduces only a minor computation overhead of a routing function compared with reward model ranking methods. We evaluate Zooter on a comprehensive benchmark collection with 26 subsets on different domains and tasks. Zooter outperforms the best single model on average and ranks first on 44% of tasks, even surpassing multiple reward model ranking methods.
PDF130December 15, 2024