ChatPaper.aiChatPaper

Cappy: Een kleine scorer die grote multi-task taalmodelen overtreft en versterkt

Cappy: Outperforming and Boosting Large Multi-Task LMs with a Small Scorer

November 12, 2023
Auteurs: Bowen Tan, Yun Zhu, Lijuan Liu, Eric Xing, Zhiting Hu, Jindong Chen
cs.AI

Samenvatting

Grote taalmmodellen (LLM's) zoals T0, FLAN en OPT-IML blinken uit in multitasking binnen een uniform instructievolgend paradigma, waarbij ze ook opmerkelijke generalisatievermogens vertonen voor onbekende taken. Ondanks hun indrukwekkende prestaties vereisen deze LLM's, met groottes variërend van enkele miljarden tot honderden miljarden parameters, aanzienlijke rekenkracht, wat hun training en inferentie duur en inefficiënt maakt. Bovendien is het aanpassen van deze modellen voor downstream-toepassingen, met name complexe taken, vaak onhaalbaar vanwege de uitgebreide hardwarevereisten voor finetuning, zelfs bij gebruik van parameter-efficiënte benaderingen zoals prompt tuning. Daarnaast zijn de krachtigste multitask-LLM's, zoals OPT-IML-175B en FLAN-PaLM-540B, niet publiekelijk toegankelijk, wat hun aanpassingspotentieel ernstig beperkt. Om deze uitdagingen aan te pakken, introduceren we een voorgetrainde kleine scorer, Cappy, ontworpen om de prestaties en efficiëntie van multitask-LLM's te verbeteren. Met slechts 360 miljoen parameters kan Cappy onafhankelijk functioneren bij classificatietaken of dienen als een hulpcomponent voor LLM's, waardoor hun prestaties worden verbeterd. Bovendien maakt Cappy het mogelijk om downstream-supervisie efficiënt te integreren zonder finetuning van de LLM of toegang tot hun parameters te vereisen. Onze experimenten tonen aan dat Cappy, wanneer het onafhankelijk werkt op 11 taalbegriptaken van PromptSource, LLM's overtreft die meerdere ordes van grootte groter zijn. Daarnaast verbetert Cappy op 45 complexe taken van BIG-Bench de prestaties van de geavanceerde multitask-LLM, FLAN-T5, aanzienlijk. Verder is Cappy flexibel in samenwerking met andere LLM-aanpassingen, waaronder finetuning en in-context learning, wat extra prestatieverbetering biedt.
English
Large language models (LLMs) such as T0, FLAN, and OPT-IML, excel in multi-tasking under a unified instruction-following paradigm, where they also exhibit remarkable generalization abilities to unseen tasks. Despite their impressive performance, these LLMs, with sizes ranging from several billion to hundreds of billions of parameters, demand substantial computational resources, making their training and inference expensive and inefficient. Furthermore, adapting these models to downstream applications, particularly complex tasks, is often unfeasible due to the extensive hardware requirements for finetuning, even when utilizing parameter-efficient approaches such as prompt tuning. Additionally, the most powerful multi-task LLMs, such as OPT-IML-175B and FLAN-PaLM-540B, are not publicly accessible, severely limiting their customization potential. To address these challenges, we introduce a pretrained small scorer, Cappy, designed to enhance the performance and efficiency of multi-task LLMs. With merely 360 million parameters, Cappy functions either independently on classification tasks or serve as an auxiliary component for LLMs, boosting their performance. Moreover, Cappy enables efficiently integrating downstream supervision without requiring LLM finetuning nor the access to their parameters. Our experiments demonstrate that, when working independently on 11 language understanding tasks from PromptSource, Cappy outperforms LLMs that are several orders of magnitude larger. Besides, on 45 complex tasks from BIG-Bench, Cappy boosts the performance of the advanced multi-task LLM, FLAN-T5, by a large margin. Furthermore, Cappy is flexible to cooperate with other LLM adaptations, including finetuning and in-context learning, offering additional performance enhancement.
PDF90December 15, 2024