ChatPaper.aiChatPaper

UltraIF: Avanzamento dell'Instradamento delle Istruzioni dalla Natura

UltraIF: Advancing Instruction Following from the Wild

February 6, 2025
Autori: Kaikai An, Li Sheng, Ganqu Cui, Shuzheng Si, Ning Ding, Yu Cheng, Baobao Chang
cs.AI

Abstract

Il seguire istruzioni ha reso i moderni modelli linguistici di grandi dimensioni (LLM) utili assistenti. Tuttavia, la chiave per domare i LLM su istruzioni complesse rimane misteriosa, poiché esistono enormi discrepanze tra i modelli addestrati dalla comunità open-source e quelli addestrati dalle principali aziende. Per colmare questa lacuna, proponiamo un approccio semplice e scalabile chiamato UltraIF per la costruzione di LLM in grado di seguire istruzioni complesse con dati open-source. UltraIF scompone prima le richieste degli utenti del mondo reale in query più semplici, vincoli e domande di valutazione corrispondenti per i vincoli. Successivamente, addestriamo un UltraComposer a comporre richieste associate ai vincoli con domande di valutazione. Questo compositore di richieste ci consente di sintetizzare istruzioni complicate e filtrare le risposte con domande di valutazione. Nel nostro esperimento, per la prima volta, siamo riusciti ad allineare LLaMA-3.1-8B-Base con la sua versione di istruzioni su 5 benchmark di seguire istruzioni senza alcuna informazione sui benchmark, utilizzando solo il modello 8B come generatore di risposte e valutatore. Il modello allineato ha ottenuto anche punteggi competitivi su altri benchmark. Inoltre, dimostriamo che UltraIF potrebbe migliorare ulteriormente LLaMA-3.1-8B-Instruct attraverso l'auto-allineamento, incoraggiando utilizzi più ampi del metodo. Il nostro codice sarà disponibile su https://github.com/kkk-an/UltraIF.
English
Instruction-following made modern large language models (LLMs) helpful assistants. However, the key to taming LLMs on complex instructions remains mysterious, for that there are huge gaps between models trained by open-source community and those trained by leading companies. To bridge the gap, we propose a simple and scalable approach UltraIF for building LLMs that can follow complex instructions with open-source data. UltraIF first decomposes real-world user prompts into simpler queries, constraints, and corresponding evaluation questions for the constraints. Then, we train an UltraComposer to compose constraint-associated prompts with evaluation questions. This prompt composer allows us to synthesize complicated instructions as well as filter responses with evaluation questions. In our experiment, for the first time, we successfully align LLaMA-3.1-8B-Base to catch up with its instruct version on 5 instruction-following benchmarks without any benchmark information, using only 8B model as response generator and evaluator. The aligned model also achieved competitive scores on other benchmarks. Moreover, we also show that UltraIF could further improve LLaMA-3.1-8B-Instruct through self-alignment, motivating broader use cases for the method. Our code will be available at https://github.com/kkk-an/UltraIF.

Summary

AI-Generated Summary

PDF232February 7, 2025