ChatPaper.aiChatPaper

UltraIF : Faire progresser le suivi des instructions depuis le terrain

UltraIF: Advancing Instruction Following from the Wild

February 6, 2025
Auteurs: Kaikai An, Li Sheng, Ganqu Cui, Shuzheng Si, Ning Ding, Yu Cheng, Baobao Chang
cs.AI

Résumé

La capacité des grands modèles de langage modernes (LLMs) à suivre des instructions a fait d'eux des assistants utiles. Cependant, apprivoiser les LLMs sur des instructions complexes reste un mystère, car il existe d'énormes écarts entre les modèles entraînés par la communauté open source et ceux entraînés par les grandes entreprises. Pour combler cet écart, nous proposons une approche simple et évolutive, UltraIF, pour construire des LLMs capables de suivre des instructions complexes avec des données open source. UltraIF décompose d'abord les demandes d'utilisateurs du monde réel en requêtes plus simples, contraintes et questions d'évaluation correspondantes pour les contraintes. Ensuite, nous entraînons un UltraComposer à composer des demandes associées aux contraintes avec des questions d'évaluation. Ce compositeur de demandes nous permet de synthétiser des instructions compliquées ainsi que de filtrer les réponses avec des questions d'évaluation. Dans notre expérience, pour la première fois, nous avons réussi à aligner LLaMA-3.1-8B-Base sur sa version instructive sur 5 bancs d'essai de suivi d'instructions sans aucune information de référence, en n'utilisant que le modèle 8B comme générateur de réponses et évaluateur. Le modèle aligné a également obtenu des scores compétitifs sur d'autres bancs d'essai. De plus, nous montrons également qu'UltraIF pourrait améliorer davantage LLaMA-3.1-8B-Instruct grâce à l'auto-alignement, ce qui encourage des cas d'utilisation plus larges pour la méthode. Notre code sera disponible sur https://github.com/kkk-an/UltraIF.
English
Instruction-following made modern large language models (LLMs) helpful assistants. However, the key to taming LLMs on complex instructions remains mysterious, for that there are huge gaps between models trained by open-source community and those trained by leading companies. To bridge the gap, we propose a simple and scalable approach UltraIF for building LLMs that can follow complex instructions with open-source data. UltraIF first decomposes real-world user prompts into simpler queries, constraints, and corresponding evaluation questions for the constraints. Then, we train an UltraComposer to compose constraint-associated prompts with evaluation questions. This prompt composer allows us to synthesize complicated instructions as well as filter responses with evaluation questions. In our experiment, for the first time, we successfully align LLaMA-3.1-8B-Base to catch up with its instruct version on 5 instruction-following benchmarks without any benchmark information, using only 8B model as response generator and evaluator. The aligned model also achieved competitive scores on other benchmarks. Moreover, we also show that UltraIF could further improve LLaMA-3.1-8B-Instruct through self-alignment, motivating broader use cases for the method. Our code will be available at https://github.com/kkk-an/UltraIF.

Summary

AI-Generated Summary

PDF232February 7, 2025