ChatPaper.aiChatPaper

UltraIF: Avançando o Seguimento de Instruções a partir do Ambiente Selvagem

UltraIF: Advancing Instruction Following from the Wild

February 6, 2025
Autores: Kaikai An, Li Sheng, Ganqu Cui, Shuzheng Si, Ning Ding, Yu Cheng, Baobao Chang
cs.AI

Resumo

A capacidade dos modelos de linguagem de grande escala (LLMs) modernos de seguir instruções tornou-os assistentes úteis. No entanto, a chave para controlar os LLMs em relação a instruções complexas ainda é misteriosa, devido às grandes lacunas entre os modelos treinados pela comunidade de código aberto e aqueles treinados pelas principais empresas. Para reduzir essa diferença, propomos uma abordagem simples e escalável chamada UltraIF para construir LLMs que possam seguir instruções complexas com dados de código aberto. O UltraIF primeiro decompõe as solicitações de usuários do mundo real em consultas mais simples, restrições e questões de avaliação correspondentes para as restrições. Em seguida, treinamos um UltraComposer para compor solicitações associadas a restrições com questões de avaliação. Esse compositor de solicitações nos permite sintetizar instruções complicadas e filtrar respostas com questões de avaliação. Em nosso experimento, pela primeira vez, alinhamos com sucesso o LLaMA-3.1-8B-Base com sua versão instruída em 5 benchmarks de seguimento de instruções sem qualquer informação de benchmark, utilizando apenas o modelo 8B como gerador e avaliador de respostas. O modelo alinhado também obteve pontuações competitivas em outros benchmarks. Além disso, demonstramos que o UltraIF poderia melhorar ainda mais o LLaMA-3.1-8B-Instruct por meio de autoalinhamento, motivando casos de uso mais amplos para o método. Nosso código estará disponível em https://github.com/kkk-an/UltraIF.
English
Instruction-following made modern large language models (LLMs) helpful assistants. However, the key to taming LLMs on complex instructions remains mysterious, for that there are huge gaps between models trained by open-source community and those trained by leading companies. To bridge the gap, we propose a simple and scalable approach UltraIF for building LLMs that can follow complex instructions with open-source data. UltraIF first decomposes real-world user prompts into simpler queries, constraints, and corresponding evaluation questions for the constraints. Then, we train an UltraComposer to compose constraint-associated prompts with evaluation questions. This prompt composer allows us to synthesize complicated instructions as well as filter responses with evaluation questions. In our experiment, for the first time, we successfully align LLaMA-3.1-8B-Base to catch up with its instruct version on 5 instruction-following benchmarks without any benchmark information, using only 8B model as response generator and evaluator. The aligned model also achieved competitive scores on other benchmarks. Moreover, we also show that UltraIF could further improve LLaMA-3.1-8B-Instruct through self-alignment, motivating broader use cases for the method. Our code will be available at https://github.com/kkk-an/UltraIF.

Summary

AI-Generated Summary

PDF232February 7, 2025