ChatPaper.aiChatPaper

SPaR: Zelfspel met Boomzoekverfijning om de Instructieopvolging te Verbeteren in Grote Taalmodellen

SPaR: Self-Play with Tree-Search Refinement to Improve Instruction-Following in Large Language Models

December 16, 2024
Auteurs: Jiale Cheng, Xiao Liu, Cunxiang Wang, Xiaotao Gu, Yida Lu, Dan Zhang, Yuxiao Dong, Jie Tang, Hongning Wang, Minlie Huang
cs.AI

Samenvatting

Het volgen van instructies is een fundamentele vaardigheid van taalmodellen, waarbij het model zelfs de meest subtiele vereisten in de instructies moet herkennen en nauwkeurig moet weergeven in de output. Een dergelijke vaardigheid is goed geschikt voor en wordt vaak geoptimaliseerd door voorkeursleren. Bestaande methoden monsteren echter vaak rechtstreeks meerdere onafhankelijke reacties van het model bij het creëren van voorkeursparen. Een dergelijke praktijk kan inhoudelijke variaties introduceren die niet relevant zijn voor het precies volgen van de instructie (bijv. verschillende uitdrukkingen over dezelfde betekenis), wat het doel van het leren van modellen om de belangrijkste verschillen te herkennen die leiden tot verbeterd instructievolgen, verstoort. In dit licht introduceren we SPaR, een zelfspelkader dat boomzoekzelfverfijning integreert om geldige en vergelijkbare voorkeursparen vrij van afleidingen te produceren. Door tegen zichzelf te spelen, past een LLM een boomzoekstrategie toe om zijn eerdere reacties te verfijnen met betrekking tot de instructie, terwijl onnodige variaties worden geminimaliseerd. Onze experimenten tonen aan dat een LLaMA3-8B-model, getraind over drie iteraties geleid door SPaR, GPT-4-Turbo overtreft op de IFEval-benchmark zonder algemene capaciteiten te verliezen. Bovendien toont SPaR veelbelovende schaalbaarheid en overdraagbaarheid, waarbij modellen zoals GLM-4-9B en LLaMA3-70B aanzienlijk worden verbeterd. We identificeren ook hoe schalen van inferentie in boomzoekopdrachten de prestaties van het model zouden beïnvloeden. Onze code en gegevens zijn openbaar beschikbaar op https://github.com/thu-coai/SPaR.
English
Instruction-following is a fundamental capability of language models, requiring the model to recognize even the most subtle requirements in the instructions and accurately reflect them in its output. Such an ability is well-suited for and often optimized by preference learning. However, existing methods often directly sample multiple independent responses from the model when creating preference pairs. Such practice can introduce content variations irrelevant to whether the instruction is precisely followed (e.g., different expressions about the same semantic), interfering with the goal of teaching models to recognize the key differences that lead to improved instruction following. In light of this, we introduce SPaR, a self-play framework integrating tree-search self-refinement to yield valid and comparable preference pairs free from distractions. By playing against itself, an LLM employs a tree-search strategy to refine its previous responses with respect to the instruction while minimizing unnecessary variations. Our experiments show that a LLaMA3-8B model, trained over three iterations guided by SPaR, surpasses GPT-4-Turbo on the IFEval benchmark without losing general capabilities. Furthermore, SPaR demonstrates promising scalability and transferability, greatly enhancing models like GLM-4-9B and LLaMA3-70B. We also identify how inference scaling in tree search would impact model performance. Our code and data are publicly available at https://github.com/thu-coai/SPaR.
PDF182December 17, 2024