ChatPaper.aiChatPaper

Tuna: Instructieafstemming met behulp van feedback van grote taalmodellen

Tuna: Instruction Tuning using Feedback from Large Language Models

October 20, 2023
Auteurs: Haoran Li, Yiran Liu, Xingxing Zhang, Wei Lu, Furu Wei
cs.AI

Samenvatting

Instruction tuning van open-source grote taalmodellen (LLMs) zoals LLaMA, met behulp van directe uitvoer van krachtigere LLMs zoals Instruct-GPT en GPT-4, heeft zich bewezen als een kosteneffectieve manier om modelgedrag af te stemmen op menselijke voorkeuren. Het instruction-tuned model heeft echter slechts één reactie per instructie gezien, zonder kennis van mogelijk betere reacties. In dit artikel stellen we voor om een instruction-tuned LLM te finetunen met behulp van onze nieuwe probabilistische ranking en contextuele ranking benaderingen om de kans op het genereren van betere reacties te vergroten. Probabilistische ranking stelt het instruction-tuned model in staat om de relatieve rangschikking van hoogwaardige en laagwaardige reacties van het leraren-LLM over te nemen. Aan de andere kant stelt leren met contextuele ranking het model in staat om zijn eigen reactieverdeling te verfijnen met behulp van het contextuele begripsvermogen van sterkere LLMs. Bovendien passen we probabilistische ranking en contextuele ranking sequentieel toe op het instruction-tuned LLM. Het resulterende model, dat we Tuna noemen, verbetert consistent de prestaties op Super Natural Instructions (119 testtaken), LMentry (25 testtaken), Vicuna QA, en kan zelfs betere resultaten behalen dan verschillende sterke reinforcement learning-baselines. Onze code en gegevens zijn beschikbaar op https://github.com/microsoft/LMOps.
English
Instruction tuning of open-source large language models (LLMs) like LLaMA, using direct outputs from more powerful LLMs such as Instruct-GPT and GPT-4, has proven to be a cost-effective way to align model behaviors with human preferences. However, the instruction-tuned model has only seen one response per instruction, lacking the knowledge of potentially better responses. In this paper, we propose finetuning an instruction-tuned LLM using our novel probabilistic ranking and contextual ranking approaches to increase the likelihood of generating better responses. Probabilistic ranking enables the instruction-tuned model to inherit the relative rankings of high-quality and low-quality responses from the teacher LLM. On the other hand, learning with contextual ranking allows the model to refine its own response distribution using the contextual understanding ability of stronger LLMs. Furthermore, we apply probabilistic ranking and contextual ranking sequentially to the instruction-tuned LLM. The resulting model, which we call Tuna, consistently improves the performance on Super Natural Instructions (119 test tasks), LMentry (25 test tasks), Vicuna QA, and can even obtain better results than several strong reinforcement learning baselines. Our code and data are available at https://github.com/microsoft/LMOps.
PDF101February 8, 2026