ChatPaper.aiChatPaper

Tijdelijke Zelfbelonende Taalmodellen: Ontkoppeling van Gekozen-Geweigerd via Verleden-Toekomst

Temporal Self-Rewarding Language Models: Decoupling Chosen-Rejected via Past-Future

August 8, 2025
Auteurs: Yidong Wang, Xin Wang, Cunxiang Wang, Junfeng Fang, Qiufeng Wang, Jianing Chu, Xuran Meng, Shuxun Yang, Libo Qin, Yue Zhang, Wei Ye, Shikun Zhang
cs.AI

Samenvatting

Self-Rewarding Language Models introduceren een architectuur waarin de Large Language Models (LLM's) zowel reacties genereren als hun eigen uitvoer evalueren via LLM-as-a-Judge prompting, waardoor hun generatieve capaciteiten dynamisch worden verbeterd door middel van iteratieve Direct Preference Optimization (DPO). Onze analyse onthult echter een kritische beperking in bestaande Self-Rewarding paradigma's: de gesynchroniseerde verbetering van gekozen en afgewezen reacties verkleint geleidelijk het representatieverschil tussen contrasterende voorbeelden, wat effectief voorkeursleren ondermijnt. Wij stellen Temporal Self-Rewarding Language Models voor, die strategisch eerdere, huidige en toekomstige modelgeneraties coördineren om leer signalen te behouden. Ons tweefasen framework introduceert: (1) Anchored Rejection - het vastzetten van afgewezen reacties met behulp van de uitvoer van het initiële model uit het verleden, en (2) Future-Guided Chosen - het dynamisch samenstellen van gekozen voorbeelden met behulp van voorspellingen van de volgende generatie modellen. Uitgebreide experimenten over drie modelfamilies (Llama, Qwen, Mistral) en verschillende modelgroottes (Llama3B/8B/70B) tonen significante verbeteringen aan wanneer getraind met onze methode in vergelijking met Self-Rewarding met dezelfde rekenbronnen. Zo bereikt Llama3.1-8B bijvoorbeeld een win rate van 29,44 op AlpacaEval 2.0 met onze methode, wat de Self-Rewarding baseline (19,69) met 9,75 overtreft. Opmerkelijk is dat onze methode ook superieure out-of-distribution generalisatie laat zien over wiskundig redeneren (GSM8K), kennisgebaseerde QA (ARC, TruthfulQA) en codegeneratie (HumanEval) taken, ook al verzamelen we dergelijke trainingsdata niet specifiek.
English
Self-Rewarding Language Models propose an architecture in which the Large Language Models(LLMs) both generates responses and evaluates its own outputs via LLM-as-a-Judge prompting, dynamically improving its generative capabilities through iterative Direct Preference Optimization (DPO). However, our analysis reveals a critical limitation in existing Self-Rewarding paradigms: the synchronized improvement of chosen and rejected responses progressively narrows the representational difference between contrasting samples, undermining effective preference learning. We propose Temporal Self-Rewarding Language Models that strategically coordinate past, present, and future model generations to sustain learning signals. Our dual-phase framework introduces: (1) Anchored Rejection - fixing rejected responses using the past initial model's outputs and (2) Future-Guided Chosen - dynamically curating chosen samples using next-generation model predictions. Extensive experiments across three model families (Llama, Qwen, Mistral) and different model sizes (Llama3B/8B/70B) demonstrate significant improvements when trained with our method compared to Self-Rewarding using same computation resources. For example, Llama3.1-8B reaches a 29.44 win rate on AlpacaEval 2.0 with our method, outperforming the Self-Rewarding baseline (19.69) by 9.75. Notably, our method also demonstrates superior out-of-distribution generalization across mathematical reasoning (GSM8K), knowledge-based QA (ARC, TruthfulQA), and code generation (HumanEval) tasks, even though we do not specifically collect such training data.
PDF152August 12, 2025