ChatPaper.aiChatPaper

Dedizierte Feedback- und Edit-Modelle ermöglichen die Skalierung zur Inferenzzeit für offene Aufgaben in allgemeinen Domänen.

Dedicated Feedback and Edit Models Empower Inference-Time Scaling for Open-Ended General-Domain Tasks

March 6, 2025
Autoren: Zhilin Wang, Jiaqi Zeng, Olivier Delalleau, Daniel Egert, Ellie Evans, Hoo-Chang Shin, Felipe Soares, Yi Dong, Oleksii Kuchaiev
cs.AI

Zusammenfassung

Inference-Time Scaling war entscheidend für den Erfolg aktueller Modelle wie OpenAI o1 und DeepSeek R1. Viele Techniken, die zum Trainieren von Modellen für Inference-Time Scaling verwendet werden, erfordern jedoch, dass Aufgaben überprüfbare Antworten haben, was ihre Anwendung auf Bereiche wie Mathematik, Programmierung und logisches Denken beschränkt. Wir lassen uns davon inspirieren, wie Menschen erste Versuche unternehmen, detailliertes Feedback von anderen einholen und auf der Grundlage solcher Rückmeldungen Verbesserungen in einer Vielzahl offener Aufgaben vornehmen. Zu diesem Zweck sammeln wir Daten und trainieren spezialisierte Feedback- und Edit-Modelle, die in der Lage sind, Inference-Time Scaling für offene, allgemeine Aufgaben durchzuführen. In unserem Setup generiert ein Modell eine erste Antwort, die von einem zweiten Modell Feedback erhält, das dann von einem dritten Modell verwendet wird, um die Antwort zu bearbeiten. Wir zeigen, dass die Leistung auf Arena Hard, einem Benchmark, der stark den Chatbot Arena Elo vorhersagt, durch die Skalierung der Anzahl von Entwürfen für erste Antworten, effektivem Feedback und bearbeiteten Antworten gesteigert werden kann. Bei optimaler Skalierung kann unser Setup, das auf 70B-Modellen der Llama-3-Familie basiert, Stand 5. März 2025 eine Spitzenleistung von 92,7 auf Arena Hard erreichen und damit OpenAI o1-preview-2024-09-12 mit 90,4 und DeepSeek R1 mit 92,3 übertreffen.
English
Inference-Time Scaling has been critical to the success of recent models such as OpenAI o1 and DeepSeek R1. However, many techniques used to train models for inference-time scaling require tasks to have answers that can be verified, limiting their application to domains such as math, coding and logical reasoning. We take inspiration from how humans make first attempts, ask for detailed feedback from others and make improvements based on such feedback across a wide spectrum of open-ended endeavors. To this end, we collect data for and train dedicated Feedback and Edit Models that are capable of performing inference-time scaling for open-ended general-domain tasks. In our setup, one model generates an initial response, which are given feedback by a second model, that are then used by a third model to edit the response. We show that performance on Arena Hard, a benchmark strongly predictive of Chatbot Arena Elo can be boosted by scaling the number of initial response drafts, effective feedback and edited responses. When scaled optimally, our setup based on 70B models from the Llama 3 family can reach SoTA performance on Arena Hard at 92.7 as of 5 Mar 2025, surpassing OpenAI o1-preview-2024-09-12 with 90.4 and DeepSeek R1 with 92.3.

Summary

AI-Generated Summary

PDF74March 7, 2025