ChatPaper.aiChatPaper

Les modèles dédiés de feedback et d'édition permettent une mise à l'échelle au moment de l'inférence pour des tâches ouvertes dans des domaines généraux.

Dedicated Feedback and Edit Models Empower Inference-Time Scaling for Open-Ended General-Domain Tasks

March 6, 2025
Auteurs: Zhilin Wang, Jiaqi Zeng, Olivier Delalleau, Daniel Egert, Ellie Evans, Hoo-Chang Shin, Felipe Soares, Yi Dong, Oleksii Kuchaiev
cs.AI

Résumé

L'optimisation à l'inférence a été cruciale pour le succès des modèles récents tels qu'OpenAI o1 et DeepSeek R1. Cependant, de nombreuses techniques utilisées pour entraîner les modèles en vue de cette optimisation nécessitent que les tâches aient des réponses pouvant être vérifiées, limitant ainsi leur application à des domaines tels que les mathématiques, la programmation et le raisonnement logique. Nous nous inspirons de la manière dont les humains font des premières tentatives, demandent des retours détaillés à d'autres et apportent des améliorations basées sur ces retours dans un large éventail de tâches ouvertes. À cette fin, nous collectons des données et entraînons des modèles dédiés de Feedback et d'Édition capables de réaliser une optimisation à l'inférence pour des tâches générales et ouvertes. Dans notre configuration, un modèle génère une réponse initiale, qui reçoit des commentaires d'un deuxième modèle, lesquels sont ensuite utilisés par un troisième modèle pour éditer la réponse. Nous montrons que les performances sur Arena Hard, un benchmark fortement prédictif du Chatbot Arena Elo, peuvent être améliorées en augmentant le nombre de brouillons de réponses initiales, de retours efficaces et de réponses éditées. Lorsqu'elle est optimisée, notre configuration basée sur des modèles de 70B de la famille Llama 3 peut atteindre une performance de pointe sur Arena Hard avec un score de 92,7 au 5 mars 2025, surpassant OpenAI o1-preview-2024-09-12 avec 90,4 et DeepSeek R1 avec 92,3.
English
Inference-Time Scaling has been critical to the success of recent models such as OpenAI o1 and DeepSeek R1. However, many techniques used to train models for inference-time scaling require tasks to have answers that can be verified, limiting their application to domains such as math, coding and logical reasoning. We take inspiration from how humans make first attempts, ask for detailed feedback from others and make improvements based on such feedback across a wide spectrum of open-ended endeavors. To this end, we collect data for and train dedicated Feedback and Edit Models that are capable of performing inference-time scaling for open-ended general-domain tasks. In our setup, one model generates an initial response, which are given feedback by a second model, that are then used by a third model to edit the response. We show that performance on Arena Hard, a benchmark strongly predictive of Chatbot Arena Elo can be boosted by scaling the number of initial response drafts, effective feedback and edited responses. When scaled optimally, our setup based on 70B models from the Llama 3 family can reach SoTA performance on Arena Hard at 92.7 as of 5 Mar 2025, surpassing OpenAI o1-preview-2024-09-12 with 90.4 and DeepSeek R1 with 92.3.

Summary

AI-Generated Summary

PDF74March 7, 2025