ChatPaper.aiChatPaper

Découverte d'algorithmes d'optimisation des préférences avec et pour les grands modèles de langage

Discovering Preference Optimization Algorithms with and for Large Language Models

June 12, 2024
Auteurs: Chris Lu, Samuel Holt, Claudio Fanconi, Alex J. Chan, Jakob Foerster, Mihaela van der Schaar, Robert Tjarko Lange
cs.AI

Résumé

L'optimisation des préférences hors ligne est une méthode clé pour améliorer et contrôler la qualité des sorties des modèles de langage de grande taille (LLM). Typiquement, l'optimisation des préférences est abordée comme une tâche d'apprentissage supervisé hors ligne utilisant des fonctions de perte convexes conçues manuellement. Bien que ces méthodes s'appuient sur des insights théoriques, elles sont intrinsèquement limitées par la créativité humaine, de sorte que le vaste espace de recherche des fonctions de perte possibles reste sous-exploré. Nous abordons ce problème en effectuant une découverte d'objectifs pilotée par un LLM pour découvrir automatiquement de nouveaux algorithmes d'optimisation des préférences de pointe sans intervention humaine (experte). Plus précisément, nous incitons itérativement un LLM à proposer et implémenter de nouvelles fonctions de perte pour l'optimisation des préférences basées sur des métriques de performance précédemment évaluées. Ce processus conduit à la découverte d'algorithmes d'optimisation des préférences performants et jusqu'alors inconnus. Le meilleur de ces algorithmes, que nous appelons Discovered Preference Optimization (DiscoPOP), est un nouvel algorithme qui combine de manière adaptative les pertes logistiques et exponentielles. Les expériences démontrent la performance de pointe de DiscoPOP et son transfert réussi à des tâches non vues.
English
Offline preference optimization is a key method for enhancing and controlling the quality of Large Language Model (LLM) outputs. Typically, preference optimization is approached as an offline supervised learning task using manually-crafted convex loss functions. While these methods are based on theoretical insights, they are inherently constrained by human creativity, so the large search space of possible loss functions remains under explored. We address this by performing LLM-driven objective discovery to automatically discover new state-of-the-art preference optimization algorithms without (expert) human intervention. Specifically, we iteratively prompt an LLM to propose and implement new preference optimization loss functions based on previously-evaluated performance metrics. This process leads to the discovery of previously-unknown and performant preference optimization algorithms. The best performing of these we call Discovered Preference Optimization (DiscoPOP), a novel algorithm that adaptively blends logistic and exponential losses. Experiments demonstrate the state-of-the-art performance of DiscoPOP and its successful transfer to held-out tasks.

Summary

AI-Generated Summary

PDF170December 8, 2024