Entdeckung von Präferenzoptimierungsalgorithmen mit und für große Sprachmodelle
Discovering Preference Optimization Algorithms with and for Large Language Models
June 12, 2024
Autoren: Chris Lu, Samuel Holt, Claudio Fanconi, Alex J. Chan, Jakob Foerster, Mihaela van der Schaar, Robert Tjarko Lange
cs.AI
Zusammenfassung
Die Offline-Präferenzoptimierung ist eine Schlüsselmethode zur Verbesserung und Steuerung der Qualität von Large Language Model (LLM)-Ausgaben. Typischerweise wird die Präferenzoptimierung als eine offline überwachte Lernaufgabe unter Verwendung manuell erstellter konvexer Verlustfunktionen angegangen. Obwohl diese Methoden auf theoretischen Erkenntnissen beruhen, sind sie inhärent durch menschliche Kreativität eingeschränkt, wodurch der große Suchraum möglicher Verlustfunktionen unterexploriert bleibt. Diesem Problem begegnen wir, indem wir eine LLM-gesteuerte Zielentdeckung durchführen, um automatisch neue erstklassige Präferenzoptimierungsalgorithmen ohne (ExpertInnen-)Menscheneingriff zu entdecken. Konkret fordern wir iterativ eine LLM auf, neue Präferenzoptimierungsverlustfunktionen vorzuschlagen und umzusetzen, basierend auf zuvor evaluierten Leistungsmetriken. Dieser Prozess führt zur Entdeckung zuvor unbekannter und leistungsstarker Präferenzoptimierungsalgorithmen. Der leistungsstärkste davon wird als Entdeckte Präferenzoptimierung (DiscoPOP) bezeichnet, ein neuartiger Algorithmus, der logistische und exponentielle Verluste adaptiv kombiniert. Experimente zeigen die erstklassige Leistung von DiscoPOP und dessen erfolgreiche Übertragung auf zurückgehaltene Aufgaben.
English
Offline preference optimization is a key method for enhancing and controlling
the quality of Large Language Model (LLM) outputs. Typically, preference
optimization is approached as an offline supervised learning task using
manually-crafted convex loss functions. While these methods are based on
theoretical insights, they are inherently constrained by human creativity, so
the large search space of possible loss functions remains under explored. We
address this by performing LLM-driven objective discovery to automatically
discover new state-of-the-art preference optimization algorithms without
(expert) human intervention. Specifically, we iteratively prompt an LLM to
propose and implement new preference optimization loss functions based on
previously-evaluated performance metrics. This process leads to the discovery
of previously-unknown and performant preference optimization algorithms. The
best performing of these we call Discovered Preference Optimization (DiscoPOP),
a novel algorithm that adaptively blends logistic and exponential losses.
Experiments demonstrate the state-of-the-art performance of DiscoPOP and its
successful transfer to held-out tasks.Summary
AI-Generated Summary