Het Ontdekken van Voorkeursoptimalisatie-algoritmen met en voor Grote Taalmodellen
Discovering Preference Optimization Algorithms with and for Large Language Models
June 12, 2024
Auteurs: Chris Lu, Samuel Holt, Claudio Fanconi, Alex J. Chan, Jakob Foerster, Mihaela van der Schaar, Robert Tjarko Lange
cs.AI
Samenvatting
Offline voorkeursoptimalisatie is een belangrijke methode om de kwaliteit van Large Language Model (LLM)-outputs te verbeteren en te beheersen. Doorgaans wordt voorkeursoptimalisatie benaderd als een offline supervised learning-taak met behulp van handmatig ontworpen convexe verliesfuncties. Hoewel deze methoden gebaseerd zijn op theoretische inzichten, worden ze inherent beperkt door menselijke creativiteit, waardoor de grote zoekruimte van mogelijke verliesfuncties onderbelicht blijft. Wij pakken dit aan door LLM-gestuurde objectiefontdekking uit te voeren om automatisch nieuwe state-of-the-art voorkeursoptimalisatie-algoritmen te ontdekken zonder (expert)menselijke tussenkomst. Specifiek vragen we iteratief een LLM om nieuwe voorkeursoptimalisatie-verliesfuncties voor te stellen en te implementeren op basis van eerder geëvalueerde prestatiemetingen. Dit proces leidt tot de ontdekking van voorheen onbekende en hoogpresterende voorkeursoptimalisatie-algoritmen. Het best presterende algoritme noemen we Discovered Preference Optimization (DiscoPOP), een nieuw algoritme dat adaptief logistische en exponentiële verliezen combineert. Experimenten tonen de state-of-the-art prestaties van DiscoPOP aan en het succesvolle gebruik ervan bij niet-getrainde taken.
English
Offline preference optimization is a key method for enhancing and controlling
the quality of Large Language Model (LLM) outputs. Typically, preference
optimization is approached as an offline supervised learning task using
manually-crafted convex loss functions. While these methods are based on
theoretical insights, they are inherently constrained by human creativity, so
the large search space of possible loss functions remains under explored. We
address this by performing LLM-driven objective discovery to automatically
discover new state-of-the-art preference optimization algorithms without
(expert) human intervention. Specifically, we iteratively prompt an LLM to
propose and implement new preference optimization loss functions based on
previously-evaluated performance metrics. This process leads to the discovery
of previously-unknown and performant preference optimization algorithms. The
best performing of these we call Discovered Preference Optimization (DiscoPOP),
a novel algorithm that adaptively blends logistic and exponential losses.
Experiments demonstrate the state-of-the-art performance of DiscoPOP and its
successful transfer to held-out tasks.