ChatPaper.aiChatPaper

Scoperta di Algoritmi di Ottimizzazione delle Preferenze con e per Modelli Linguistici di Grandi Dimensioni

Discovering Preference Optimization Algorithms with and for Large Language Models

June 12, 2024
Autori: Chris Lu, Samuel Holt, Claudio Fanconi, Alex J. Chan, Jakob Foerster, Mihaela van der Schaar, Robert Tjarko Lange
cs.AI

Abstract

L'ottimizzazione offline delle preferenze è un metodo chiave per migliorare e controllare la qualità degli output dei Large Language Model (LLM). Tipicamente, l'ottimizzazione delle preferenze viene affrontata come un'attività di apprendimento supervisionato offline utilizzando funzioni di perdita convesse create manualmente. Sebbene questi metodi si basino su intuizioni teoriche, sono intrinsecamente limitati dalla creatività umana, quindi il vasto spazio di ricerca delle possibili funzioni di perdita rimane poco esplorato. Affrontiamo questo problema eseguendo la scoperta automatica di obiettivi guidata da LLM per individuare nuovi algoritmi di ottimizzazione delle preferenze all'avanguardia senza l'intervento (esperto) umano. Nello specifico, iterativamente sollecitiamo un LLM a proporre e implementare nuove funzioni di perdita per l'ottimizzazione delle preferenze basandoci su metriche di prestazione precedentemente valutate. Questo processo porta alla scoperta di algoritmi di ottimizzazione delle preferenze precedentemente sconosciuti e performanti. Il migliore tra questi lo chiamiamo Discovered Preference Optimization (DiscoPOP), un nuovo algoritmo che combina in modo adattivo le perdite logistiche ed esponenziali. Gli esperimenti dimostrano le prestazioni all'avanguardia di DiscoPOP e il suo trasferimento efficace a task non visti durante l'addestramento.
English
Offline preference optimization is a key method for enhancing and controlling the quality of Large Language Model (LLM) outputs. Typically, preference optimization is approached as an offline supervised learning task using manually-crafted convex loss functions. While these methods are based on theoretical insights, they are inherently constrained by human creativity, so the large search space of possible loss functions remains under explored. We address this by performing LLM-driven objective discovery to automatically discover new state-of-the-art preference optimization algorithms without (expert) human intervention. Specifically, we iteratively prompt an LLM to propose and implement new preference optimization loss functions based on previously-evaluated performance metrics. This process leads to the discovery of previously-unknown and performant preference optimization algorithms. The best performing of these we call Discovered Preference Optimization (DiscoPOP), a novel algorithm that adaptively blends logistic and exponential losses. Experiments demonstrate the state-of-the-art performance of DiscoPOP and its successful transfer to held-out tasks.
PDF160December 8, 2024