Descubriendo algoritmos de optimización de preferencias con y para modelos de lenguaje a gran escala
Discovering Preference Optimization Algorithms with and for Large Language Models
June 12, 2024
Autores: Chris Lu, Samuel Holt, Claudio Fanconi, Alex J. Chan, Jakob Foerster, Mihaela van der Schaar, Robert Tjarko Lange
cs.AI
Resumen
La optimización de preferencias offline es un método clave para mejorar y controlar la calidad de las salidas de los Modelos de Lenguaje a Gran Escala (LLM, por sus siglas en inglés). Normalmente, la optimización de preferencias se aborda como una tarea de aprendizaje supervisado offline utilizando funciones de pérdida convexas diseñadas manualmente. Aunque estos métodos se basan en fundamentos teóricos, están intrínsecamente limitados por la creatividad humana, por lo que el amplio espacio de búsqueda de posibles funciones de pérdida permanece poco explorado. Nosotros abordamos este problema realizando descubrimiento de objetivos impulsado por LLM para descubrir automáticamente nuevos algoritmos de optimización de preferencias de vanguardia sin intervención humana (experta). Específicamente, iterativamente solicitamos a un LLM que proponga e implemente nuevas funciones de pérdida para la optimización de preferencias basándose en métricas de rendimiento previamente evaluadas. Este proceso conduce al descubrimiento de algoritmos de optimización de preferencias desconocidos y de alto rendimiento. El mejor de estos lo llamamos Optimización de Preferencias Descubierta (DiscoPOP), un algoritmo novedoso que combina de manera adaptativa pérdidas logísticas y exponenciales. Los experimentos demuestran el rendimiento de vanguardia de DiscoPOP y su transferencia exitosa a tareas no vistas.
English
Offline preference optimization is a key method for enhancing and controlling
the quality of Large Language Model (LLM) outputs. Typically, preference
optimization is approached as an offline supervised learning task using
manually-crafted convex loss functions. While these methods are based on
theoretical insights, they are inherently constrained by human creativity, so
the large search space of possible loss functions remains under explored. We
address this by performing LLM-driven objective discovery to automatically
discover new state-of-the-art preference optimization algorithms without
(expert) human intervention. Specifically, we iteratively prompt an LLM to
propose and implement new preference optimization loss functions based on
previously-evaluated performance metrics. This process leads to the discovery
of previously-unknown and performant preference optimization algorithms. The
best performing of these we call Discovered Preference Optimization (DiscoPOP),
a novel algorithm that adaptively blends logistic and exponential losses.
Experiments demonstrate the state-of-the-art performance of DiscoPOP and its
successful transfer to held-out tasks.Summary
AI-Generated Summary