Descobrindo Algoritmos de Otimização de Preferências com e para Modelos de Linguagem de Grande Escala
Discovering Preference Optimization Algorithms with and for Large Language Models
June 12, 2024
Autores: Chris Lu, Samuel Holt, Claudio Fanconi, Alex J. Chan, Jakob Foerster, Mihaela van der Schaar, Robert Tjarko Lange
cs.AI
Resumo
A otimização de preferências offline é um método fundamental para aprimorar e controlar a qualidade das saídas de modelos de linguagem de grande escala (LLM, na sigla em inglês). Geralmente, a otimização de preferências é abordada como uma tarefa de aprendizado supervisionado offline, utilizando funções de perda convexas criadas manualmente. Embora esses métodos sejam baseados em insights teóricos, eles são intrinsecamente limitados pela criatividade humana, de modo que o amplo espaço de busca de possíveis funções de perda permanece pouco explorado. Nós abordamos essa questão realizando a descoberta de objetivos impulsionada por LLM para descobrir automaticamente novos algoritmos de otimização de preferências de última geração sem intervenção humana (especializada). Especificamente, iterativamente solicitamos que um LLM proponha e implemente novas funções de perda para otimização de preferências com base em métricas de desempenho previamente avaliadas. Esse processo leva à descoberta de algoritmos de otimização de preferências desconhecidos e de alto desempenho. O melhor desempenho entre esses algoritmos nós chamamos de Otimização de Preferências Descoberta (DiscoPOP, na sigla em inglês), um algoritmo novo que combina de forma adaptativa perdas logísticas e exponenciais. Experimentos demonstram o desempenho de última geração do DiscoPOP e sua transferência bem-sucedida para tarefas não vistas durante o treinamento.
English
Offline preference optimization is a key method for enhancing and controlling
the quality of Large Language Model (LLM) outputs. Typically, preference
optimization is approached as an offline supervised learning task using
manually-crafted convex loss functions. While these methods are based on
theoretical insights, they are inherently constrained by human creativity, so
the large search space of possible loss functions remains under explored. We
address this by performing LLM-driven objective discovery to automatically
discover new state-of-the-art preference optimization algorithms without
(expert) human intervention. Specifically, we iteratively prompt an LLM to
propose and implement new preference optimization loss functions based on
previously-evaluated performance metrics. This process leads to the discovery
of previously-unknown and performant preference optimization algorithms. The
best performing of these we call Discovered Preference Optimization (DiscoPOP),
a novel algorithm that adaptively blends logistic and exponential losses.
Experiments demonstrate the state-of-the-art performance of DiscoPOP and its
successful transfer to held-out tasks.