Поиск алгоритмов оптимизации предпочтений с использованием и для больших языковых моделей
Discovering Preference Optimization Algorithms with and for Large Language Models
June 12, 2024
Авторы: Chris Lu, Samuel Holt, Claudio Fanconi, Alex J. Chan, Jakob Foerster, Mihaela van der Schaar, Robert Tjarko Lange
cs.AI
Аннотация
Оптимизация предпочтений в офлайн-режиме является ключевым методом для улучшения и контроля качества выводов больших языковых моделей (LLM). Обычно оптимизация предпочтений рассматривается как задача обучения с учителем в офлайн-режиме с использованием вручную созданных выпуклых функций потерь. Хотя эти методы основаны на теоретических идеях, они ограничены человеческим творчеством, поэтому большое пространство возможных функций потерь остается недостаточно изученным. Мы решаем эту проблему, выполняя обнаружение целей, основанное на LLM, для автоматического обнаружения новейших алгоритмов оптимизации предпочтений без (экспертного) вмешательства человека. Конкретно, мы итеративно предлагаем LLM предлагать и реализовывать новые функции потерь для оптимизации предпочтений на основе ранее оцененных метрик производительности. Этот процесс приводит к обнаружению ранее неизвестных и производительных алгоритмов оптимизации предпочтений. Лучший из них мы называем Обнаруженной Оптимизацией Предпочтений (DiscoPOP), новым алгоритмом, который адаптивно сочетает логистические и экспоненциальные потери. Эксперименты демонстрируют новейшую производительность DiscoPOP и его успешную передачу на удерживаемые задачи.
English
Offline preference optimization is a key method for enhancing and controlling
the quality of Large Language Model (LLM) outputs. Typically, preference
optimization is approached as an offline supervised learning task using
manually-crafted convex loss functions. While these methods are based on
theoretical insights, they are inherently constrained by human creativity, so
the large search space of possible loss functions remains under explored. We
address this by performing LLM-driven objective discovery to automatically
discover new state-of-the-art preference optimization algorithms without
(expert) human intervention. Specifically, we iteratively prompt an LLM to
propose and implement new preference optimization loss functions based on
previously-evaluated performance metrics. This process leads to the discovery
of previously-unknown and performant preference optimization algorithms. The
best performing of these we call Discovered Preference Optimization (DiscoPOP),
a novel algorithm that adaptively blends logistic and exponential losses.
Experiments demonstrate the state-of-the-art performance of DiscoPOP and its
successful transfer to held-out tasks.Summary
AI-Generated Summary