大規模言語モデルを用いた、および大規模言語モデルのための選好最適化アルゴリズムの発見
Discovering Preference Optimization Algorithms with and for Large Language Models
June 12, 2024
著者: Chris Lu, Samuel Holt, Claudio Fanconi, Alex J. Chan, Jakob Foerster, Mihaela van der Schaar, Robert Tjarko Lange
cs.AI
要旨
オフライン選好最適化は、大規模言語モデル(LLM)の出力品質を向上させ制御するための重要な手法である。通常、選好最適化は、手動で設計された凸損失関数を用いたオフラインの教師あり学習タスクとしてアプローチされる。これらの手法は理論的洞察に基づいているが、人間の創造力に本質的に制約されるため、可能な損失関数の広大な探索空間は未だ十分に探求されていない。我々はこの問題に対処するため、LLMを駆使した目的関数発見を行い、専門家の介入なしに新しい最先端の選好最適化アルゴリズムを自動的に発見する。具体的には、LLMに対して反復的にプロンプトを与え、以前に評価された性能指標に基づいて新しい選好最適化損失関数を提案し、実装させる。このプロセスを通じて、これまで知られていなかった高性能な選好最適化アルゴリズムが発見される。その中で最も優れた性能を示すものを「Discovered Preference Optimization (DiscoPOP)」と名付け、これはロジスティック損失と指数損失を適応的にブレンドする新規のアルゴリズムである。実験により、DiscoPOPの最先端性能と、保留タスクへの成功した転移が実証された。
English
Offline preference optimization is a key method for enhancing and controlling
the quality of Large Language Model (LLM) outputs. Typically, preference
optimization is approached as an offline supervised learning task using
manually-crafted convex loss functions. While these methods are based on
theoretical insights, they are inherently constrained by human creativity, so
the large search space of possible loss functions remains under explored. We
address this by performing LLM-driven objective discovery to automatically
discover new state-of-the-art preference optimization algorithms without
(expert) human intervention. Specifically, we iteratively prompt an LLM to
propose and implement new preference optimization loss functions based on
previously-evaluated performance metrics. This process leads to the discovery
of previously-unknown and performant preference optimization algorithms. The
best performing of these we call Discovered Preference Optimization (DiscoPOP),
a novel algorithm that adaptively blends logistic and exponential losses.
Experiments demonstrate the state-of-the-art performance of DiscoPOP and its
successful transfer to held-out tasks.