ChatPaper.aiChatPaper

도움인가, 통제인가? 보상 모델 앙상블은 보상 해킹을 완화하지만 완전히 제거하지는 못한다

Helping or Herding? Reward Model Ensembles Mitigate but do not Eliminate Reward Hacking

December 14, 2023
저자: Jacob Eisenstein, Chirag Nagpal, Alekh Agarwal, Ahmad Beirami, Alex D'Amour, DJ Dvijotham, Adam Fisch, Katherine Heller, Stephen Pfohl, Deepak Ramachandran, Peter Shaw, Jonathan Berant
cs.AI

초록

보상 모델은 언어 모델 애플리케이션을 인간의 선호도에 맞추는 데 핵심적인 역할을 합니다. 그러나 이러한 설정은 언어 모델이 높은 추정 보상을 달성하기 위해 보상 모델의 오류를 악용하도록 유도하는데, 이는 종종 '보상 해킹(reward hacking)'이라고 불리는 현상입니다. 이를 완화하기 위한 자연스러운 접근 방식은 보상 모델 앙상블을 훈련시켜 모델 출력을 집계함으로써 더 견고한 보상 추정치를 얻는 것입니다. 우리는 보상 앙상블을 훈련 시(강화 학습을 통해)와 추론 시(재순위를 통해) 정렬에 적용하는 방법을 탐구합니다. 첫째, 보상 모델이 과소 지정(underspecified)되어 있음을 보입니다: 분포 내에서 유사한 성능을 보이는 보상 모델도 분포 이동이 발생할 때 정렬에 사용되면 매우 다른 보상을 산출할 수 있습니다. 둘째, 이러한 과소 지정은 과최적화(overoptimization)를 초래하는데, 하나의 보상 모델에 맞춰 정렬하더라도 동일한 데이터로 훈련된 다른 보상 모델로 측정한 보상이 개선되지 않습니다. 셋째, 보상 앙상블을 사용하면 과최적화가 완화되며, 사전 훈련 시드(pretraining seeds)에 따라 달라지는 앙상블은 미세 조정 시드(fine-tuning seeds)만 다른 앙상블보다 더 나은 일반화 성능을 보이며, 둘 다 개별 보상 모델을 능가합니다. 그러나 사전 훈련된 보상 앙상블도 보상 해킹을 완전히 제거하지는 못합니다: 우리는 앙상블 내 모든 보상 모델이 유사한 오류 패턴을 보이기 때문에 앙상블링으로 완화되지 않는 여러 질적 보상 해킹 현상을 보여줍니다.
English
Reward models play a key role in aligning language model applications towards human preferences. However, this setup creates an incentive for the language model to exploit errors in the reward model to achieve high estimated reward, a phenomenon often termed reward hacking. A natural mitigation is to train an ensemble of reward models, aggregating over model outputs to obtain a more robust reward estimate. We explore the application of reward ensembles to alignment at both training time (through reinforcement learning) and inference time (through reranking). First, we show that reward models are underspecified: reward models that perform similarly in-distribution can yield very different rewards when used in alignment, due to distribution shift. Second, underspecification results in overoptimization, where alignment to one reward model does not improve reward as measured by another reward model trained on the same data. Third, overoptimization is mitigated by the use of reward ensembles, and ensembles that vary by their pretraining seeds lead to better generalization than ensembles that differ only by their fine-tuning seeds, with both outperforming individual reward models. However, even pretrain reward ensembles do not eliminate reward hacking: we show several qualitative reward hacking phenomena that are not mitigated by ensembling because all reward models in the ensemble exhibit similar error patterns.
PDF111December 15, 2024