Надежное моделирование вознаграждений с использованием причинных критериев
Robust Reward Modeling via Causal Rubrics
June 19, 2025
Авторы: Pragya Srivastava, Harman Singh, Rahul Madhavan, Gandharv Patil, Sravanti Addepalli, Arun Suggala, Rengarajan Aravamudhan, Soumya Sharma, Anirban Laha, Aravindan Raghuveer, Karthikeyan Shanmugam, Doina Precup
cs.AI
Аннотация
Модели вознаграждения (RMs) играют ключевую роль в согласовании крупных языковых моделей (LLMs) с помощью обратной связи от человека, однако они часто страдают от проблемы "взлома вознаграждения". Такие модели склонны фиксироваться на поверхностных или ложных атрибутах, таких как длина ответа или его форматирование, ошибочно принимая эти признаки, выученные из корреляций в обучающих данных, за истинные причинные факторы качества (например, фактическая точность, релевантность). Это происходит потому, что стандартные цели обучения не способны разделить эти факторы, что приводит к хрупким моделям вознаграждения и несогласованным политикам. Мы представляем Crome (Causally Robust Reward Modeling) — новую структуру, основанную на явной причинной модели, предназначенную для смягчения проблемы взлома вознаграждения. Crome использует следующие синтетические целевые расширения в процессе обучения: (1) Причинные расширения — пары, различающиеся по конкретным причинным атрибутам, чтобы обеспечить чувствительность к каждому причинному атрибуту в отдельности, и (2) Нейтральные расширения — пары с одинаковыми метками, варьирующиеся в основном по ложным атрибутам, чтобы обеспечить инвариантность к ложным атрибутам. Примечательно, что наши расширения создаются без какого-либо знания о ложных факторах, только через вмешательства в ответы вдоль причинных критериев, которые определяются путем запросов к оракулу LLM. Эмпирически Crome значительно превосходит стандартные базовые модели на RewardBench, улучшая среднюю точность до 5,4% и достигая прироста до 13,2% и 7,2% в отдельных категориях. Робастность Crome дополнительно подтверждается стабильными улучшениями в настройке Best-of-N при увеличении N на различных тестах, включая популярный RewardBench (охватывающий задачи чата, сложного чата, безопасности и рассуждений), ориентированный на безопасность WildGuardTest и специализированный на рассуждениях GSM8k.
English
Reward models (RMs) are fundamental to aligning Large Language Models (LLMs)
via human feedback, yet they often suffer from reward hacking. They tend to
latch on to superficial or spurious attributes, such as response length or
formatting, mistaking these cues learned from correlations in training data for
the true causal drivers of quality (e.g., factuality, relevance). This occurs
because standard training objectives struggle to disentangle these factors,
leading to brittle RMs and misaligned policies. We introduce Crome (Causally
Robust Reward Modeling), a novel framework grounded in an explicit causal model
designed to mitigate reward hacking. Crome employs the following synthetic
targeted augmentations during training: (1) Causal Augmentations, which are
pairs that differ along specific causal attributes, to enforce sensitivity
along each causal attribute individually, and (2) Neutral Augmentations, which
are tie-label pairs varying primarily in spurious attributes, to enforce
invariance along spurious attributes. Notably, our augmentations are produced
without any knowledge of spurious factors, via answer interventions only along
causal rubrics, that are identified by querying an oracle LLM. Empirically,
Crome significantly outperforms standard baselines on RewardBench, improving
average accuracy by up to 5.4% and achieving gains of up to 13.2% and 7.2% in
specific categories. The robustness of Crome is further testified by the
consistent gains obtained in a Best-of-N inference setting across increasing N,
across various benchmarks, including the popular RewardBench (covering chat,
chat-hard, safety, and reasoning tasks), the safety-focused WildGuardTest, and
the reasoning-specific GSM8k.