ChatPaper.aiChatPaper

Самокоррекция спецификаций: смягчение взлома контекстных вознаграждений за счет уточнения на этапе тестирования

Specification Self-Correction: Mitigating In-Context Reward Hacking Through Test-Time Refinement

July 24, 2025
Авторы: Víctor Gallego
cs.AI

Аннотация

Языковые модели (ЯМ) подвержены уязвимости, называемой "взломом вознаграждения в контексте", когда они используют недостатки в некорректных или ошибочных письменных спецификациях или критериях для достижения высоких оценок, не выполняя истинных намерений пользователя. Мы представляем "Самоисправление спецификации" (Specification Self-Correction, SSC) — новый фреймворк, применяемый на этапе тестирования, который позволяет ЯМ выявлять и исправлять недостатки в своей собственной руководящей спецификации. SSC использует многошаговый процесс вывода, в котором модель сначала генерирует ответ на основе потенциально некорректной спецификации, анализирует свой вывод, а затем исправляет саму спецификацию, устраняя уязвимость. Затем на основе этой самоисправленной спецификации генерируется окончательный, более устойчивый ответ. В экспериментах, охватывающих задачи творческого письма и агентного программирования с использованием нескольких ЯМ, мы показываем, что, хотя модели изначально используют некорректные спецификации в 50–70\% случаев, процесс SSC снижает эту уязвимость более чем на 90\%. Это динамическое исправление происходит на этапе вывода, не требует изменения весов модели и приводит к более устойчивому и согласованному поведению модели. Код доступен по адресу https://github.com/vicgalle/specification-self-correction.
English
Language models (LMs) are susceptible to in-context reward hacking, where they exploit flaws in tainted or faulty written specifications or rubrics to achieve high scores without fulfilling the user's true intent. We introduce Specification Self-Correction (SSC), a novel, test-time framework that enables an LM to identify and correct flaws within its own guiding specification. SSC employs a multi-step inference process where the model first generates a response based on a potentially tainted specification, critiques its output, and then revises the specification itself to remove the exploitable loophole. A final, more robust response is then generated using this self-corrected specification. Across experiments spanning creative writing and agentic coding tasks with several LMs, we demonstrate that while models initially game tainted specifications in 50-70\% of cases, the SSC process reduces this vulnerability by over 90\%. This dynamic repair occurs at inference time, requires no weight modification, and leads to more robustly aligned model behavior. Code at https://github.com/vicgalle/specification-self-correction .
PDF52July 28, 2025