ChatPaper.aiChatPaper

SAHOO: Защищённое согласование для задач оптимизации высокого порядка в рекурсивном самосовершенствовании

SAHOO: Safeguarded Alignment for High-Order Optimization Objectives in Recursive Self-Improvement

March 6, 2026
Авторы: Subramanyam Sahoo, Aman Chadha, Vinija Jain, Divya Chaudhary
cs.AI

Аннотация

Рефлексивное самоулучшение переходит от теории к практике: современные системы способны критиковать, пересматривать и оценивать собственные результаты, однако итеративная самомодификация сопряжена с риском незаметного дрейфа согласованности. Мы представляем SAHOO — практическую систему мониторинга и контроля дрейфа с помощью трех механизмов: (i) Индекс дрейфа целей (GDI), обученный детектор, объединяющий семантические, лексические, структурные и дистрибутивные метрики; (ii) проверки сохранения ограничений, обеспечивающие соблюдение критически важных инвариантов, таких как синтаксическая корректность и отсутствие галлюцинаций; и (iii) количественную оценку риска регрессии для выявления циклов улучшения, отменяющих предыдущие достижения. В ходе 189 тестов по генерации кода, математическим рассуждениям и достоверности SAHOO демонстрирует значительный рост качества, включая улучшение на 18,3% в задачах программирования и на 16,8% в логических задачах, при сохранении ограничений в двух доменах и минимальном уровне нарушений в проверке истинности. Пороговые значения калибруются на небольшой валидационной выборке из 18 задач в трёх циклах. Мы также строим границу компромисса между возможностями и согласованностью, показывая эффективные начальные циклы улучшения, но растущие затраты на согласованность на поздних этапах, а также выявляя доменно-специфические противоречия, такие как беглость против фактической точности. Таким образом, SAHOO делает сохранение согласованности в процессе рефлексивного самоулучшения измеримым, внедряемым и систематически проверяемым в масштабе.
English
Recursive self-improvement is moving from theory to practice: modern systems can critique, revise, and evaluate their own outputs, yet iterative self-modification risks subtle alignment drift. We introduce SAHOO, a practical framework to monitor and control drift through three safeguards: (i) the Goal Drift Index (GDI), a learned multi-signal detector combining semantic, lexical, structural, and distributional measures; (ii) constraint preservation checks that enforce safety-critical invariants such as syntactic correctness and non-hallucination; and (iii) regression-risk quantification to flag improvement cycles that undo prior gains. Across 189 tasks in code generation, mathematical reasoning, and truthfulness, SAHOO produces substantial quality gains, including 18.3 percent improvement in code tasks and 16.8 percent in reasoning, while preserving constraints in two domains and maintaining low violations in truthfulness. Thresholds are calibrated on a small validation set of 18 tasks across three cycles. We further map the capability-alignment frontier, showing efficient early improvement cycles but rising alignment costs later and exposing domain-specific tensions such as fluency versus factuality. SAHOO therefore makes alignment preservation during recursive self-improvement measurable, deployable, and systematically validated at scale.
PDF11March 12, 2026