ChatPaper.aiChatPaper

SAHOO: Alinhamento Protegido para Objetivos de Otimização de Alta Ordem na Autossuperação Recursiva

SAHOO: Safeguarded Alignment for High-Order Optimization Objectives in Recursive Self-Improvement

March 6, 2026
Autores: Subramanyam Sahoo, Aman Chadha, Vinija Jain, Divya Chaudhary
cs.AI

Resumo

A autorrecursividade está a transitar da teoria para a prática: os sistemas modernos já conseguem criticar, rever e avaliar as suas próprias saídas, contudo a automodificação iterativa acarreta o risco de um desvio subtil no alinhamento. Apresentamos o SAHOO, uma estrutura prática para monitorizar e controlar este desvio através de três salvaguardas: (i) o Índice de Desvio de Objetivos (GDI), um detetor aprendido de múltiplos sinais que combina medidas semânticas, lexicais, estruturais e distribucionais; (ii) verificações de preservação de restrições que impõem invariantes críticos de segurança, como a correção sintática e a não-alucinação; e (iii) a quantificação do risco de regressão para sinalizar ciclos de melhoria que anulem ganhos anteriores. Em 189 tarefas de geração de código, raciocínio matemático e veracidade, o SAHOO produz ganhos substanciais de qualidade, incluindo uma melhoria de 18,3% nas tarefas de código e de 16,8% no raciocínio, preservando simultaneamente as restrições em dois domínios e mantendo baixas violações na veracidade. Os limiares são calibrados num pequeno conjunto de validação de 18 tarefas ao longo de três ciclos. Mapeamos ainda a fronteira capacidade-alinhamento, mostrando ciclos de melhoria inicial eficientes, mas com custos crescentes de alinhamento posteriormente, e expondo tensões específicas de domínio, como fluência versus factualidade. O SAHOO torna, portanto, a preservação do alinhamento durante a autorrecursividade mensurável, implementável e sistematicamente validada em escala.
English
Recursive self-improvement is moving from theory to practice: modern systems can critique, revise, and evaluate their own outputs, yet iterative self-modification risks subtle alignment drift. We introduce SAHOO, a practical framework to monitor and control drift through three safeguards: (i) the Goal Drift Index (GDI), a learned multi-signal detector combining semantic, lexical, structural, and distributional measures; (ii) constraint preservation checks that enforce safety-critical invariants such as syntactic correctness and non-hallucination; and (iii) regression-risk quantification to flag improvement cycles that undo prior gains. Across 189 tasks in code generation, mathematical reasoning, and truthfulness, SAHOO produces substantial quality gains, including 18.3 percent improvement in code tasks and 16.8 percent in reasoning, while preserving constraints in two domains and maintaining low violations in truthfulness. Thresholds are calibrated on a small validation set of 18 tasks across three cycles. We further map the capability-alignment frontier, showing efficient early improvement cycles but rising alignment costs later and exposing domain-specific tensions such as fluency versus factuality. SAHOO therefore makes alignment preservation during recursive self-improvement measurable, deployable, and systematically validated at scale.
PDF12March 26, 2026