SAHOO: Allineamento Protetto per Obiettivi di Ottimizzazione di Ordine Superiore nell'Auto-Miglioramento Ricorsivo
SAHOO: Safeguarded Alignment for High-Order Optimization Objectives in Recursive Self-Improvement
March 6, 2026
Autori: Subramanyam Sahoo, Aman Chadha, Vinija Jain, Divya Chaudhary
cs.AI
Abstract
Il miglioramento ricorsivo autonomo sta passando dalla teoria alla pratica: i sistemi moderni possono criticare, revisionare e valutare i propri output, ma l'automodifica iterativa rischia una deriva sottile dell'allineamento. Introduciamo SAHOO, un framework pratico per monitorare e controllare la deriva attraverso tre meccanismi di salvaguardia: (i) il Goal Drift Index (GDI), un rilevatore appreso multi-segnale che combina misure semantiche, lessicali, strutturali e distribuzionali; (ii) controlli di preservazione dei vincoli che impongono invarianti critici per la sicurezza, come la correttezza sintattica e la non-allucinazione; e (iii) la quantificazione del rischio di regressione per segnalare cicli di miglioramento che annullano progressi precedenti. Su 189 task di generazione di codice, ragionamento matematico e veridicità, SAHOO produce sostanziali guadagni qualitativi, incluso un miglioramento del 18,3% nei task di codice e del 16,8% nel ragionamento, preservando i vincoli in due domini e mantenendo basse violazioni nella veridicità. Le soglie sono calibrate su un piccolo set di validazione di 18 task attraverso tre cicli. Mappiamo inoltre la frontiera capacità-allineamento, mostrando cicli di miglioramento efficienti nelle fasi iniziali ma costi di allineamento crescenti in seguito, ed evidenziando tensioni specifiche per dominio, come fluidità versus accuratezza fattuale. SAHOO rende quindi misurabile, distribuibile e sistematicamente validabile su larga scala la preservazione dell'allineamento durante il miglioramento ricorsivo autonomo.
English
Recursive self-improvement is moving from theory to practice: modern systems can critique, revise, and evaluate their own outputs, yet iterative self-modification risks subtle alignment drift. We introduce SAHOO, a practical framework to monitor and control drift through three safeguards: (i) the Goal Drift Index (GDI), a learned multi-signal detector combining semantic, lexical, structural, and distributional measures; (ii) constraint preservation checks that enforce safety-critical invariants such as syntactic correctness and non-hallucination; and (iii) regression-risk quantification to flag improvement cycles that undo prior gains. Across 189 tasks in code generation, mathematical reasoning, and truthfulness, SAHOO produces substantial quality gains, including 18.3 percent improvement in code tasks and 16.8 percent in reasoning, while preserving constraints in two domains and maintaining low violations in truthfulness. Thresholds are calibrated on a small validation set of 18 tasks across three cycles. We further map the capability-alignment frontier, showing efficient early improvement cycles but rising alignment costs later and exposing domain-specific tensions such as fluency versus factuality. SAHOO therefore makes alignment preservation during recursive self-improvement measurable, deployable, and systematically validated at scale.