ChatPaper.aiChatPaper

SAHOO : Alignement Sécurisé pour les Objectifs d'Optimisation d'Ordre Supérieur dans l'Amélioration de Soi Récurrente

SAHOO: Safeguarded Alignment for High-Order Optimization Objectives in Recursive Self-Improvement

March 6, 2026
Auteurs: Subramanyam Sahoo, Aman Chadha, Vinija Jain, Divya Chaudhary
cs.AI

Résumé

L'auto-amélioration récursive passe de la théorie à la pratique : les systèmes modernes peuvent critiquer, réviser et évaluer leurs propres résultats, mais l'auto-modification itérative risque une dérive subtile de l'alignement. Nous présentons SAHOO, un cadre pratique pour surveiller et contrôler cette dérive via trois mécanismes de sauvegarde : (i) l'Indice de Dérive des Objectifs (IDO), un détecteur apprenant multi-signaux combinant des mesures sémantiques, lexicales, structurelles et distributionnelles ; (ii) des vérifications de préservation des contraintes qui imposent des invariants critiques pour la sécurité, tels que la correction syntaxique et la non-hallucination ; et (iii) une quantification du risque de régression pour signaler les cycles d'amélioration qui annulent les gains antérieurs. Sur 189 tâches de génération de code, de raisonnement mathématique et de véracité, SAHOO produit des gains de qualité substantiels, notamment une amélioration de 18,3 % pour les tâches de code et de 16,8 % pour le raisonnement, tout en préservant les contraintes dans deux domaines et en maintenant un faible taux de violations pour la véracité. Les seuils sont calibrés sur un petit ensemble de validation de 18 tâches sur trois cycles. Nous cartographions en outre la frontière capacité-alignement, montrant des cycles d'amélioration précoces efficaces mais des coûts d'alignement croissants ultérieurement, et exposant des tensions spécifiques aux domaines telles que la fluidité contre l'exactitude factuelle. SAHOO rend ainsi la préservation de l'alignement durant l'auto-amélioration récursive mesurable, déployable et systématiquement validée à grande échelle.
English
Recursive self-improvement is moving from theory to practice: modern systems can critique, revise, and evaluate their own outputs, yet iterative self-modification risks subtle alignment drift. We introduce SAHOO, a practical framework to monitor and control drift through three safeguards: (i) the Goal Drift Index (GDI), a learned multi-signal detector combining semantic, lexical, structural, and distributional measures; (ii) constraint preservation checks that enforce safety-critical invariants such as syntactic correctness and non-hallucination; and (iii) regression-risk quantification to flag improvement cycles that undo prior gains. Across 189 tasks in code generation, mathematical reasoning, and truthfulness, SAHOO produces substantial quality gains, including 18.3 percent improvement in code tasks and 16.8 percent in reasoning, while preserving constraints in two domains and maintaining low violations in truthfulness. Thresholds are calibrated on a small validation set of 18 tasks across three cycles. We further map the capability-alignment frontier, showing efficient early improvement cycles but rising alignment costs later and exposing domain-specific tensions such as fluency versus factuality. SAHOO therefore makes alignment preservation during recursive self-improvement measurable, deployable, and systematically validated at scale.
PDF11March 12, 2026