SAHOO: Geschützte Ausrichtung für Optimierungsziele höherer Ordnung in rekursiver Selbstverbesserung
SAHOO: Safeguarded Alignment for High-Order Optimization Objectives in Recursive Self-Improvement
March 6, 2026
Autoren: Subramanyam Sahoo, Aman Chadha, Vinija Jain, Divya Chaudhary
cs.AI
Zusammenfassung
Rekursive Selbstverbesserung wird von der Theorie zur Praxis: Moderne Systeme können ihre eigenen Ausgaben kritisieren, überarbeiten und bewerten, doch iterative Selbstmodifikation birgt das Risiko subtiler Ziellinienabweichungen. Wir stellen SAHOO vor, einen praktischen Rahmen zur Überwachung und Kontrolle dieser Abweichung durch drei Sicherheitsvorkehrungen: (i) den Goal Drift Index (GDI), einen gelernten Multi-Signal-Detektor, der semantische, lexikalische, strukturelle und verteilungsbezogene Maße kombiniert; (ii) Erhaltungsprüfungen für Einschränkungen, die sicherheitskritische Invarianten wie syntaktische Korrektheit und Vermeidung von Halluzinationen durchsetzen; und (iii) Quantifizierung des Regressionsrisikos, um Verbesserungszyklen zu kennzeichnen, die frühere Gewinne rückgängig machen. In 189 Aufgaben aus den Bereichen Code-Generierung, mathematisches Denken und Wahrhaftigkeit erzielt SAHOO erhebliche Qualitätssteigerungen, einschließlich einer Verbesserung von 18,3 Prozent bei Code-Aufgaben und 16,8 Prozent beim Denken, wobei die Einschränkungen in zwei Domänen erhalten bleiben und die Verstöße gegen Wahrhaftigkeit gering bleiben. Die Schwellenwerte werden an einem kleinen Validierungssatz von 18 Aufgaben über drei Zyklen kalibriert. Wir kartieren weiterhin die Fähigkeits-Ziellinien-Grenze, die effiziente frühe Verbesserungszyklen, aber später steigende Ziellinienkosten zeigt und domänenspezifische Spannungen wie Flüssigkeit versus Faktizität offenlegt. SAHOO macht die Erhaltung der Ziellinientreue während der rekursiven Selbstverbesserung somit messbar, einsetzbar und systematisch großskalig validierbar.
English
Recursive self-improvement is moving from theory to practice: modern systems can critique, revise, and evaluate their own outputs, yet iterative self-modification risks subtle alignment drift. We introduce SAHOO, a practical framework to monitor and control drift through three safeguards: (i) the Goal Drift Index (GDI), a learned multi-signal detector combining semantic, lexical, structural, and distributional measures; (ii) constraint preservation checks that enforce safety-critical invariants such as syntactic correctness and non-hallucination; and (iii) regression-risk quantification to flag improvement cycles that undo prior gains. Across 189 tasks in code generation, mathematical reasoning, and truthfulness, SAHOO produces substantial quality gains, including 18.3 percent improvement in code tasks and 16.8 percent in reasoning, while preserving constraints in two domains and maintaining low violations in truthfulness. Thresholds are calibrated on a small validation set of 18 tasks across three cycles. We further map the capability-alignment frontier, showing efficient early improvement cycles but rising alignment costs later and exposing domain-specific tensions such as fluency versus factuality. SAHOO therefore makes alignment preservation during recursive self-improvement measurable, deployable, and systematically validated at scale.