ChatPaper.aiChatPaper

SAHOO: Alineación Protegida para Objetivos de Optimización de Alto Orden en la Automejora Recursiva

SAHOO: Safeguarded Alignment for High-Order Optimization Objectives in Recursive Self-Improvement

March 6, 2026
Autores: Subramanyam Sahoo, Aman Chadha, Vinija Jain, Divya Chaudhary
cs.AI

Resumen

La autorreflexión recursiva está pasando de la teoría a la práctica: los sistemas modernos pueden criticar, revisar y evaluar sus propias salidas, aunque la modificación iterativa de sí mismos conlleva el riesgo de una deriva sutil en la alineación. Presentamos SAHOO, un marco práctico para monitorizar y controlar esta deriva mediante tres salvaguardas: (i) el Índice de Deriva de Objetivos (GDI), un detector multi-señal entrenado que combina medidas semánticas, léxicas, estructurales y distribucionales; (ii) comprobaciones de preservación de restricciones que hacen cumplir invariantes críticos para la seguridad, como la corrección sintáctica y la no-alucinación; y (iii) una cuantificación del riesgo de regresión para señalar los ciclos de mejora que deshacen ganancias previas. En 189 tareas de generación de código, razonamiento matemático y veracidad, SAHOO produce mejoras sustanciales en la calidad, incluyendo un 18,3 por ciento de mejora en tareas de código y un 16,8 por ciento en razonamiento, preservando las restricciones en dos dominios y manteniendo un bajo nivel de violaciones en veracidad. Los umbrales se calibran en un pequeño conjunto de validación de 18 tareas a lo largo de tres ciclos. Además, cartografiamos la frontera capacidad-alineación, mostrando ciclos de mejora temprana eficientes pero con costes crecientes de alineación posterior, y exponiendo tensiones específicas de dominio como la fluidez frente a la factualidad. Por lo tanto, SAHOO hace que la preservación de la alineación durante la autorreflexión recursiva sea medible, implementable y sistemáticamente validada a gran escala.
English
Recursive self-improvement is moving from theory to practice: modern systems can critique, revise, and evaluate their own outputs, yet iterative self-modification risks subtle alignment drift. We introduce SAHOO, a practical framework to monitor and control drift through three safeguards: (i) the Goal Drift Index (GDI), a learned multi-signal detector combining semantic, lexical, structural, and distributional measures; (ii) constraint preservation checks that enforce safety-critical invariants such as syntactic correctness and non-hallucination; and (iii) regression-risk quantification to flag improvement cycles that undo prior gains. Across 189 tasks in code generation, mathematical reasoning, and truthfulness, SAHOO produces substantial quality gains, including 18.3 percent improvement in code tasks and 16.8 percent in reasoning, while preserving constraints in two domains and maintaining low violations in truthfulness. Thresholds are calibrated on a small validation set of 18 tasks across three cycles. We further map the capability-alignment frontier, showing efficient early improvement cycles but rising alignment costs later and exposing domain-specific tensions such as fluency versus factuality. SAHOO therefore makes alignment preservation during recursive self-improvement measurable, deployable, and systematically validated at scale.
PDF11March 12, 2026