ChatPaper.aiChatPaper

Напряжение между полезностью и обучением в самоизменяющихся агентах

Utility-Learning Tension in Self-Modifying Agents

October 5, 2025
Авторы: Charles L. Wang, Keir Dorchen, Peter Jin
cs.AI

Аннотация

По мере того как системы стремятся к сверхинтеллекту, естественной предпосылкой для моделирования является то, что агенты могут самосовершенствоваться во всех аспектах своей собственной конструкции. Мы формализуем это с помощью пятиосевой декомпозиции и слоя принятия решений, разделяя стимулы от поведения обучения и анализируя оси изолированно. Наш ключевой результат выявляет и вводит острое противоречие между полезностью и обучением — структурный конфликт в самомодифицирующихся системах, при котором изменения, направленные на повышение полезности и улучшение текущей или ожидаемой производительности, могут также разрушать статистические предпосылки для надежного обучения и обобщения. Наши результаты показывают, что гарантии, не зависящие от распределения, сохраняются тогда и только тогда, когда семейство моделей, достижимых политикой, равномерно ограничено по емкости; когда емкость может расти без ограничений, рациональные с точки зрения полезности самопреобразования могут сделать обучаемые задачи необучаемыми. При стандартных предположениях, распространенных на практике, эти оси сводятся к одному критерию емкости, что дает единую границу для безопасной самомодификации. Численные эксперименты по нескольким осям подтверждают теорию, сравнивая разрушительные политики полезности с предложенными нами двухэтапными политиками, которые сохраняют обучаемость.
English
As systems trend toward superintelligence, a natural modeling premise is that agents can self-improve along every facet of their own design. We formalize this with a five-axis decomposition and a decision layer, separating incentives from learning behavior and analyzing axes in isolation. Our central result identifies and introduces a sharp utility--learning tension, the structural conflict in self-modifying systems whereby utility-driven changes that improve immediate or expected performance can also erode the statistical preconditions for reliable learning and generalization. Our findings show that distribution-free guarantees are preserved iff the policy-reachable model family is uniformly capacity-bounded; when capacity can grow without limit, utility-rational self-changes can render learnable tasks unlearnable. Under standard assumptions common in practice, these axes reduce to the same capacity criterion, yielding a single boundary for safe self-modification. Numerical experiments across several axes validate the theory by comparing destructive utility policies against our proposed two-gate policies that preserve learnability.
PDF12October 7, 2025