ChatPaper.aiChatPaper

Агентные системы искусственного интеллекта должны проектироваться как маржинальные распределители токенов.

Agentic AI Systems Should Be Designed as Marginal Token Allocators

May 2, 2026
Авторы: Siqi Zhu
cs.AI

Аннотация

В данной позиционной статье утверждается, что агентные системы ИИ следует проектировать и оценивать как экономики маржинального распределения токенов, а не как генераторы текста, тарифицируемые поштучно. Мы прослеживаем выполнение одного запроса — когда разработчик просит coding-агента исправить падающий тест — через четыре экономических уровня, которые сегодня проектируются изолированно: маршрутизатор, решающий, какая модель будет отвечать; агент, решающий, планировать ли, действовать, проверять или откладывать; сервисный стек, решающий, как производить каждый токен; и обучающий конвейер, решающий, стоит ли обучаться на данном трейсе. Мы показываем, что все четыре уровня решают одно и то же условие первого порядка — предельная выгода равна предельным издержкам плюс издержки задержки плюс издержки риска — но с разными множествами индексов и разными ценами. Данная рамка сознательно минималистична: мы не предлагаем законченной теории экономики ИИ. Однако принятие маржинального распределения токенов в качестве общего объекта учёта объясняет, почему системы, локально минимизирующие токены, глобально их misallocated, предсказывает небольшой набор повторяющихся режимов сбоев (чрезмерная маршрутизация, чрезмерное делегирование, недостаточная верификация, перегрузка сервиса, устаревшие развёртывания, некорректное использование кэша) и указывает на конкретную программу исследований в области токен-ориентированной оценки, ценообразования за автономию, сервиса с учётом перегрузок и риск-скорректированного бюджетирования обучения с подкреплением.
English
This position paper argues that agentic AI systems should be designed and evaluated as marginal token allocation economies rather than as text generators priced by the unit. We follow a single request -- a developer asking a coding agent to fix a failing test -- through four economic layers that today are designed in isolation: a router that decides which model answers, an agent that decides whether to plan, act, verify, or defer, a serving stack that decides how to produce each token, and a training pipeline that decides whether the trace is worth learning from. We show that all four layers are solving the same first-order condition -- marginal benefit equals marginal cost plus latency cost plus risk cost -- with different index sets and different prices. The framing is deliberately minimal: we do not propose a complete theory of AI economics. But adopting marginal token allocation as the shared accounting object explains why systems that locally minimize tokens globally misallocate them, predicts a small set of recurring failure modes (over-routing, over-delegation, under-verification, serving congestion, stale rollouts, cache misuse), and points to a concrete research agenda in token-aware evaluation, autonomy pricing, congestion-priced serving, and risk-adjusted RL budgeting.
PDF21May 6, 2026