TRACER: Адаптивная маршрутизация на основе трассировки для рентабельной классификации с помощью больших языковых моделей
TRACER: Trace-Based Adaptive Cost-Efficient Routing for LLM Classification
April 16, 2026
Авторы: Adam Rida
cs.AI
Аннотация
Каждый вызов эндпоинта классификации с помощью большой языковой модели (LLM) порождает размеченную входно-выходную пару, которая автоматически сохраняется в производственных логах. Эти пары образуют бесплатный, постоянно растущий тренировочный набор: легковесный суррогатный классификатор, обученный на них, может поглотить значительную долю будущего трафика с почти нулевыми предельными затратами на инференс. Открытыми вопросами остаются: когда суррогат становится достаточно надежным для развертывания, что он обрабатывает, а что передает далее, и как эта граница эволюционирует с накоплением данных.
Мы представляем TRACER (Trace-based Adaptive Cost-Efficient Routing) — систему с открытым исходным кодом, которая обучает ML-суррогаты на собственных производственных трассировках LLM и управляет их развертыванием с помощью порога соответствия (parity gate): суррогат активируется только тогда, когда его согласие с LLM превышает заданный пользователем порог α. Чтобы сделать границу маршрутизации прозрачной, TRACER генерирует интерпретируемые артефакты, описывающие, какие области входных данных обрабатывает суррогат, где его качество выходит на плато и почему он передает запросы.
На бенчмарке из 77 классов интентов с учителем Sonnet 4.6 система TRACER достигает покрытия суррогатом от 83% до 100% в зависимости от целевого показателя качества α; на бенчмарке из 150 классов суррогат полностью заменяет учителя. В задаче натурального языкового вывода порог соответствия корректно отклоняет развертывание, поскольку представление в виде эмбеддингов не обеспечивает надежного разделения классов. Система доступна в качестве программного обеспечения с открытым исходным кодом.
English
Every call to an LLM classification endpoint produces a labeled input-output pair already retained in production logs. These pairs constitute a free, growing training set: a lightweight surrogate trained on them can absorb a significant portion of future traffic at near-zero marginal inference cost. The open questions are when the surrogate is reliable enough to deploy, what it handles versus defers, and how that boundary evolves as data accumulates.
We introduce TRACER (Trace-based Adaptive Cost-Efficient Routing), an open-source system that trains ML surrogates on an LLM's own production traces and governs deployment through a parity gate: the surrogate is activated only when its agreement with the LLM exceeds a user-specified threshold α. To make the routing boundary transparent, TRACER generates interpretability artifacts describing which input regions the surrogate handles, where it plateaus, and why it defers.
On a 77-class intent benchmark with a Sonnet 4.6 teacher, TRACER achieves 83-100% surrogate coverage depending on the quality target α; on a 150-class benchmark, the surrogate fully replaces the teacher. On a natural language inference task, the parity gate correctly refuses deployment because the embedding representation cannot support reliable separation. The system is available as open-source software.