TRACER : Routage adaptatif économe en coût basé sur les traces pour la classification par LLM
TRACER: Trace-Based Adaptive Cost-Efficient Routing for LLM Classification
April 16, 2026
Auteurs: Adam Rida
cs.AI
Résumé
Chaque appel à un point de terminaison de classification par LLM génère une paire entrée-sortie étiquetée déjà conservée dans les journaux de production. Ces paires constituent un ensemble d'entraînement gratuit et croissant : un substitut léger entraîné sur celles-ci peut absorber une part significative du trafic futur à un coût d'inférence marginal quasi nul. Les questions ouvertes sont de savoir quand le substitut est suffisamment fiable pour être déployé, ce qu'il traite par rapport à ce qu'il reporte, et comment cette frontière évolue avec l'accumulation des données.
Nous présentons TRACER (Routage Adaptatif Économe en Coût basé sur les Traces), un système open-source qui entraîne des substituts de ML sur les traces de production propres au LLM et gère le déploiement via une porte de parité : le substitut n'est activé que lorsque son accord avec le LLM dépasse un seuil α défini par l'utilisateur. Pour rendre la frontière de routage transparente, TRACER génère des artefacts d'interprétabilité décrivant quelles régions d'entrée le substitut traite, où il stagne, et pourquoi il reporte la requête.
Sur un benchmark d'intention à 77 classes avec un enseignant Sonnet 4.6, TRACER atteint une couverture par le substitut de 83 à 100 % selon l'objectif de qualité α ; sur un benchmark à 150 classes, le substitut remplace intégralement l'enseignant. Sur une tâche d'inférence en langage naturel, la porte de parité refuse correctement le déploiement car la représentation par embeddings ne permet pas une séparation fiable. Le système est disponible en tant que logiciel open-source.
English
Every call to an LLM classification endpoint produces a labeled input-output pair already retained in production logs. These pairs constitute a free, growing training set: a lightweight surrogate trained on them can absorb a significant portion of future traffic at near-zero marginal inference cost. The open questions are when the surrogate is reliable enough to deploy, what it handles versus defers, and how that boundary evolves as data accumulates.
We introduce TRACER (Trace-based Adaptive Cost-Efficient Routing), an open-source system that trains ML surrogates on an LLM's own production traces and governs deployment through a parity gate: the surrogate is activated only when its agreement with the LLM exceeds a user-specified threshold α. To make the routing boundary transparent, TRACER generates interpretability artifacts describing which input regions the surrogate handles, where it plateaus, and why it defers.
On a 77-class intent benchmark with a Sonnet 4.6 teacher, TRACER achieves 83-100% surrogate coverage depending on the quality target α; on a 150-class benchmark, the surrogate fully replaces the teacher. On a natural language inference task, the parity gate correctly refuses deployment because the embedding representation cannot support reliable separation. The system is available as open-source software.