LYNX: Apprendimento di Uscite Dinamiche per Ragionamento a Controllo di Confidenza
LYNX: Learning Dynamic Exits for Confidence-Controlled Reasoning
December 5, 2025
Autori: Ömer Faruk Akgül, Yusuf Hakan Kalaycı, Rajgopal Kannan, Willie Neiswanger, Viktor Prasanna
cs.AI
Abstract
I grandi modelli di ragionamento ottengono prestazioni elevate su compiti complessi generando catene di pensiero estese, ma spesso "pensano troppo": continuano a ragionare ben dopo aver raccolto informazioni sufficienti per rispondere correttamente. Ciò spreca risorse computazionali durante l'inferenza e può danneggiare l'accuratezza. I tentativi esistenti di arresto precoce manipolano il decoding con campionamenti aggiuntivi ed euristiche, si affidano a modelli verificatori ausiliari, o operano solo come pipeline di analisi post-hoc senza garanzie formali. Introduciamo LYNX, un meccanismo di uscita anticipata online che trasforma la consapevolezza dello stato interno del modello in decisioni di arresto controllate dalla confidenza. LYNX collega le decisioni di uscita a segnali di ragionamento naturali (es. "hmm", "aspetta") durante la generazione, addestra una sonda leggera sugli stati interni in corrispondenza di tali segnali usando supervisione da uscite forzate, e avvolge i punteggi risultanti nella predizione conformale split per ottenere un controllo distribuzione-libero sulle uscite premature. Crucialmente, addestriamo e calibriamo questa sonda una volta su un corpus matematico generico e la riutilizziamo invariata su benchmark, temperature di decoding e persino compiti non matematici. Su tre famiglie di modelli da 1,5B a 32B parametri, una singola sonda addestrata matematicamente per modello base produce forti compromessi accuratezza-efficienza. Su GSM8K, LYNX eguaglia o migliora l'accuratezza baseline riducendo i token del 40–65%; su MATH-500 migliora l'accuratezza fino a 12 punti con circa il 35–60% di token in meno; su AIME 2024 recupera l'accuratezza baseline con risparmi superiori al 50% sui token; e su CommonsenseQA, un benchmark non matematico, trasferisce zero-shot con modesti guadagni di accuratezza e fino al 70% di token in meno. Rispetto ai metodi di uscita anticipata all'avanguardia, LYNX offre fronti di Pareto competitivi o superiori rimanendo completamente online, non richiedendo modelli proxy durante l'inferenza e fornendo garanzie di confidenza esplicite e regolabili dall'utente.
English
Large reasoning models achieve strong performance on complex tasks by generating extended chains of thought, but they often "overthink": continuing to reason long after they have enough information to answer correctly. This wastes inference-time compute and can hurt accuracy. Existing attempts to stop early either manipulate decoding with extra sampling and heuristics, rely on auxiliary verifier models, or operate only as post-hoc analysis pipelines without formal guarantees. We introduce LYNX, an online early-exit mechanism that turns a model's own hidden-state awareness into confidence-controlled stopping decisions. LYNX attaches exit decisions to naturally occurring reasoning cues (e.g., "hmm", "wait") during generation, trains a lightweight probe on hidden states at those cue tokens using supervision from forced exits, and wraps the resulting scores in split conformal prediction to obtain distribution-free control over premature exits. Crucially, we train and calibrate this probe once on a generic mathematical corpus and reuse it unchanged across benchmarks, decoding temperatures, and even non-mathematical tasks. Across three model families spanning 1.5B to 32B parameters, a single mathematically trained probe per base model yields strong accuracy--efficiency tradeoffs. On GSM8K, LYNX matches or improves baseline accuracy while reducing tokens by 40--65\%; on MATH-500 it improves accuracy by up to 12 points with roughly 35--60\% fewer tokens; on AIME 2024 it recovers baseline accuracy with more than 50\% token savings; and on CommonsenseQA, a non-math benchmark, it transfers zero-shot with modest accuracy gains and up to 70\% fewer tokens. Compared to state-of-the-art early-exit methods, LYNX offers competitive or superior Pareto frontiers while remaining fully online, requiring no proxy models at inference, and providing explicit, user-tunable confidence guarantees.