Raisonner en tant que compression : unifier le forçage budgétaire via le principe de la bouteille informationnelle conditionnelle
Reasoning as Compression: Unifying Budget Forcing via the Conditional Information Bottleneck
March 9, 2026
Auteurs: Fabio Valerio Massoli, Andrey Kuzmin, Arash Behboodi
cs.AI
Résumé
L'incitation par chaîne de pensée (CoT) améliore la précision des LLM sur les tâches complexes, mais augmente souvent l'utilisation de tokens et le coût d'inférence. Les méthodes existantes de "forçage budgétaire" réduisent les coûts via un ajustement fin avec des pénalités de longueur heuristiques, mais suppriment à la fois le raisonnement essentiel et les éléments de remplissage redondants. Nous reformulons le raisonnement efficace comme un problème de compression avec pertes sous le principe du goulot d'étranglement informationnel (IB), et identifions une lacune théorique clé lors de l'application de l'IB naïf aux transformers : l'attention viole la propriété de Markov entre l'invite, la trace de raisonnement et la réponse. Pour résoudre ce problème, nous modélisons la génération CoT sous le principe du goulot d'étranglement informationnel conditionnel (CIB), où la trace de raisonnement Z agit comme un pont computationnel contenant uniquement l'information sur la réponse Y qui n'est pas directement accessible depuis l'invite X. Cela produit un objectif général d'apprentissage par renforcement : maximiser la récompense de tâche tout en compressant les complétions sous une a priori sur les traces de raisonnement, englobant les heuristiques courantes (par exemple, les pénalités de longueur) comme cas particuliers (par exemple, des a priori uniformes). Contrairement aux approches naïves basées sur le décompte de tokens, nous introduisons un a priori sémantique qui mesure le coût des tokens par la surprisal sous un a priori de modèle de langage. Empiriquement, notre objectif CIB élimine l'encombrement cognitif tout en préservant la fluidité et la logique, améliorant la précision à une compression modérée et permettant une compression agressive avec une baisse de précision minimale.
English
Chain-of-Thought (CoT) prompting improves LLM accuracy on complex tasks but often increases token usage and inference cost. Existing "Budget Forcing" methods reducing cost via fine-tuning with heuristic length penalties, suppress both essential reasoning and redundant filler. We recast efficient reasoning as a lossy compression problem under the Information Bottleneck (IB) principle, and identify a key theoretical gap when applying naive IB to transformers: attention violates the Markov property between prompt, reasoning trace, and response. To resolve this issue, we model CoT generation under the Conditional Information Bottleneck (CIB) principle, where the reasoning trace Z acts as a computational bridge that contains only the information about the response Y that is not directly accessible from the prompt X. This yields a general Reinforcement Learning objective: maximize task reward while compressing completions under a prior over reasoning traces, subsuming common heuristics (e.g., length penalties) as special cases (e.g., uniform priors). In contrast to naive token-counting-based approaches, we introduce a semantic prior that measures token cost by surprisal under a language model prior. Empirically, our CIB objective prunes cognitive bloat while preserving fluency and logic, improving accuracy at moderate compression and enabling aggressive compression with minimal accuracy drop.