ChatPaper.aiChatPaper

MITS : Raisonnement amélioré par recherche arborescente pour les LLM via l'information mutuelle ponctuelle

MITS: Enhanced Tree Search Reasoning for LLMs via Pointwise Mutual Information

October 4, 2025
papers.authors: Jiaxi Li, Yucheng Shi, Jin Lu, Ninghao Liu
cs.AI

papers.abstract

La recherche arborescente est devenue un cadre représentatif pour le raisonnement en temps de test avec les grands modèles de langage (LLMs), illustré par des méthodes telles que l’arbre de pensée et la recherche arborescente de Monte Carlo, qui explorent plusieurs chemins de raisonnement. Cependant, il reste difficile de fournir des évaluations quantitatives instantanées et fiables de la qualité des étapes intermédiaires de raisonnement, et l’exploration extensive des chemins est coûteuse en termes de calcul. Pour résoudre ce problème, nous proposons la recherche arborescente par information mutuelle (MITS), un cadre novateur qui guide le raisonnement à l’aide de principes issus de la théorie de l’information. MITS introduit une fonction de scoring efficace basée sur l’information mutuelle ponctuelle (PMI), permettant une évaluation étape par étape des chemins de raisonnement et une expansion de l’arbre de recherche via une recherche en faisceau, sans recourir à des simulations coûteuses de prévision, tout en maintenant une efficacité computationnelle. Ce cadre est complété par une stratégie d’échantillonnage dynamique basée sur l’entropie, qui alloue de manière adaptative les ressources computationnelles aux étapes de raisonnement incertaines où l’exploration est la plus bénéfique. Pour la prédiction finale, MITS utilise un schéma de vote pondéré qui combine les scores PMI avec le consensus des prédictions. À travers des expériences approfondies sur divers benchmarks de raisonnement, MITS surpasse systématiquement les méthodes de référence, établissant ainsi un cadre efficace et fondé sur des principes pour le raisonnement avec les LLMs.
English
Tree search has become as a representative framework for test-time reasoning with large language models (LLMs), exemplified by methods such as Tree-of-Thought and Monte Carlo Tree Search that explore multiple reasoning paths. However, it remains difficult to provide instant and reliable quantitative assessments of intermediate reasoning step quality, and extensive path exploration is computationally costly. To address this, we propose Mutual Information Tree Search (MITS), a novel framework that guides reasoning with information-theoretic principles. MITS introduces an effective scoring function based on pointwise mutual information (PMI), which enables step-wise evaluation of reasoning paths and search tree expansion via beam search without expensive look-ahead simulations, achieving superior reasoning performances while maintaining computational efficiency. The framework is complemented by an entropy-based dynamic sampling strategy that adaptively allocates computational resources to uncertain reasoning steps where exploration is most beneficial. For final prediction, MITS employs a weighted voting scheme that combines PMI scores with prediction consensus. Through comprehensive experiments on diverse reasoning benchmarks, MITS consistently surpasses baseline methods, establishing a principled and efficient framework for LLM reasoning.
PDF382October 7, 2025