MITS: Verbesserte Baum-Such-Reasoning für LLMs mittels punktweiser gegenseitiger Information
MITS: Enhanced Tree Search Reasoning for LLMs via Pointwise Mutual Information
October 4, 2025
papers.authors: Jiaxi Li, Yucheng Shi, Jin Lu, Ninghao Liu
cs.AI
papers.abstract
Die Baumsuche hat sich als ein repräsentatives Framework für das Testzeit-Schließen mit großen Sprachmodellen (LLMs) etabliert, wie beispielsweise Methoden wie Tree-of-Thought und Monte-Carlo-Baumsuche, die mehrere Schlussfolgerungspfade erkunden. Es bleibt jedoch schwierig, sofortige und zuverlässige quantitative Bewertungen der Qualität von Zwischenschritten in der Schlussfolgerung bereitzustellen, und die umfangreiche Erkundung von Pfaden ist rechenintensiv. Um dies zu adressieren, schlagen wir die Mutual Information Tree Search (MITS) vor, ein neuartiges Framework, das das Schließen mit informationstheoretischen Prinzipien leitet. MITS führt eine effektive Bewertungsfunktion basierend auf der punktweisen gegenseitigen Information (PMI) ein, die eine schrittweise Bewertung von Schlussfolgerungspfaden und die Erweiterung des Suchbaums durch Beam Search ohne kostspielige Vorausschau-Simulationen ermöglicht. Dadurch werden überlegene Schlussfolgerungsleistungen bei gleichzeitiger Beibehaltung der Recheneffizienz erreicht. Das Framework wird durch eine entropiebasierte dynamische Sampling-Strategie ergänzt, die Rechenressourcen adaptiv auf unsichere Schlussfolgerungsschritte verteilt, bei denen die Erkundung am vorteilhaftesten ist. Für die endgültige Vorhersage verwendet MITS ein gewichtetes Abstimmungsschema, das PMI-Bewertungen mit Vorhersagekonsens kombiniert. Durch umfassende Experimente auf diversen Schlussfolgerungs-Benchmarks übertrifft MITS konsistent Baseline-Methoden und etabliert ein prinzipielles und effizientes Framework für das Schließen mit LLMs.
English
Tree search has become as a representative framework for test-time reasoning
with large language models (LLMs), exemplified by methods such as
Tree-of-Thought and Monte Carlo Tree Search that explore multiple reasoning
paths. However, it remains difficult to provide instant and reliable
quantitative assessments of intermediate reasoning step quality, and extensive
path exploration is computationally costly. To address this, we propose Mutual
Information Tree Search (MITS), a novel framework that guides reasoning with
information-theoretic principles. MITS introduces an effective scoring function
based on pointwise mutual information (PMI), which enables step-wise evaluation
of reasoning paths and search tree expansion via beam search without expensive
look-ahead simulations, achieving superior reasoning performances while
maintaining computational efficiency. The framework is complemented by an
entropy-based dynamic sampling strategy that adaptively allocates computational
resources to uncertain reasoning steps where exploration is most beneficial.
For final prediction, MITS employs a weighted voting scheme that combines PMI
scores with prediction consensus. Through comprehensive experiments on diverse
reasoning benchmarks, MITS consistently surpasses baseline methods,
establishing a principled and efficient framework for LLM reasoning.