MITS: Ragionamento Potenziato con Ricerca ad Albero per LLM tramite Informazione Mutua Puntuale
MITS: Enhanced Tree Search Reasoning for LLMs via Pointwise Mutual Information
October 4, 2025
Autori: Jiaxi Li, Yucheng Shi, Jin Lu, Ninghao Liu
cs.AI
Abstract
La ricerca ad albero è emersa come un framework rappresentativo per il ragionamento al momento del test con modelli linguistici di grandi dimensioni (LLM), esemplificato da metodi come Tree-of-Thought e Monte Carlo Tree Search che esplorano percorsi di ragionamento multipli. Tuttavia, rimane difficile fornire valutazioni quantitative istantanee e affidabili della qualità dei passaggi intermedi di ragionamento, e l'esplorazione estensiva dei percorsi è computazionalmente costosa. Per affrontare questo problema, proponiamo Mutual Information Tree Search (MITS), un nuovo framework che guida il ragionamento con principi teorici dell'informazione. MITS introduce una funzione di punteggio efficace basata sulla mutua informazione puntuale (PMI), che consente una valutazione passo-passo dei percorsi di ragionamento e l'espansione dell'albero di ricerca tramite beam search senza costose simulazioni di previsione, ottenendo prestazioni di ragionamento superiori mantenendo l'efficienza computazionale. Il framework è integrato da una strategia di campionamento dinamico basata sull'entropia che adatta l'allocazione delle risorse computazionali ai passaggi di ragionamento incerti dove l'esplorazione è più vantaggiosa. Per la previsione finale, MITS utilizza uno schema di voto ponderato che combina i punteggi PMI con il consenso delle previsioni. Attraverso esperimenti completi su benchmark di ragionamento diversificati, MITS supera costantemente i metodi di base, stabilendo un framework principiato ed efficiente per il ragionamento con LLM.
English
Tree search has become as a representative framework for test-time reasoning
with large language models (LLMs), exemplified by methods such as
Tree-of-Thought and Monte Carlo Tree Search that explore multiple reasoning
paths. However, it remains difficult to provide instant and reliable
quantitative assessments of intermediate reasoning step quality, and extensive
path exploration is computationally costly. To address this, we propose Mutual
Information Tree Search (MITS), a novel framework that guides reasoning with
information-theoretic principles. MITS introduces an effective scoring function
based on pointwise mutual information (PMI), which enables step-wise evaluation
of reasoning paths and search tree expansion via beam search without expensive
look-ahead simulations, achieving superior reasoning performances while
maintaining computational efficiency. The framework is complemented by an
entropy-based dynamic sampling strategy that adaptively allocates computational
resources to uncertain reasoning steps where exploration is most beneficial.
For final prediction, MITS employs a weighted voting scheme that combines PMI
scores with prediction consensus. Through comprehensive experiments on diverse
reasoning benchmarks, MITS consistently surpasses baseline methods,
establishing a principled and efficient framework for LLM reasoning.