ChatPaper.aiChatPaper

Aprendendo a Raciocinar via Mistura-de-Pensamentos para Raciocínio Lógico

Learning to Reason via Mixture-of-Thought for Logical Reasoning

May 21, 2025
Autores: Tong Zheng, Lichang Chen, Simeng Han, R. Thomas McCoy, Heng Huang
cs.AI

Resumo

Os seres humanos utilizam naturalmente múltiplas modalidades de raciocínio para aprender e resolver problemas lógicos, ou seja, diferentes formatos de representação, como linguagem natural, código e lógica simbólica. Em contraste, a maioria das abordagens existentes baseadas em LLMs opera com uma única modalidade de raciocínio durante o treinamento, tipicamente a linguagem natural. Embora alguns métodos tenham explorado a seleção ou ampliação de modalidades no momento da inferência, o processo de treinamento permanece cego às modalidades, limitando a sinergia entre elas. Para preencher essa lacuna, propomos o Mixture-of-Thought (MoT), um framework que permite que LLMs raciocinem através de três modalidades complementares: linguagem natural, código e uma nova modalidade simbólica, a tabela-verdade, que enumera sistematicamente casos lógicos e mitiga parcialmente modos de falha críticos no raciocínio em linguagem natural. O MoT adota um design em duas fases: (1) treinamento auto-evolutivo do MoT, que aprende conjuntamente a partir de racionalidades auto-geradas e filtradas entre as modalidades; e (2) inferência do MoT, que aproveita plenamente a sinergia das três modalidades para produzir previsões melhores. Experimentos em benchmarks de raciocínio lógico, incluindo FOLIO e ProofWriter, demonstram que nosso framework MoT supera consistentemente e de forma significativa as abordagens de chain-of-thought com modalidade única em LLMs, alcançando um ganho médio de precisão de até +11,7pp. Análises adicionais mostram que nosso framework MoT beneficia tanto o treinamento quanto a inferência; que é particularmente eficaz em problemas de raciocínio lógico mais difíceis; e que diferentes modalidades contribuem com pontos fortes complementares, com o raciocínio por tabela-verdade ajudando a superar gargalos críticos na inferência em linguagem natural.
English
Human beings naturally utilize multiple reasoning modalities to learn and solve logical problems, i.e., different representational formats such as natural language, code, and symbolic logic. In contrast, most existing LLM-based approaches operate with a single reasoning modality during training, typically natural language. Although some methods explored modality selection or augmentation at inference time, the training process remains modality-blind, limiting synergy among modalities. To fill in this gap, we propose Mixture-of-Thought (MoT), a framework that enables LLMs to reason across three complementary modalities: natural language, code, and a newly introduced symbolic modality, truth-table, which systematically enumerates logical cases and partially mitigates key failure modes in natural language reasoning. MoT adopts a two-phase design: (1) self-evolving MoT training, which jointly learns from filtered, self-generated rationales across modalities; and (2) MoT inference, which fully leverages the synergy of three modalities to produce better predictions. Experiments on logical reasoning benchmarks including FOLIO and ProofWriter demonstrate that our MoT framework consistently and significantly outperforms strong LLM baselines with single-modality chain-of-thought approaches, achieving up to +11.7pp average accuracy gain. Further analyses show that our MoT framework benefits both training and inference stages; that it is particularly effective on harder logical reasoning problems; and that different modalities contribute complementary strengths, with truth-table reasoning helping to overcome key bottlenecks in natural language inference.
PDF187December 8, 2025