ChatPaper.aiChatPaper

ORION: Ensinando Modelos de Linguagem a Raciocinar com Eficiência na Linguagem do Pensamento

ORION: Teaching Language Models to Reason Efficiently in the Language of Thought

November 28, 2025
Autores: Kumar Tanmay, Kriti Aggarwal, Paul Pu Liang, Subhabrata Mukherjee
cs.AI

Resumo

Os Grandes Modelos de Raciocínio (LRMs) alcançam um desempenho robusto em matemática, geração de código e planeamento de tarefas, mas a sua dependência de longas cadeias de "pensamentos" verbosos resulta em alta latência, redundância e percursos de raciocínio incoerentes. Inspirados pela Hipótese da Linguagem do Pensamento, que postula que o raciocínio humano opera sobre uma linguagem mental simbólica e composicional chamada Mentalese, introduzimos um *framework* que treina modelos para raciocinar num estilo igualmente compacto. O Mentalese codifica o raciocínio abstrato como *tokens* ultra-comprimidos e estruturados, permitindo que os modelos resolvam problemas complexos com muito menos passos. Para melhorar tanto a eficiência como a precisão, propomos a OTIMIZAÇÃO DE PREFERÊNCIA POR SOLUÇÕES CURTAS (SLPO), um método de aprendizagem por reforço que recompensa soluções concisas que se mantêm corretas, permitindo ainda um raciocínio mais longo quando necessário. Aplicado a modelos alinhados com o Mentalese, o SLPO produz taxas de compressão significativamente mais elevadas, permitindo um raciocínio conciso que preserva os benefícios do pensamento detalhado sem a sobrecarga computacional. Em *benchmarks* como o AIME 2024 e 2025, MinervaMath, OlympiadBench, Math500 e AMC, os nossos modelos ORION produzem traços de raciocínio com 4 a 16 vezes menos *tokens*, alcançam uma latência de inferência até 5 vezes menor e reduzem os custos de treino em 7 a 9 vezes em relação ao modelo DeepSeek R1 Distilled, mantendo 90-98% da sua precisão. O ORION também supera o Claude e o ChatGPT-4o em até 5% de precisão, mantendo uma compressão de 2x. Estes resultados mostram que o raciocínio comprimido no estilo Mentalese representa um passo em direção à eficiência cognitiva semelhante à humana, permitindo um raciocínio em tempo real e económico sem sacrificar a precisão.
English
Large Reasoning Models (LRMs) achieve strong performance in mathematics, code generation, and task planning, but their reliance on long chains of verbose "thinking" tokens leads to high latency, redundancy, and incoherent reasoning paths. Inspired by the Language of Thought Hypothesis, which posits that human reasoning operates over a symbolic, compositional mental language called Mentalese, we introduce a framework that trains models to reason in a similarly compact style. Mentalese encodes abstract reasoning as ultra-compressed, structured tokens, enabling models to solve complex problems with far fewer steps. To improve both efficiency and accuracy, we propose SHORTER LENGTH PREFERENCE OPTIMIZATION (SLPO), a reinforcement learning method that rewards concise solutions that stay correct, while still allowing longer reasoning when needed. Applied to Mentalese-aligned models, SLPO yields significantly higher compression rates by enabling concise reasoning that preserves the benefits of detailed thinking without the computational overhead. Across benchmarks including AIME 2024 and 2025, MinervaMath, OlympiadBench, Math500, and AMC, our ORION models produce reasoning traces with 4-16x fewer tokens, achieve up to 5x lower inference latency, and reduce training costs by 7-9x relative to the DeepSeek R1 Distilled model, while maintaining 90-98% of its accuracy. ORION also surpasses Claude and ChatGPT-4o by up to 5% in accuracy while maintaining 2x compression. These results show that Mentalese-style compressed reasoning offers a step toward human-like cognitive efficiency, enabling real-time, cost-effective reasoning without sacrificing accuracy.
PDF82February 26, 2026