ORION: Sprachmodellen beibringen, effizient in der Sprache des Denkens zu schlussfolgern
ORION: Teaching Language Models to Reason Efficiently in the Language of Thought
November 28, 2025
papers.authors: Kumar Tanmay, Kriti Aggarwal, Paul Pu Liang, Subhabrata Mukherjee
cs.AI
papers.abstract
Große Reasoning-Modelle (LRMs) erzielen starke Leistungen in Mathematik, Code-Generierung und Aufgabenplanung, doch ihre Abhängigkeit von langen Ketten ausführlicher "Denk"-Tokens führt zu hoher Latenz, Redundanz und inkohärenten Reasoning-Pfaden. Inspiriert von der Sprache-des-Geistes-Hypothese, die postuliert, dass menschliches Denken auf einer symbolischen, kompositionellen mentalen Sprache namens Mentalese operiert, führen wir ein Framework ein, das Modelle darin trainiert, in einem ähnlich kompakten Stil zu schlussfolgern. Mentalese kodiert abstraktes Reasoning als ultra-kompakte, strukturierte Tokens, sodass Modelle komplexe Probleme mit deutlich weniger Schritten lösen können. Um sowohl Effizienz als auch Genauigkeit zu verbessern, schlagen wir SHORTER LENGTH PREFERENCE OPTIMIZATION (SLPO) vor, eine Reinforcement-Learning-Methode, die präzise, korrekte Lösungen belohnt, während sie bei Bedarf auch längeres Reasoning zulässt. Angewendet auf Mentalese-angepasste Modelle erzielt SLPO deutlich höhere Kompressionsraten, indem es präzises Reasoning ermöglicht, das die Vorteile detaillierten Denkens bewahrt, ohne den Rechenaufwand. Über Benchmarks einschließlich AIME 2024 und 2025, MinervaMath, OlympiadBench, Math500 und AMC hinweg produzieren unsere ORION-Modelle Reasoning-Traces mit 4–16 mal weniger Tokens, erreichen bis zu 5 mal geringere Inferenzlatenz und reduzieren Trainingskosten um das 7–9 fache im Vergleich zum DeepSeek R1 Distilled-Modell, bei gleichzeitiger Beibehaltung von 90–98 % seiner Genauigkeit. ORION übertrifft zudem Claude und ChatGPT-4o in der Genauigkeit um bis zu 5 %, bei gleichbleibender 2-facher Kompression. Diese Ergebnisse zeigen, dass Mentalese-artiges komprimiertes Reasoning einen Schritt hin zu menschlicher kognitiver Effizienz darstellt und Echtzeit- und kosteneffektives Reasoning ohne Genauigkeitsverluste ermöglicht.
English
Large Reasoning Models (LRMs) achieve strong performance in mathematics, code generation, and task planning, but their reliance on long chains of verbose "thinking" tokens leads to high latency, redundancy, and incoherent reasoning paths. Inspired by the Language of Thought Hypothesis, which posits that human reasoning operates over a symbolic, compositional mental language called Mentalese, we introduce a framework that trains models to reason in a similarly compact style. Mentalese encodes abstract reasoning as ultra-compressed, structured tokens, enabling models to solve complex problems with far fewer steps. To improve both efficiency and accuracy, we propose SHORTER LENGTH PREFERENCE OPTIMIZATION (SLPO), a reinforcement learning method that rewards concise solutions that stay correct, while still allowing longer reasoning when needed. Applied to Mentalese-aligned models, SLPO yields significantly higher compression rates by enabling concise reasoning that preserves the benefits of detailed thinking without the computational overhead. Across benchmarks including AIME 2024 and 2025, MinervaMath, OlympiadBench, Math500, and AMC, our ORION models produce reasoning traces with 4-16x fewer tokens, achieve up to 5x lower inference latency, and reduce training costs by 7-9x relative to the DeepSeek R1 Distilled model, while maintaining 90-98% of its accuracy. ORION also surpasses Claude and ChatGPT-4o by up to 5% in accuracy while maintaining 2x compression. These results show that Mentalese-style compressed reasoning offers a step toward human-like cognitive efficiency, enabling real-time, cost-effective reasoning without sacrificing accuracy.