LatentChem: Vom textuellen CoT zum latenten Denken beim chemischen Schließen
LatentChem: From Textual CoT to Latent Thinking in Chemical Reasoning
February 6, 2026
papers.authors: Xinwu Ye, Yicheng Mao, Jia Zhang, Yimeng Liu, Li Hao, Fang Wu, Zhiwei Li, Yuxuan Liao, Zehong Wang, Zhiyuan Liu, Zhenfei Yin, Li Yuan, Philip Torr, Huan Sun, Xiangxiang Zeng, Mengdi Wang, Le Cong, Shenghua Gao, Xiangru Tang
cs.AI
papers.abstract
Chemische Large Language Models (LLMs) stützen sich überwiegend auf explizite Chain-of-Thought (CoT) in natürlicher Sprache, um komplexe Schlussfolgerungen durchzuführen. Chemisches Denken ist jedoch inhärent kontinuierlich und strukturell, und die Zwangsjacke diskreter linguistischer Tokens führt zu einer grundlegenden Repräsentationslücke, die sowohl Effizienz als auch Leistung beeinträchtigt. Wir stellen LatentChem vor, eine latente Reasoning-Schnittstelle, die die chemische Berechnung von der textuellen Generierung entkoppelt. Dies ermöglicht es Modellen, mehrstufige Schlussfolgerungen direkt im kontinuierlichen latenten Raum durchzuführen, während Sprache nur für die endgültigen Ausgaben genutzt wird. Bemerkenswerterweise beobachten wir ein konsistentes emergentes Verhalten: Wenn Modelle ausschließlich auf Aufgabenerfolg optimiert werden, internalisieren sie das Reasoning spontan und verlassen zunehmend ausführliche textuelle Ableitungen zugunsten impliziter latenter Berechnungen. Diese Verschiebung ist nicht nur stilistisch, sondern recheneffizient vorteilhaft. In verschiedenen chemischen Reasoning-Benchmarks erzielt LatentChem eine Non-Tie-Win-Rate von 59,88 % gegenüber starken CoT-basierten Baselines auf ChemCoTBench und erreicht dabei eine durchschnittliche Beschleunigung des Inferenzvorgangs um den Faktor 10,84. Unsere Ergebnisse liefern empirische Belege dafür, dass chemisches Reasoning natürlicher und effektiver als kontinuierliche latente Dynamik realisiert wird denn als diskretisierte linguistische Trajektorien.
English
Chemical large language models (LLMs) predominantly rely on explicit Chain-of-Thought (CoT) in natural language to perform complex reasoning. However, chemical reasoning is inherently continuous and structural, and forcing it into discrete linguistic tokens introduces a fundamental representation mismatch that constrains both efficiency and performance. We introduce LatentChem, a latent reasoning interface that decouples chemical computation from textual generation, enabling models to perform multi-step reasoning directly in continuous latent space while emitting language only for final outputs. Remarkably, we observe a consistent emergent behavior: when optimized solely for task success, models spontaneously internalize reasoning, progressively abandoning verbose textual derivations in favor of implicit latent computation. This shift is not merely stylistic but computationally advantageous. Across diverse chemical reasoning benchmarks, LatentChem achieves a 59.88\% non-tie win rate over strong CoT-based baselines on ChemCoTBench, while delivering a 10.84times average inference speedup. Our results provide empirical evidence that chemical reasoning is more naturally and effectively realized as continuous latent dynamics rather than discretized linguistic trajectories.