ChatPaper.aiChatPaper

LatentChem: Van tekstuele CoT naar latent denken in chemisch redeneren

LatentChem: From Textual CoT to Latent Thinking in Chemical Reasoning

February 6, 2026
Auteurs: Xinwu Ye, Yicheng Mao, Jia Zhang, Yimeng Liu, Li Hao, Fang Wu, Zhiwei Li, Yuxuan Liao, Zehong Wang, Zhiyuan Liu, Zhenfei Yin, Li Yuan, Philip Torr, Huan Sun, Xiangxiang Zeng, Mengdi Wang, Le Cong, Shenghua Gao, Xiangru Tang
cs.AI

Samenvatting

Chemische grote-taalmodelen (LLM's) zijn voornamelijk afhankelijk van expliciete Chain-of-Thought (CoT) in natuurlijke taal om complexe redeneringen uit te voeren. Chemisch redeneren is echter inherent continu en structureel, en het forceren hiervan in discrete linguïstieke tokens introduceert een fundamentele representatiemismatch die zowel de efficiëntie als de prestaties beperkt. Wij introduceren LatentChem, een latente redeneerinterface die chemische berekening ontkoppelt van tekstuele generatie, waardoor modellen multi-stap redeneringen direct in een continue latente ruimte kunnen uitvoeren terwijl ze alleen taal produceren voor de uiteindelijke output. Opmerkelijk genoeg observeren we een consistent emergent gedrag: wanneer modellen uitsluitend worden geoptimaliseerd voor taaksucces, internaliseren ze spontaan het redeneren en verlaten ze geleidelijk aan uitgebreide tekstuele afleidingen ten gunste van impliciete latente berekening. Deze verschuiving is niet louter stilistisch maar computationeel voordelig. Over diverse chemische redeneerbenchmarks behaalt LatentChem een non-tie winstpercentage van 59,88% ten opzichte van sterke CoT-baselines op ChemCoTBench, terwijl het een gemiddelde inferentiesnelheidsverbetering van 10,84 keer levert. Onze resultaten leveren empirisch bewijs dat chemisch redeneren natuurlijker en effectiever wordt gerealiseerd als continue latente dynamiek in plaats van gediscretiseerde linguïstieke trajecten.
English
Chemical large language models (LLMs) predominantly rely on explicit Chain-of-Thought (CoT) in natural language to perform complex reasoning. However, chemical reasoning is inherently continuous and structural, and forcing it into discrete linguistic tokens introduces a fundamental representation mismatch that constrains both efficiency and performance. We introduce LatentChem, a latent reasoning interface that decouples chemical computation from textual generation, enabling models to perform multi-step reasoning directly in continuous latent space while emitting language only for final outputs. Remarkably, we observe a consistent emergent behavior: when optimized solely for task success, models spontaneously internalize reasoning, progressively abandoning verbose textual derivations in favor of implicit latent computation. This shift is not merely stylistic but computationally advantageous. Across diverse chemical reasoning benchmarks, LatentChem achieves a 59.88\% non-tie win rate over strong CoT-based baselines on ChemCoTBench, while delivering a 10.84times average inference speedup. Our results provide empirical evidence that chemical reasoning is more naturally and effectively realized as continuous latent dynamics rather than discretized linguistic trajectories.
PDF182February 24, 2026