LatentChem : Du raisonnement en chaîne textuel à la pensée latente dans le raisonnement chimique
LatentChem: From Textual CoT to Latent Thinking in Chemical Reasoning
February 6, 2026
papers.authors: Xinwu Ye, Yicheng Mao, Jia Zhang, Yimeng Liu, Li Hao, Fang Wu, Zhiwei Li, Yuxuan Liao, Zehong Wang, Zhiyuan Liu, Zhenfei Yin, Li Yuan, Philip Torr, Huan Sun, Xiangxiang Zeng, Mengdi Wang, Le Cong, Shenghua Gao, Xiangru Tang
cs.AI
papers.abstract
Les grands modèles de langage (LLM) chimiques reposent principalement sur un enchaînement explicite de raisonnements (Chain-of-Thought, CoT) en langage naturel pour effectuer des raisonnements complexes. Cependant, le raisonnement chimique est intrinsèquement continu et structurel, et le forcer en tokens linguistiques discrets introduit une inadéquation fondamentale de représentation qui limite à la fois l'efficacité et les performances. Nous présentons LatentChem, une interface de raisonnement latent qui découple le calcul chimique de la génération textuelle, permettant aux modèles d'effectuer un raisonnement multi-étapes directement dans un espace latent continu tout en n'émettant du langage que pour les résultats finaux. De manière remarquable, nous observons un comportement émergent constant : lorsqu'ils sont optimisés uniquement pour la réussite de la tâche, les modèles internalisent spontanément le raisonnement, abandonnant progressivement les dérivations textuelles verbeuses au profit d'un calcul latent implicite. Ce changement n'est pas seulement stylistique mais computationnellement avantageux. Sur divers benchmarks de raisonnement chimique, LatentChem atteint un taux de victoire sans égalité de 59,88 % par rapport à des bases de référence solides basées sur CoT sur ChemCoTBench, tout en offrant une accélération moyenne de l'inférence de 10,84 fois. Nos résultats fournissent des preuves empiriques que le raisonnement chimique est réalisé de manière plus naturelle et plus efficace sous forme de dynamiques latentes continues plutôt que de trajectoires linguistiques discrétisées.
English
Chemical large language models (LLMs) predominantly rely on explicit Chain-of-Thought (CoT) in natural language to perform complex reasoning. However, chemical reasoning is inherently continuous and structural, and forcing it into discrete linguistic tokens introduces a fundamental representation mismatch that constrains both efficiency and performance. We introduce LatentChem, a latent reasoning interface that decouples chemical computation from textual generation, enabling models to perform multi-step reasoning directly in continuous latent space while emitting language only for final outputs. Remarkably, we observe a consistent emergent behavior: when optimized solely for task success, models spontaneously internalize reasoning, progressively abandoning verbose textual derivations in favor of implicit latent computation. This shift is not merely stylistic but computationally advantageous. Across diverse chemical reasoning benchmarks, LatentChem achieves a 59.88\% non-tie win rate over strong CoT-based baselines on ChemCoTBench, while delivering a 10.84times average inference speedup. Our results provide empirical evidence that chemical reasoning is more naturally and effectively realized as continuous latent dynamics rather than discretized linguistic trajectories.