I grandi modelli di ragionamento (non sono ancora) ragionatori latenti multilingue
Large Reasoning Models Are (Not Yet) Multilingual Latent Reasoners
January 6, 2026
Autori: Yihong Liu, Raoyuan Zhao, Hinrich Schütze, Michael A. Hedderich
cs.AI
Abstract
I grandi modelli di ragionamento (LRM) ottengono prestazioni elevate in compiti di ragionamento matematico, spesso attribuite alla loro capacità di generare spiegazioni esplicite a catena del pensiero (CoT). Tuttavia, lavori recenti mostrano che gli LRM spesso giungono alla risposta corretta prima di completare questi passaggi di ragionamento testuale, indicando la presenza di un *ragionamento latente* – un calcolo interno e non verbale codificato negli stati nascosti. Sebbene questo fenomeno sia stato esplorato in inglese, il suo comportamento multilingue rimane in gran parte sconosciuto. In questo articolo, conduciamo un'indagine sistematica sul ragionamento latente multilingue negli LRM attraverso 11 lingue. Utilizzando una strategia basata sulla troncatura, esaminiamo come la risposta corretta emerga quando al modello vengono fornite solo tracce di ragionamento parziali, permettendoci di misurare la formazione latente delle previsioni passo dopo passo. I nostri risultati rivelano chiare evidenze di ragionamento latente multilingue, sebbene in modo disomogeneo: forte nelle lingue ad alte risorse, più debole in quelle a basse risorse, e generalmente meno osservabile su benchmark più difficili. Per capire se queste differenze riflettano meccanismi interni distinti, eseguiamo ulteriori analisi rappresentative. Nonostante le disparità superficiali, scopriamo che l'evoluzione interna delle previsioni è altamente coerente tra le lingue e si allinea ampiamente con l'inglese – uno schema che suggerisce un percorso di ragionamento latente centrato sulla lingua inglese.
English
Large reasoning models (LRMs) achieve strong performance on mathematical reasoning tasks, often attributed to their capability to generate explicit chain-of-thought (CoT) explanations. However, recent work shows that LRMs often arrive at the correct answer before completing these textual reasoning steps, indicating the presence of latent reasoning -- internal, non-verbal computation encoded in hidden states. While this phenomenon has been explored in English, its multilingual behavior remains largely unknown. In this paper, we conduct a systematic investigation of multilingual latent reasoning in LRMs across 11 languages. Using a truncation-based strategy, we examine how the correct answer emerges as the model is given only partial reasoning traces, allowing us to measure stepwise latent prediction formation. Our results reveal clear evidence of multilingual latent reasoning, though unevenly: strong in resource-rich languages, weaker in low-resource ones, and broadly less observable on harder benchmarks. To understand whether these differences reflect distinct internal mechanisms, we further perform representational analyses. Despite surface-level disparities, we find that the internal evolution of predictions is highly consistent across languages and broadly aligns with English -- a pattern suggesting an English-centered latent reasoning pathway.