Quando i Modelli Ragionano nella Tua Lingua: Controllare il Linguaggio delle Tracce di Pensiero Compromette la Precisione
When Models Reason in Your Language: Controlling Thinking Trace Language Comes at the Cost of Accuracy
May 28, 2025
Autori: Jirui Qi, Shan Chen, Zidi Xiong, Raquel Fernández, Danielle S. Bitterman, Arianna Bisazza
cs.AI
Abstract
I recenti Large Reasoning Models (LRM) con tracce di pensiero hanno dimostrato prestazioni solide nei compiti di ragionamento in inglese. Tuttavia, la loro capacità di pensare in altre lingue è meno studiata. Questa capacità è importante tanto quanto l'accuratezza delle risposte per le applicazioni nel mondo reale, poiché gli utenti potrebbero trovare utile la traccia di ragionamento per il controllo solo quando è espressa nella loro lingua. Valutiamo in modo completo due famiglie leader di LRM sul nostro benchmark XReasoning e scopriamo che anche i modelli più avanzati spesso ricadono sull'inglese o producono ragionamenti frammentati in altre lingue, rivelando un divario sostanziale nel ragionamento multilingue. Interventi basati su prompt che costringono i modelli a ragionare nella lingua dell'utente migliorano la leggibilità e il controllo, ma riducono l'accuratezza delle risposte, evidenziando un importante compromesso. Mostriamo inoltre che un addestramento mirato su soli 100 esempi mitiga questa discrepanza, sebbene rimanga una certa perdita di accuratezza. I nostri risultati evidenziano le limitate capacità di ragionamento multilingue degli attuali LRM e delineano direzioni per lavori futuri. Codice e dati sono disponibili su https://github.com/Betswish/mCoT-XReasoning.
English
Recent Large Reasoning Models (LRMs) with thinking traces have shown strong
performance on English reasoning tasks. However, their ability to think in
other languages is less studied. This capability is as important as answer
accuracy for real world applications because users may find the reasoning trace
useful for oversight only when it is expressed in their own language. We
comprehensively evaluate two leading families of LRMs on our XReasoning
benchmark and find that even the most advanced models often revert to English
or produce fragmented reasoning in other languages, revealing a substantial gap
in multilingual reasoning. Prompt based interventions that force models to
reason in the users language improve readability and oversight but reduce
answer accuracy, exposing an important trade off. We further show that targeted
post training on just 100 examples mitigates this mismatch, though some
accuracy loss remains. Our results highlight the limited multilingual reasoning
capabilities of current LRMs and outline directions for future work. Code and
data are available at https://github.com/Betswish/mCoT-XReasoning.