ChatPaper.aiChatPaper

Quand les modèles raisonnent dans votre langue : contrôler le langage des traces de pensée se fait au détriment de la précision

When Models Reason in Your Language: Controlling Thinking Trace Language Comes at the Cost of Accuracy

May 28, 2025
Auteurs: Jirui Qi, Shan Chen, Zidi Xiong, Raquel Fernández, Danielle S. Bitterman, Arianna Bisazza
cs.AI

Résumé

Les récents modèles de raisonnement à grande échelle (LRMs) avec traces de pensée ont démontré des performances solides sur les tâches de raisonnement en anglais. Cependant, leur capacité à raisonner dans d'autres langues est moins étudiée. Cette capacité est aussi importante que la précision des réponses pour les applications réelles, car les utilisateurs peuvent trouver la trace de raisonnement utile pour la supervision uniquement lorsqu'elle est exprimée dans leur propre langue. Nous évaluons de manière exhaustive deux familles principales de LRMs sur notre benchmark XReasoning et constatons que même les modèles les plus avancés reviennent souvent à l'anglais ou produisent un raisonnement fragmenté dans d'autres langues, révélant un écart substantiel dans le raisonnement multilingue. Les interventions basées sur des prompts qui forcent les modèles à raisonner dans la langue de l'utilisateur améliorent la lisibilité et la supervision, mais réduisent la précision des réponses, exposant un compromis important. Nous montrons en outre qu'un post-entraînement ciblé sur seulement 100 exemples atténue ce décalage, bien qu'une certaine perte de précision subsiste. Nos résultats mettent en évidence les capacités limitées de raisonnement multilingue des LRMs actuels et tracent des directions pour les travaux futurs. Le code et les données sont disponibles à l'adresse https://github.com/Betswish/mCoT-XReasoning.
English
Recent Large Reasoning Models (LRMs) with thinking traces have shown strong performance on English reasoning tasks. However, their ability to think in other languages is less studied. This capability is as important as answer accuracy for real world applications because users may find the reasoning trace useful for oversight only when it is expressed in their own language. We comprehensively evaluate two leading families of LRMs on our XReasoning benchmark and find that even the most advanced models often revert to English or produce fragmented reasoning in other languages, revealing a substantial gap in multilingual reasoning. Prompt based interventions that force models to reason in the users language improve readability and oversight but reduce answer accuracy, exposing an important trade off. We further show that targeted post training on just 100 examples mitigates this mismatch, though some accuracy loss remains. Our results highlight the limited multilingual reasoning capabilities of current LRMs and outline directions for future work. Code and data are available at https://github.com/Betswish/mCoT-XReasoning.

Summary

AI-Generated Summary

PDF62May 30, 2025