Когда модели рассуждают на вашем языке: управление языком мыслительных процессов снижает точность
When Models Reason in Your Language: Controlling Thinking Trace Language Comes at the Cost of Accuracy
May 28, 2025
Авторы: Jirui Qi, Shan Chen, Zidi Xiong, Raquel Fernández, Danielle S. Bitterman, Arianna Bisazza
cs.AI
Аннотация
Недавние крупные модели рассуждений (LRMs) с трассировкой мышления продемонстрировали высокую производительность в задачах на рассуждение на английском языке. Однако их способность мыслить на других языках изучена в меньшей степени. Эта способность так же важна, как и точность ответов, для реальных приложений, поскольку пользователи могут находить трассировку рассуждений полезной для контроля только в том случае, если она выражена на их родном языке. Мы всесторонне оцениваем две ведущие семейства LRMs на нашем бенчмарке XReasoning и обнаруживаем, что даже самые передовые модели часто возвращаются к английскому языку или создают фрагментированные рассуждения на других языках, что указывает на существенный разрыв в многоязычных рассуждениях. Вмешательства на основе промтов, которые заставляют модели рассуждать на языке пользователя, улучшают читаемость и контроль, но снижают точность ответов, выявляя важный компромисс. Мы также показываем, что целевое пост-обучение всего на 100 примерах смягчает это несоответствие, хотя некоторая потеря точности сохраняется. Наши результаты подчеркивают ограниченные возможности многоязычных рассуждений современных LRMs и намечают направления для будущих исследований. Код и данные доступны по адресу https://github.com/Betswish/mCoT-XReasoning.
English
Recent Large Reasoning Models (LRMs) with thinking traces have shown strong
performance on English reasoning tasks. However, their ability to think in
other languages is less studied. This capability is as important as answer
accuracy for real world applications because users may find the reasoning trace
useful for oversight only when it is expressed in their own language. We
comprehensively evaluate two leading families of LRMs on our XReasoning
benchmark and find that even the most advanced models often revert to English
or produce fragmented reasoning in other languages, revealing a substantial gap
in multilingual reasoning. Prompt based interventions that force models to
reason in the users language improve readability and oversight but reduce
answer accuracy, exposing an important trade off. We further show that targeted
post training on just 100 examples mitigates this mismatch, though some
accuracy loss remains. Our results highlight the limited multilingual reasoning
capabilities of current LRMs and outline directions for future work. Code and
data are available at https://github.com/Betswish/mCoT-XReasoning.Summary
AI-Generated Summary